2017年4月27日
AIスタートアップ企業があきれた総務省の「AIネットワーク社会推進会議」
マシンラーニングの専門家がおらず、SF的危機の思考で開発を規制する呆れた動き
おはようございます。
前回、総務省の情報通信政策研究所の「AIネットワーク社会推進会議」によるAI開発のガイドライン策定という記事を掲載いたしましたが、その後、有力なスタートアップ企業であるPreferred Networksが会議から離脱するという波乱がありました。
この産官学の研究会にはNTTデータや日立、富士通、日本電気など名だたる大企業が名を連ねていましたが、最もAI開発にかけては有力で専門的な企業と目されていた企業が、今後の日本の情報通信の核となり得るガイドライン策定の専門家の意見吸い上げの場から離脱するというのは、大事件といわざるを得ないでしょう。
同社の最高戦略責任者の発言からは、AIやディープラーニングに関する知識が、たとえIT系技術開発の最先端を行っていると思われている日本の大企業であっても、非常にあいまいなままであるということが露呈されているようです。
こうしたことはほかにも各所できかれます。先日、シンガポールで開かれたある国際的なAI会議でも、日本の企業は全く相手にされず、日本の技術を借りたいという言葉は一言も出てこなかったということです。それは海外企業のトップの認識レベルの高さと層の厚さが原因であるようです。
いずれにしても、企業の大中小を問わず、あたらしい技術に対しては明確に謙虚に調査研究をして、意識を高め、共通認識を構築していくことが急がれます。
AIベンチャーの雄が総務省の開発指針に反対する理由
ITpro
2017/4/10
http://itpro.nikkeibp.co.jp/atcl/column/14/346926/040600923/
人工知能(AI)の開発者が研究開発に当たって留意すべき原則「AI開発ガイドライン(仮称)」の素案を策定するため総務省が設置した産官学会議から、AIスタートアップのPreferred Networks(PFN)が離脱していたことが明らかになった。
Preferred Networksは深層学習(ディープラーニング)開発のスタートアップ企業で、深層学習フレームワーク「Chainer」の開発元としても知られる。
総務省 情報通信政策研究所は、同ガイドライン素案策定のための産官学会議「AIネットワーク社会推進会議」を主催している。2016年12月には、素案策定に向けた論点整理を公開した。
この素案は、日本政府がOECD(経済協力開発機構)などに提案することを目的に策定するもので、「日本の法制度に直接反映させることを想定したものではない」(同研究所)という。
だがこの方針に対し、2017年1月まで同会議に参加していたPFN 最高戦略責任者の丸山宏氏は、「この開発ガイドラインを政府から出すと、日本の研究開発の萎縮を招きかねない」と異を唱える。同じく同会議に参加していたPFN 社長兼最高経営責任者の西川徹氏と共に、同会議の委員から外れた。
今回の開発ガイドラインに反発するPFNの真意はどこにあるのか。丸山氏に聞いた。
汎用AIと特定AIを区別せず議論
「我々が参加した会議には、機械学習の専門家が少なく、結果として現場の声が十分に反映されなかった。汎用人工知能(筆者注:広範な領域で人間と同等以上の知能を発揮し、問題を解決できるAI)と、ある分野に特化した機械学習の技術を区別せずに議論していた」。これまで会議に参加していた丸山氏は、議論の中身についてこう不満を口にする。ターミネーターのようなSF(サイエンスフィクション)で語られる汎用人工知能に対する脅威論が、会議でもそのまま展開されていたという。
「こうした議論の結果として開発ガイドラインが作られ、機械学習のイノベーションが萎縮されることがあってはならない。日本が萎縮すれば、中国や米国といった研究開発のライバルに利するだけだ」(丸山氏)。
丸山氏は、総務省が公開したAI開発ガイドラインの論点整理について、二つの問題を指摘する。
一つは、AIのアルゴリズムを設計した人の責任と、AIに学習を施した人の責任を明確に分けていないことだ。
機械学習を応用したAIの開発工程は、大ざっぱに言えば「アルゴリズムを設計すること」と「データを入力して学習させること」に分かれる。深層学習でいえば、ニューラルネットワークの基本構成を決めるのが「設計」。そこにデータを大量に入力し、正しい出力が得られるようパラメータを調整するのが「学習」に当たる。
同じアルゴリズムやニューラルネット構造でも、学習用データが変われば出来上がるAIも異なるものになる。AIの設計から学習まで開発者が担うこともあれば、学習の一部をユーザーが担うこともある。
「にもかかわらず、現行のAI開発ガイドライン案は、開発者にばかり多くの責任を負わせる建て付けになっている。これはおかしい」と丸山氏は主張する。「会議に参加していた弁護士などは、ものづくりにおける製造物責任の考えを機械学習にもあてはめ、製造物並みの『品質保証』を求めているように感じた」(丸山氏)。
AI開発の実情を踏まえ、AIがもたらす結果の責任について開発者だけでなく、学習を施した利用者を含め、全体を踏まえて責任を分担すべきというわけだ。「米マイクロソフトが開発し、ヘイト発言を繰り返したチャットボット『Tay』の場合、アルゴリズムを開発したのはマイクロソフトだが、実際にヘイト発言を学習させたのは利用者だ。マイクロソフトばかり非難されるのはバランスを欠く」(丸山氏)。
経営者がAI活用をためらう可能性
もう一つの問題は、「政府が作成したガイドライン」という言葉が一人歩きし、開発の萎縮につながってしまうことだ。「企業や研究者コミュニティによる自主的な指針策定であれば問題はない。だが、こうした指針を政府の側から出すと、開発の萎縮につながりやすい」(丸山氏)という。
例えば、同会議で策定中の開発原則の中には「透明性の原則」という項目がある。AIの挙動を後から検証できるよう、入出力データやログの保存など、技術の特性に合わせた「合理的な透明性」を求めるものだ。「合理的な」という文言は、深層学習を始め、本質的にブラックボックス化しやすい技術に配慮したものとされる。
だが丸山氏は「この開発原則を『ガイドライン』という形で政府が公開すれば、企業の経営者は過剰に反応する可能性がある」と警戒する。「『このAIには、透明性があるのかね。ないとすれば、ビジネスには使えない』などと、過剰な萎縮を招く恐れがある」(丸山氏)というわけだ。
AI開発ガイドラインの論点整理には、開発原則の実効性を担保するため「企業が第三者機関の認定を受け、開発原則への適合性について認証を受ける」といった枠組みも、論点として掲げている。「これでは、開発原則は法規制ではないが、それに近い実効性を持たせる方針、という話に聞こえてしまう」(丸山氏)。
政府はほかにやるべきことはある
丸山氏は、自社が手掛ける深層学習について「コンピュータサイエンスの世界を確実に変えるものだ」と語る。ソフトウエア開発の中心が、従来のプログラミングから、ニューラルネットワークの設計と学習へと移行する、と見込んでいる。
深層学習の興隆に伴い、ソフトウエアだけでなく、ハードウエアのアーキテクチャーにも大きな変動が起こっている。「つい最近までは、x86サーバーを並べたクラウドサービスが全盛だった。深層学習では、GPU(グラフィックス処理プロセッサ)インフラが重要になる。我々も、北海道石狩市のデータセンターにあるGPUサーバーインフラを使っている。さらにNEDO(新エネルギー・産業技術総合開発機構)の助成の下、理化学研究所とハードウエア開発のプロジェクトも始めた」(丸山氏)。
「プログラムからニューラルネット」という変化に伴い、ニューラルネットを学習させた「学習済みモデル」や、学習用のデータセットについて、知的財産権の扱いが世界的に議論になっている。
プログラムは現在、ソースコードの著作権という形で知財を管理している。一方、学習済みモデルや学習データの知財保護の枠組みは、世界的にもまだ決まっていない。知財の保護が十分でなければAI開発のインセンティブが働かない。一方で、締め付けすぎるとAI開発の自由度を狭め、先行する海外メーカーにも有利になる。
日本では、学習済みモデルの保護について、内閣府や経済産業省などで議論が進んでいる。学習用データの扱いについては、日本の著作権法は第47条の7で、コンピュータなどを用いて情報解析を行う場合は必要な範囲で著作物を複製・翻案できる、としている。「この条項からすれば、AIにデータを読み込ませる工程自体に著作権侵害がないのは明らか。AI開発の自由度を高めるもので、世界に誇っていい条項だ」(丸山氏)。
こうした日本の立場を世界に発信し、議論を深めることこそ、政府の役割ではないか。丸山氏はこのように主張する。
世界でAI開発指針を巡り議論
現在、日本を含めて世界でAIの開発指針を巡る議論が起こっている。例えば米マイクロソフトは、公平性、説明責任、透明性、倫理をベースにした技術者向けガイドラインを社内で策定しているほか、AIが人間や社会に与える影響について企業同士で議論する業界団体「Partnership on AI」の活動も主導する。
国民に広がる脅威論を背景に、政府や国際機関による指針が策定されるのが先か、あるいは研究者、技術者が世間の不安を真摯に受け止め、業界横断で指針を作るのが先か。いずれにせよ、個人や企業の枠を超え、AIの開発指針について議論を尽くす必要があるのは間違いなさそうだ。
編集部からのコメントです。
この報道にはいくつかポイントがあります。まず、「製造物責任の考えを機械学習にもあてはめ、製造物並みの『品質保証』を求めている」という部分。PL法が施行されてもうだいぶたちます。始まった当初は、買った側の責任ということが当たり前の時代でしたが、ストーブの出火や瞬間湯沸かし器のガス漏れなど、生命の危険に至る災害に及ぶ事件が起こった末のことです。
AIに関しては、個人情報の流出や知的所有権の保護に関する責任を開発者に、これまでの電化製品などと同様に持たせようという、そのままスライドさせればいいという考えです。
しかし、AIの場合、設計開発だけではなく、学習という部分があり、それは開発者のみが行う場合もあれば、ユーザーが行う場合もあり、製造者やメーカーをひとくくりに責任対象者にしてしまうことは不可能で、もしそうした場合は開発の萎縮を伴うことが大いに考えられるということです。これでは日本のAI開発は足枷をはめられて、海外の大企業やスタートアップに(すでに大きく水をあけられているようですが)大して競争力を持つことは困難でしょう。