ジェフリー・ヒントン「人類を凌駕する人工知能に私は戦慄している」

「その時」は早ければ5年後に訪れるかもしれないと警鐘を鳴らすジェフリー・ヒントン Photo by Chloe Ellingson / The New York Times

「その時」は早ければ5年後に訪れるかもしれないと警鐘を鳴らすジェフリー・ヒントン Photo by Chloe Ellingson / The New York Times

5月初め、AI研究の第一人者であるジェフリー・ヒントンがグーグルを辞めたことが明らかになった。以来、世界中のメディアからの取材依頼をほぼすべて断っているという彼が、英紙「ガーディアン」だけに語った、AIの真の怖さ、人類滅亡の確率、その決定的瞬間が訪れるとき──。

悪意のある研究者はいない

ジェフリー・ヒントンが、インタビューの最初で口にし、私が録音を止める間際にも繰り返したのは、彼が10年間在籍したグーグルを円満に退社したということだった。

「私はグーグルがこれまでに成し遂げたことや、いま現在取り組んでいることに何の異論もありません。メディアは私を『グーグルに不満を募らせた社員』に仕立て上げたいようですが、そうではないんです」

そこをはっきりさせておくのが大事なのは、つい逆の結論に走りがちだからだ。結局のところ、自分の元勤務先を、人類を絶滅へと導く可能性の高い企業のひとつとして冷静に語るとき、たいていの人はその口ぶりに非難が混じるものだ。

だがヒントンに言わせると、私たちは文明に対する実存的な脅威に向かって夢遊病者のように歩み寄ろうとしており、関係者は誰ひとり悪意を持って行動していないという。

「AIのゴッドファーザー」3人のうちの1人として知られるヒントンは、2018年にディープラーニング(深層学習)の研究で、コンピュータ科学者にとってのノーベル賞とされる「ACMチューリング賞」を受賞した。認知心理学者でコンピュータ科学者でもある彼は、テクノロジーを飛躍的に向上させたかったわけではなく、私たち自身について理解を深めることが研究の動機だったという。

「私はこの50年間、人間の脳が学習するのと同じようなやり方で物事を学習できるコンピュータモデルの開発に取り組んできましたが、それは脳が物事を学習する方法について理解を深めるためでした」

ヒントンは自分の研究史について語り、そこからどのように「人類は滅びるかもしれない」という結論に至ってしまったかを説明してくれた。

良いニュースと悪いニュース

人間の脳の働きのモデル化に取り組むなかで、ヒントンはニューラルネットワーク分野の第一人者となった。つい最近まで、ニューラルネットワークは、単純なタスクを実行するために膨大なコンピュータパワーを必要としていた。

だがこの10年で、利用できる処理能力と大規模なデータセットが爆発的に増加したことで、ヒントンが開拓したアプローチは、技術革命の中心に位置付けられるようになった。

「こうしたモデル全体の背後にあるアルゴリズムを、脳がいかに実装できるかについて考えるなかで、もしかしたらそれは無理かもしれない、さらにそうした巨大モデルは、実は脳よりずっと優れているのかもしれないという結論に至ったのです」とヒントンは語る。

人間が持っているような「生物学的知能」にはいくつもの利点があるとヒントンは言う。「考えているときですら、わずか30ワット」という低電力で動作し、「すべての脳が少しずつ異なる」点だ。要するに、人は他者を模倣することで学習する。だがその方法は、情報伝達の文脈では「きわめて非効率」と言わざるを得ない。

これに対し、デジタル知能には途方もなく大きな利点がひとつある。いとも簡単に複数のコピー間で情報を共有するできる点だ。

「エネルギー面では莫大なコストがかかりますが、1つが何かを学べば、全体がそれを知ることになり、そのうえ簡単にコピーを増やせるのです。つまり良いニュースは、『不老不死』の秘密を発見したということ。そして悪いニュースは、それが人間のためではないということです」

「その時」は早ければ5年後

私たちは人類を凌駕する可能性を秘めた知能を開発している──ヒントンがその事実を受け入れた後には、いっそう憂慮すべき結論が待っていた。

「いずれは起きると思っていましたが、時間はたっぷりある、30年から50年先のことだと思っていました。もはやそうは思いません。それに私は、より知能が高い存在が、知能の劣る存在に支配される例をひとつとして知りません」

「私たちよりも賢い存在を想像してみるといいでしょう。たとえば、私たちとカエルを隔てる知能の差と同じくらい、私たちよりも知能が高い存在です。そしてその存在は、ウェブから知識を学び、人間を操る方法について書かれたあらゆる書物を読んでいるのです」

ヒントンは、向こう5~20年の間に「決定的な瞬間」が訪れると考えている。

「もっとも、1〜2年後という可能性も捨て切れません。それに、まだ100年後の可能性も残っています。ただ、生物学的知能とデジタル知能はまったく異なるもので、デジタル知能のほうがおそらく格段に優れているとわかってしまったことで、当面そんなことは起こるまいと思っていた自信が揺らいでしまったのです」

ささやかな希望がないわけではない。そのうち、AIの潜在能力が過大評価されていたことが判明するかもしれない。

「現時点では不確定要素がたくさんあります。(ChatGPTのような)大規模言語モデルには、ウェブ上のすべての文書を消費し尽くしてしまったら、次は私たちの個人データにアクセス可能にならない限り、さらなる進化は望めないという可能性もある」

「私はその可能性を除外するつもりはありません。ただ、そうなると確信している人たちは、正気ではないと思います」

それでもヒントンは、人類破滅の確率について考える場合、それは単なるコイントスに近い、つまり見込みは五分五分と捉えるのが適切だと言う。

グーグルを辞めた3つの理由

AIの進化は、資本主義の下でテクノロジーがもたらす避けられない帰結なのだとヒントンは語る。

「グーグルが悪いわけではありません。実際、グーグルはこの種の研究のリーダーであり、今回の波の根底にある中核的な技術的ブレイクスルーはグーグルから生まれたものです。そして同社は、それを直接公開しない決断を下した。グーグルは、私たちが心配するようなことをすべて心配していました」

「それは公正で、責任ある決断だったと思います。しかし問題は、資本主義のシステムにおいて、競合他社がそれをやれば、同じことをやる以外に手はないということです」

ヒントンいわく、グーグルを辞めると決めた理由は3つある。

1つは単に75歳という年齢だ。「以前のように技術的な仕事をうまくこなせません。昔はできたことができないのは、とてもイライラするものです。それで、潮時だと思ったのです」

しかしヒントンは、報酬のいい名誉職としてとどまるよりも、完全に関係を断つことが重要だと考えた。なぜなら「グーグルに雇われている限り、どうしても自己検閲は避けられません。グーグルの社員でいれば、『これはグーグルのビジネスにどのような影響をもたらすか』を考え続けなければなりませんから」。

「あともう1つの理由は、実はグーグルについて話したいことがたくさんあるのですが、それを語るにはグーグルに在籍していないほうが、私の言葉の信憑性が増すからです」

AIに対する懸念を公表してからというもの、ヒントンはなぜもっと早くに辞めなかったのかと非難を浴びている。もっと先にグーグルを去った同僚たちの後をなぜ追わなかったのか、と。

2020年、グーグルでAIの倫理を研究していたティムニット・ゲブルが解雇された。これを受けて、1200人以上のグーグル社員が、彼女の解雇は「グーグルで倫理的で公正なAIのために働く人々に脅威を告げるものだ」として抗議する書簡に署名した。

だがAI派閥内でも、どのリスクがより差し迫っているかについては意見が割れているとヒントンは言う。

「私たちは大きな不確実性の時代にいます。もしかしたら、(人類の滅亡に関わる)実存的リスクについては何も語らないほうが賢明なのかもしれません。他の(AI倫理などの)問題から目をそらさないためです。でも、実存的リスクについて語らなかったがために、それが起きてしまったらどうしますか?」

倫理や正義の問題を解決するために、単にAIの短期的な使い方に焦点を当てるだけでは、必ずしも人類の生存の可能性を高めることはできないと、ヒントンは言う。

大騒ぎしたほうがいい

5月初めにグーグル退社を公表して以来、ヒントンは世界中のメディアからの取材依頼を2分に1回のペースで断っている(本紙ガーディアンの取材に応じたのは、60年間愛読しているからとのこと)。

「目下、私と話したがっている人は3人います。バーニー・サンダース(米上院議員)、チャック・シューマー(米上院院内総務)、そしてイーロン・マスクです。ああ、それからホワイトハウスも。もう少し時間ができるまで、全員、先延ばしにしています。引退すれば、自分の時間がもっとたくさんできると思ったんですけどね」

インタビュー中、ヒントンはずっと軽快で陽気な語り口だったが、それは彼の伝える破滅的なメッセージとは対照的だった。私は彼に、何か希望を持てる要素はないかと尋ねてみた。

「絶望的だと思える状況から脱して無事だったことは、結構よくあります。たとえば核兵器。そんな強力な兵器を使った冷戦は、最悪の事態に思えました。それから『2000年問題』もそうです。これは実存的なリスクとは無縁の問題ですが、人々が前もって意識して大騒ぎした。つまり過剰に反応したわけですが、それは過小な反応よりよっぽどマシです」

「結局、問題化しなかったのは、問題が起きる前に、人々がきちんと対処したからにほかなりません」

グーグルのAI倫理研究者は、なぜ解雇されたのか? 「問題の論文」が浮き彫りにしたこと

著名なAI研究者であるティムニット・ゲブルは、自らが関与した論文を撤回するか、もしくは共著者から名前を削除することを拒んだ結果として、グーグルを解雇されたという。CODY O'LAUGHLIN/THE NEW YORK TIMES/REDUX/AFLO
著名なAI研究者であるティムニット・ゲブルは、自らが関与した論文を撤回するか、もしくは共著者から名前を削除することを拒んだ結果として、グーグルを解雇されたという。CODY O’LAUGHLIN/THE NEW YORK TIMES/REDUX/AFLO

 グーグルでAIの倫理を研究していたティムニット・ゲブルが解雇された問題は、ゲブルが共著者となっている研究論文が問題にされた末の出来事だった。いったい何が問題だったのか--。この論文を『WIRED』US版が独自に入手して検証した。

TEXT BY TOM SIMONITE

TRANSLATION BY CHIHIRO OKA

WIRED(US)

グーグルの人工知能(AI)研究者ティムニット・ゲブルは今年初め、ワシントン大学教授のエミリー・ベンダーにTwitterでダイレクトメッセージを送った。ゲブルはベンダーに、自然言語の解析におけるAIの進化によって生じる倫理的問題について何か書いたことはあるかと尋ねた。ベンダーにはこの分野の論文はなかったが、ふたりは会話を続け、AIがインターネットに存在する差別的な言説を再現してしまう証拠など、この種のテクノロジーの限界について議論したという。

Twitterでのやりとりが活発になったことから、ベンダーはこれを基に学術論文を書いてみないかと提案した。彼女は「さらなる議論を誘発できればと思いました」と語る。「わたしたちはAIへの期待とその成功を目の当たりにしてきましたが、一歩下がってリスクやそれに対処するために何ができるか考えてみようと呼び掛けたかったのです」

ゲブルとベンダーのほかにも、グーグルや学術界の研究者5人が共著者として加わった。そして論文は1カ月で完成した。10月に学会に提出されたこの論文は、AIを扱った研究でも特に有名になることを運命づけられていたのである。

グーグルの研究者でゲブルと共に働いていたサミー・ベンジオはFacebookに「驚愕している」と投稿し、自分はゲブルの味方であると宣言した。また、社外のAI研究者も公に非難の声を上げている。

優れた論文だが……

こうした怒りは、突然の解雇の原因となった論文に特別な力を与えた。12ページの論文は地下出版物のようにAIの研究者たちの間で回し読みされており、『WIRED』US版もコピーを入手した。しかし重要なことは、ここに書かれていることには議論の余地がないという点である。

論文はグーグルやその技術を攻撃しているわけではない。今回の騒ぎがなければ、公開されても同社の評判に傷がつくようなことはなかったであろう。論文の内容は、自然言語を分析して文章を生成するAIを扱った過去の研究の考察が中心で、新たな実験はない。

論文では過去の研究の分析から、言語解析AIが大量の電力を消費するほか、オンラインに存在する偏見を再生産してしまうことが示されている。論文は同時に、言語解析AIの開発に使われるデータをきちんと記録するなど、研究者がこの技術を利用する上で注意を払うことを提案している。

この分野でのグーグルの貢献(一部は同社の検索エンジンに応用されている)も取り上げられているが、問題のある事例として紹介されたわけではない。

論文を読んだユニバーシティ・カレッジ・ロンドンの名誉准教授のジュリアン・コーネビスは、「しっかりと調査した優れた論文です」と語る。「この論文が騒ぎを引き起こす理由がわかりません。解雇となると、なおさらです」

社内メールが原因?

グーグルの反応は、経営陣がゲブルや周囲が考えるよりも倫理的問題について敏感になっていることの証拠かもしれない。もしくは、論文以外にも理由があったという可能性もある。グーグルはコメントに応じていない。

社内改革を求めるストライキに参加したことのあるAI倫理の研究チームのメンバーはブログで、内部の研究評価プロセスがゲブルに不利になるよう変更されたのではないかと指摘した。またゲブルは先に、社内のメーリングリストで送信したメールが解雇の原因かもしれないと説明している。ゲブルはメールで、グーグルの多様性プログラムはうまく機能していないと指摘し、同僚たちに参加しないよう促したという。

ゲブルの論文は「確率変数のオウムの危険性について:言語モデルは大きくなり過ぎる可能性があるのか?」というタイトルで(ついでに「?」の後にはオウムの絵文字が付いている)、AIで研究が最も活発な分野を批判的な視点から考察している。

AIの世界では2010年代初頭に、機械学習という技法を使うと音声や画像認識の精度が飛躍的に向上することが明らかになり、そこからグーグルを含むテック大手は多額の投資を続けてきた。機械学習のアルゴリズムを使えば、タグ付けしたデータセットで訓練することで、AIは例えば音声の書き起こしといった特定のタスクを非常に効率的にこなせるようになる。

なかでもディープラーニング(深層学習)と呼ばれる手法では、学習アルゴリズムに大量のサンプルデータを組み合わせた上で強力な処理能力をもつコンピューターを使うことで、驚くべき結果が出ている。

ここ数年は自然言語に機械学習モデルを応用する研究が続けられており、インターネット上に存在する無数のテキストをサンプルデータして利用し、質問に答えたり文章を書くといったことができるAIが開発されている。

AIの限界

ただ、AIは言語を統計的なパターンとして受容しているだけで、わたしたちと同じように世界を理解しているわけではない。このため、人間から見れば明白な間違いを犯すことがある。一方で、人間の発する問いに答えを与えたり、人間が書いたような文章を作成したりといったことが可能になる。

グーグルの自然言語処理モデル「BERT」は、長めの検索クエリの処理を向上させるために使われている。またマイクロソフトは、非営利団体OpenAIが開発した汎用言語モデル「GPT-3」のライセンスを取得することを明らかにした。GPT-3は高度な文章を生成できることで知られ、メールや広告のコピーを自動作成するために利用されている。

ただ、AIには限界があり、それが引き起こしうる社会的影響を考えるべきだとして、言語AIの進化に警鐘を鳴らす研究者もいる。ゲブルとベンダーの論文はこうした声をまとめたもので、AIの研究開発ではどのような点に留意すべきかを提案しようとした。

論文では、大がかりな言語AIのトレーニングには、クルマが生産されてから廃車になるまでに消費する全エネルギーと同じだけの電力が必要になる可能性があるとした過去の研究や、AIがネットにある陰謀論を模倣して新たな説を作り出せることを証明した研究が引用されている。

グーグルの研究者が今年に入って発表したBERTの問題点についての研究も、そこには含まれていた。ゲブルはこの研究には関与していないが、BERTは脳性麻痺や視覚障害といった障害を表す言葉を否定的な表現と結びつける傾向があるという。なお、この論文に携わった研究者は全員が現在もグーグルで働いている。

食い違う意見

ゲブルたちの論文は、言語AIのプロジェクトでは慎重になるよう提言し、AIの訓練に使ったデータセットを記録し、問題点を文書化するよう呼びかけている。論文はまた、AIの精度と問題点を評価するために考え出されたモデルをいくつか紹介している。このうちゲブルがほかの研究者たちと共同で開発したあるモデルは、グーグルのクラウド部門で採用されている。論文は研究者たちに対して、開発者としての視点だけではなく、言語AIの影響を受けるであろう人々の視点に立つよう求めていた。

グーグルのディーンはゲブルの解雇に関する声明のなかで、問題の論文は質が低く、言語AIの効率を高めて偏見を最小限に抑えるために何をすべきかを提案した研究が引用されていないと指摘している。ベンダーはこれに対し、論文では128の引用があり、さらに追加していくつもりだと語っている。引用の追加は学術論文の公開過程ではよくあることで、通常はこのために論文が撤回されることはない。

また、ベンダーを含むAI研究者たちは、この分野では偏見を確実に排除できるような方法はまったく見つかっていない点を指摘する。アレン人工知能研究所(AI2)の最高経営責任者(CEO)オーレン・エツィオーニは、「偏見にはさまざまな種類があり、模索を進めている状況です」と言う。

AI2は、ゲブルの論文で引用された研究のテーマを含む言語AI全般について独自の研究を進めている。エツィオーニは「この分野で働くほぼすべての人が、こうしたモデルの影響力が増しており、責任をもって運用していく倫理的義務があることを認識しています」と語っている。
Pocket
LINEで送る