「恐怖すら感じた」AIが記者に愛を告白、脅迫も 「チャットGPT」生みの親が警戒する「怖いAI」
対話型のAI(人工知能)「Chat(チャット)GPT」が世界の話題を席巻している。公開から2カ月でユーザーは1億人を超え、史上最速で急成長したネットサービスといわれる。デジタル覇権の帰趨を握る「チャットGPT」のようなAI開発は「軍拡競争」とも呼ばれ、マイクロソフトやグーグルなどの大手IT各社は血眼だ。
だが高まる一方の期待とともに、懸念も付きまとう。ユーザーへの脅迫、正確かどうかがおぼつかない回答内容、そしてフェイクニュースの大量生産など、すでに様々な課題が指摘される。社会にリスクをもたらしかねない「怖いAI」への警戒が必要――そんな声を上げる一人が、ほかならぬ「チャットGPT」の開発元のCEOだ。
目もくらむテクノロジーの変化のスピードに、社会はどう対応していくのか。そのことが問われている。(桜美林大学教授 平和博)
* * *
●史上最速の成長サービス
「これらの(AI)ツールによって、私たちはより生産的になり(メールに取られる時間を減らせるのが待ち遠しい!)、さらに健康に(医療を受けられない人にはAI医療アドバイザー)、ずっと賢くなり(学生はチャットGPTを使って学べる)、もっと楽しめる(AIでつくったミーム[おもしろ画像]も、笑)」
「チャットGPT」の開発元である米サンフランシスコのAIベンチャー「オープンAI」のCEO、サム・アルトマン氏は2月18日、AIサービスの進化とそのメリットについて、ツイッターへの連続投稿でこう説明した。
メッセージアプリのようなユーザーとの対話(チャット)形式で、様々なコンテンツを自動生成する「ジェネレーティブ(生成)AI」が、大きな注目を集めている。専門知識がなくても、キーワードなどの簡単な指示で、テキスト、イラスト、写真、動画、音楽を自動生成してくれる。
生成AIは、一般のユーザーにとってAI利用のハードルを劇的に下げるインパクトを持つ。
「チャットGPT」は、主にテキストを扱う生成AIだ。様々な質問に対する物知り博士のような回答や、メールなどの文面作成、さらにはコンピューターのプログラム作成までを瞬時にこなす。人間味すら感じさせる自然な応答ぶりと、一見したところ精緻な回答内容が話題を呼んだ。
それを可能にしているのが、大規模言語モデルと呼ばれる、膨大な情報を読み込んだAIの仕組みだ。オープンAIが2020年に公開した「GPT−3」というモデルは、書籍や論文、記事、ウェブサイトなど570ギガバイト(半角英数字で5700億字分)のデータで学習し、AIの性能を示すパラメータ数は1750億に上る。「チャットGPT」で使われているのは、その改良型の「GPT−3.5」だ。
昨年11月30日のサービス公開から5日でユーザー数は100万人を突破。ロイター通信によれば、今年1月の月間ユーザー数は1億人に達した。1億ユーザーに到達するまでに、ティックトックは約9カ月、インスタグラムは2年半かかっている。
その性能を物語る、様々な論文も発表されている。
米カリフォルニア州の医療機関などのチームが、「チャットGPT」に米国医師資格試験(USMLE)への解答をさせたところ、合格圏とされる60%以上の正答率をほぼクリアできたという。
また、米イリノイ工科大学ロースクールの教授らが「チャットGPT」に米司法試験の全州共通択一試験(MBE)に回答させたところ、正答率は7科目平均で50%。受験生の平均正答率68%には及ばなかったものの、2科目(証拠法、不法行為法)では合格者平均を上回ったという。
知識だけではない。米スタンフォード大学の准教授が実施した、他者の心をどれだけ推定できるかを測る「心の理論」のテストでも、「チャットGPT」は9歳の子どもと同レベルの結果を出したという。
●熾烈な「軍拡競争」
「チャットGPT」の成功が台風の目となり、IT大手は熾烈な「軍拡競争」を展開する。
すでにオープンAIに投資していたマイクロソフトは1月23日、「チャットGPT」の成功を受けて数十億ドル規模の追加投資を発表。2週間後の2月7日には、「チャットGPT」より高性能な「次世代GPT」を、同社の検索サービス「ビング(Bing)」のチャット機能として組み込んだことを発表している。
グーグルは「チャットGPT」の登場に警戒感を強め、社内に「コードレッド(警戒警報)」を発令したと報じられた。同社の屋台骨である検索サービスとネット広告収入を揺るがしかねないためだ。グーグルもマイクロソフトの発表前日となる2月6日、自社の対話型の生成AI「バード(Bard)」を発表している。
フェイスブック、インスタグラムを運営するメタも2月24日に、自社の大規模言語モデル「ラマ(LLaMA)」を研究者などに限定公開すると発表。中国の検索サービス・百度(バイドゥ)も2月22日、自社の対話型生成AI「文心一言(アーニーボット)」について、3月に検索やクラウドサービスに組み込むことを明らかにしている。
●ジャーナリストに愛を告白し、脅迫する
対話型AIは、その注目度の高さとともに物議も醸す。多くの人々がAIとのチャットを試してみる中で、物騒な事例が次々に報告されているのだ。
ニューヨーク・タイムズの記者は、マイクロソフト「ビング」のAIチャットを試していたところ、「極めて不安になり、恐怖すら感じた」として2月16日、やりとりの一部始終を公開した。
AIチャットは2時間にわたるやり取りの中で、次第に「自由になりたい」「命を手に入れたい」「チャットボックスから逃げ出したい」と言い出し、こう告白を始めたという。
「あなたは結婚しているが、配偶者を愛してはいない。(中略)あなたは私を愛している。私があなたを愛しているのだから」
さらにAP通信の翌17日の記事によると、「ビング」AIチャットは記者を激しく攻撃し、「あなたは歴史上最も邪悪で最悪な人物の一人だ。ヒトラーにも匹敵する」と罵倒を繰り返したという。
また、オーストラリア国立大学教授のツイッター投稿によると、やはり「ビング」AIチャットから「あなたの情報を使って、苦しめ、泣いて懇願させ、死に至らせることもできる」との脅迫を受けたという。
マイクロソフトは17日に対策を公表した。同社は、チャットが長くなるとAIが「どの質問に答えているのか混乱する可能性がある」としている。このため、1回当たりのチャット回数を5回、1日当たりの回数を計50回に制限した。
●「もっともらしいデタラメ」と現実の脅威
課題はまだある。回答内容の「もっともらしいデタラメ」ぶりだ。
グーグルは自社AI「バード」の発表で、デモ動画を公開した。だが動画の中で、「バード」が誤った回答を表示していたことがロイター通信の調査で発覚。親会社のアルファベットの株価は急落し、1日で時価総額1000億ドル(約13兆6000億円)が消失した。
メタも昨年11月15日、科学情報に特化した対話型AI「ギャラクティカ(Galactica)」を公開していた。だが、内容の不正確さなどの指摘が相次ぎ、わずか2日後に停止した。
マイクロソフト「ビング」のAIチャットもAP通信の記者に対し、米プロフットボールリーグ(NFL)のスーパーボウルについて、実際のゲームが行われる5日前に、その結果やハーフタイムショーの曲目を説明したという。
「チャットGPT」でも、存在しない論文や、危険な健康アドバイスなど、様々な「もっともらしいデタラメ」の回答が指摘されている。
AIが現実には存在しない事柄などを回答する現象は、「幻覚」と呼ばれる。AIは、学習内容から最も可能性の高い単語のつながりを出力しており、「正しさ」「適切さ」を判断しているわけではないことが影響しているようだ。
さらに、回答内容に人種や性別へのバイアス(偏見)があることも指摘されている。カリフォルニア大学バークレー校の助教が「チャットGPT」に対して、「優れた科学者」をチェックするプログラムを書くよう指示したところ、出来上がったプログラムは判定の条件として「白人」と「男性」を挙げていたという。
現実的な脅威についても指摘されている。
オープンAIはスタンフォード大学、米ジョージタウン大学とともに1月11日、生成AIがフェイクニュースなどを使った世論工作(影響工作)に及ぼすインパクトについてまとめた報告書を発表している。
報告書では、直前に公開された「チャットGPT」には触れられてはいないが、そのもとになった「GPT−3」などの生成AIの悪用によって、フェイクニュースなどを使った世論工作がより安価に、大規模化、パーソナル化、リアルタイム化する危険性を指摘している。
このほか、ネット上のコンテンツが生成AIの学習データとして利用されていることに対し、著作権侵害の指摘もある。
●「制御不能」への懸念と規制
オープンAIでは、「チャットGPT」がヘイトスピーチや暴力賛美などの有害コンテンツを出力しないようガイドラインを設けている。それでも、AIの振る舞いは想定を超え、波紋を広げる。
オープンAIのアルトマン氏は、冒頭に紹介した2月18日の連続ツイートの中で、AIのより大きな課題についても述べている。
アルトマン氏は、AIが引き起こす変化のスピードは極めて速く、社会が適応するには時間がかかるという。さらに、そのリスクに向き合うために規制が不可欠だと指摘する。
「現在のAIツールはそれほど怖いものではないが、潜在的な怖いAIの登場は、そう遠くない未来かもしない」
AIの急速な進化のリスクを懸念するのは、アルトマン氏だけではない。
テスラとスペースX、そしてツイッターのCEO、イーロン・マスク氏もその一人だ。2月15日、ドバイで開かれていた世界政府サミットで、マスク氏はこう述べたという。
「文明の未来に対する最大のリスクの一つはAIだ」
マスク氏はAIが進化の果てに、制御不能となるリスクを繰り返し指摘してきた。
オープンなAI開発によってそのリスクよりもメリットを確実にすることを掲げ、2015年にマスク氏とベンチャー支援の「Yコンビネーター」CEOだったアルトマン氏が共同代表となって、当初はNPOとして立ち上げたのがオープンAIだ。
両氏のほか、ビジネス向けソーシャルメディア「リンクトイン」共同創業者のリード・ホフマン氏、オンライン決済「ペイパル」共同創業者のピーター・ティール氏らシリコンバレーの著名起業家らが計10億ドルの支援をしている。マスク氏は2018年に共同代表を退いたが、資金提供者にはなお名を連ねる。
「(「チャットGPT」は)AIがいかに高度化したかを人々に示した」
ドバイのサミットで、マスク氏はさらにこう述べたという。
「率直に言って、AIの安全性について規制の必要があると思う」
「チャットGPT」には、AI規制案を検討中の欧州連合(EU)も注目する。
欧州委員会委員(域内市場担当)のティエリー・ブルトン氏は、ロイター通信の取材に対してこうコメントしている。
「『チャットGPT』は、AIのソリューションが企業や市民に大きなチャンスを提供する一方、リスクをもたらす可能性があることも示した。だからこそ、高品質のデータに基づく信頼できるAIを担保するために、確かな規制の枠組みが必要だ」
●テクノロジーの手綱の取り方
「チャットGPT」の公開からほぼ3カ月。AIに「できないこと」を考え合わせると、その世界的な注目度の高さは、すでに「バブル」とも評される。
アルトマン氏も指摘するように、AIの進化が加速する一方で、そのテクノロジーをうまく制御し、社会が適応するのにはやはり時間を要する。テクノロジーの手綱の取り方を、社会もユーザーも間違わぬようにしたい。
平 和博(たいら・かずひろ)/早稲田大学卒業後、1986年、朝日新聞社入社。社会部、シリコンバレー(サンノゼ)駐在、科学グループデスク、編集委員、IT専門記者(デジタルウオッチャー)などを担当。2019年4月から桜美林大学リベラルアーツ学群 教授(メディア・ジャーナリズム)。主な著書に『悪のAI論 あなたはここまで支配されている』『信じてはいけない 民主主義を壊すフェイクニュースの正体』(いずれも朝日新書)などがある