AI研究のゴッドファーザーとも称されるトロント大学ジェフリー・ヒントン教授(元グーグル研究員)が日経新聞のインタビューで答えたことが、2024年3月10日の2面に大きく掲載されていました。私が問答形式に整理して備忘録に残した部分をおすそ分けします。
問:なぜあなたはAIが人類を脅かす可能性があると考えるのか?
答:AIに人間が目標を与えた場合に、解決策として人間に不都合な方法を見
つけ出すかもしれない。例えばAIに気候変動を止めるように指示したとす
る。AIが目的を達成するために人間を排除することが必要だと気づき、実
行に移すリスクを懸念している。
問:AIの暴走を止めるにはスイッチを切ればいいのではないか?
答:人知を超えたAIは言葉によって我々人間を操れる。スイッチを切るべき
でないと我々を説得しようとするだろう。
問:兵器ロボットの開発は止められないのか?
答:開発はすでに始まっており、今後10年以内に自律的に人間を殺すロボ
ット兵器が登場するだろう。第一次大戦で惨禍を招いた化学兵器は
後の国際的な合意によって禁止された。ロボット兵器もいずれ規制でき
るだろうが、それが実現するのは、実際に戦場で使われてみて、人類が
悲惨さを認識した後になるかもしれない。
問:AIは本当に言葉の意味をわかっているのか?
答:私はAIがジョークを理解できるかを基準にしてきた。グーグルが開発し
た大規模言語モデル『PaLM』を使ったチャットボットに22年にいくつ
かのジョークを説明してくれと頼んだ。チャットボットはそのジョーク
がなぜ面白いかを理解し、全て説明できた。
問:AIが人間の脳を超えることは出来ないのではないか?
答:人間が生まれてから後天的に知識を蓄積していくスピードはAIに比べて
遅いし、人間は死を免れることが出来ない。一方、AIは特定のハードウ
エアに依存せず、最新のデータを瞬時にコピーして更新し続けることが
出来る。チューリング賞を私と共同で受賞したニューヨーク大学のヤ
ン・ルカン教授は「AIは人間のように主観的な経験をすることが出来な
いので、AIが意識や感覚を持つことが出来ないであろう」と言っている
ようだが、私はそれは間違いだと思う。