AI と 人間

AI研究のゴッドファーザーとも称されるトロント大学ジェフリー・ヒントン教授(元グーグル研究員)が日経新聞のインタビューで答えたことが、2024年3月10日の2面に大きく掲載されていました。私が問答形式に整理して備忘録に残した部分をおすそ分けします。

問:なぜあなたはAIが人類を脅かす可能性があると考えるのか?
答:AIに人間が目標を与えた場合に、解決策として人間に不都合な方法を見
つけ出すかもしれない。例えばAIに気候変動を止めるように指示したとす
る。AIが目的を達成するために人間を排除することが必要だと気づき、実
行に移すリスクを懸念している。

問:AIの暴走を止めるにはスイッチを切ればいいのではないか?
答:人知を超えたAIは言葉によって我々人間を操れる。スイッチを切るべき 
  でないと我々を説得しようとするだろう。

問:兵器ロボットの開発は止められないのか?
答:開発はすでに始まっており、今後10年以内に自律的に人間を殺すロボ
  ット兵器が登場するだろう。第一次大戦で惨禍を招いた化学兵器は
  後の国際的な合意によって禁止された。ロボット兵器もいずれ規制でき
  るだろうが、それが実現するのは、実際に戦場で使われてみて、人類が 
  悲惨さを認識した後になるかもしれない。

問:AIは本当に言葉の意味をわかっているのか?
答:私はAIがジョークを理解できるかを基準にしてきた。グーグルが開発し 
  た大規模言語モデル『PaLM』を使ったチャットボットに22年にいくつ
  かのジョークを説明してくれと頼んだ。チャットボットはそのジョーク
  がなぜ面白いかを理解し、全て説明できた。 

問:AIが人間の脳を超えることは出来ないのではないか?
答:人間が生まれてから後天的に知識を蓄積していくスピードはAIに比べて 
  遅いし、人間は死を免れることが出来ない。一方、AIは特定のハードウ
  エアに依存せず、最新のデータを瞬時にコピーして更新し続けることが
  出来る。チューリング賞を私と共同で受賞したニューヨーク大学のヤ
  ン・ルカン教授は「AIは人間のように主観的な経験をすることが出来な
  いので、AIが意識や感覚を持つことが出来ないであろう」と言っている 
  ようだが、私はそれは間違いだと思う。

≫ コラム一覧へ

ご依頼・ご質問などお気軽にお問い合わせください CONTACT