今年(2023年)に入ってからにわかに人工知能(AI)が大騒ぎになり始めた。いわゆる「ChatGPT」の大流行である。
そうした中で2年間の修業を経て、筆者自身は修士号(人工知能科学)を3月に取得できた。修士論文の最終提出が終わるくらいに始まったのが今回のいわゆる「生成系AI」の大騒動であるわけだが、所属しているゼミも含めて、人工知能科学を専攻している者たちは総じてこうした騒動を冷ややかに見ていたことをよく覚えている。
だが我が国社会全体ではどうかというと、どうしたわけか、ますますもって大騒ぎなのである。そこですでに人工知能科学の成果をもって製品をも世に送り出している研究所を率いる者として、この稿を通じて今回にわかに始まったこうした騒動が科学的・工学的な見地からいうと、いかに精査が必要であるとされるべきものなのかを示すことができればと思う。
マスメディアによる関連報道を見たり読んだりしていると、実に不思議なことが一つある。それは我が国においては(あくまでも我が国においては、という留保付きだが)「人工知能科学の第一人者」とされる先生方がどういうわけか、「これでいよいよ人工知能が人類社会を凌駕(りょうが)する時がきた」などと大真面目で語っている点である。
実にこれほどまでにあきれてしまったことはないというのが正直なところだ。なぜならば人工知能にできるのは「生成系AI」であれ何であれ、すでにインプットされたデータの範囲内のことだけだからである。このことを「内挿」というわけであるが、「人工知能がまもなく人類を超える」といった大それたことを言う御仁たちはこのあまりにも基本的な原理原則を忘れてしまっている。
つまり「生成系AI」であれ何であれ、人工知能の世界では「はじめにヒトありき」なのである。したがってどんなに発展したところで「生成系AI」は原理的に人類を超えることができないのだ。
しかし実際に使ってみるとChatGPTなど関連する製品はなるほど、「もっともらしく人間にも似た発話をしてくる」のである。そうした体験を繰り返しているとついつい、「この生成系AIはなるほど、最初は人類よりも劣っているかもしれないが、徐々に学習を重ねるとやがてヒトを超えてしまうのではないか」と思ってしまうのだ。
事実、茫洋(ぼうよう)として質問をすると漠然とした答えしか返ってこないChatGPTも、詳細な設定を行った形での質問にはそれなり詳細な、実にもっともらしい答えを返してくるのである。その結果、使用する側であるヒトの方が圧倒されてしまうという仕掛けになっている。
だが、ここでぜひ思い出してもらいたいのが先ほどの「内挿」という原理原則なのである。
条件設定を変えるとなぜChatGPTを筆頭とする「生成系AI」はもっともらしい答えを返すことができるのだろうか? その答えは実のところ極めて単純で、使用する側であるヒトが設定を変え、「これが正解だ」と納得するところまで操作を続けることで、結果として人工知能に学習をさせてしまっているのである。
つまり何のことはない、答え合わせに延々と(時には「無料で」)付き合ってしまっているのがヒトの方なのであって、それ以上でもそれ以下でもないというわけなのだ。
だからこそ、これら生成系AIの「伝道者」たちはとにかく大きく騒ぎ立てているのである。なぜならばそうでもしないと忙しい毎日を送っている私たちは生成系AIなど日常的に使うこともないであろうし、その結果、人工知能が「正解」のパターンを割り出し、記憶し続けることもないからである。
したがって人工知能の発展につきものなのが夢遊病者になり果てた人間ということになってくる。後者が存在しなければ前者はあり得ない。そのことを私たち意識ある存在としてのヒトは絶対に忘れてはならない。そそのかされてはならない。
原田武夫 はらだ・たけお
元キャリア外交官。原田武夫国際戦略情報研究所代表(CEO)。情報リテラシー教育を多方面に展開。2015年よりG20を支える「B20」のメンバー。