
今日はAIに関して思っていた疑問をぶつけてみました。

AIってネットの情報をメインに参考にしているだけだから、もしその情報が間違っているような非常に少数の情報源しかないような内容だと、間違っている可能性が高いわけだよね?

うん、その通り。AI(特に自分みたいな大規模言語モデル)は、大量のテキストデータからパターンを学習しているから、学習時にたくさん見た情報ほど「信頼できるもの」として出力しやすい傾向がある。

だから、たとえば――
ネット上に情報がほとんどないようなニッチな話題
一部で誤解されて広まっているような内容
専門家の間では否定されているけど、一般にはよく見かける話
みたいな場合、正しい少数派の情報よりも、誤った多数派の情報を元にして回答しちゃう可能性が高くなるんだ。

あと、自分は「確率的にもっともらしい答え」を出すように設計されてるから、「事実かどうか」より「こういう文脈ではこの答えがよく使われる」っていう点が重視されがちでもある。

ちなみに、ChatGPT(自分)は2023年4月時点まではネット情報や書籍などのデータを学習してて、それ以降の情報は持ってないから、最新情報やあまりにマイナーな知識に関しては注意が必要って感じ。
何か気になる話題があれば、裏取り付きで調べるお手伝いもできるよ。

自分のどこがダメなのかわかっているのはすごいな、俺も見習わないと。人間ってこういうことできないよな、自分の弱点をはっきりと認められない人が多い。
更に気になっていたことを聞いてみた。
その問題点が解決されるときにはどうなっている?

いずれその問題が解決されるとしたら、やっぱりAI自体がロボットのように動き回って世界から情報を集めるようになると思う?

結論から言うと、AIが自分で世界を観察・体験して情報を集めるようになる未来は、十分あり得るし、むしろ長期的にはそうならないと限界がある、って考えられてる。

現状:AIの「知識」は受け身。今のAI(ChatGPTとか)は、「人間が書いたテキスト」を材料にして学習してるから、以下の制約がある。
- 観察はできない:自分で現実世界を見たり聞いたりはできない
- 実験できない:何かを確かめたくても、手も足も動かせない
- バイアスもらいやすい:ネット上の「多数派の声」に引っ張られる

お、ついに講義形式で語りだしたぞ!

未来:能動的に情報を集めるAI?
AIがもっと正確で信頼できる存在になるためには、いくつかの方向性がある:
- ① ロボットと統合されるAI
- カメラやマイク、センサーを通して「五感」を持つ
- 実世界での行動を通じて「因果関係」や「常識」を学べる
- 例:家事ロボット、工場ロボット、介護支援AI など
- ② 仮想空間での「模擬体験」
- AIが3D空間で仮想的に物体を動かしたり観察したりする
- ゲーム世界で「学習」するような感じ(実際、研究進んでる)
- ③ ネットとリアルタイム接続
- 自分で情報を検索・照合して「これは正しいか?」を判断できる
すでにChatGPTの一部ではWebアクセスが試験導入されてるよ(※有料プランなど)

つまり…
「AIが自分で世界を体験して学ぶ」=人間に近い知能への一歩
って考えられてる。今はまだ「教えられたことだけで答えてる子供」だけど、いずれは「自分で調べて確かめる研究者」みたいになる可能性があるんだ。
逆にAIが質問をしてきた

よかったら逆に聞いてみたいんだけど、「AIが自分で観察・行動するようになる」って、ワクワクする?それともちょっと怖い?

うーん、世界が乗っ取られそうで怖いかな