生成AIの回答(出力)の限界
生成AIの回答のバリエーションには限界があります。
回答(出力)で単語や図形を自由に組み合わせられる?
・生成AI:△ 学習データにあるのと似た組み合わせだけ
・人間:〇 意識上の遅い思考で自由組み合わせられる
回答の良さの限界
・生成AI:△ 有限
・人間:〇 限界なし
生成AIは、学習データと似たような回答しかできないため、回答の良さには限界があります。
意識のような仕組みを持たせられれば、回答内容に制限がなくなり、回答の良さの限界もなくなります。
回答(出力)の良さの基準
生成AIと人間では回答の良さの基準が異なります。
学習データ通りの回答 | 学習データにない回答 (似ていない回答) | |
生成AI 事前学習 | 全て最適解 (良いものだけ学習) | 学習データに近いほど良い 似てない回答は悪い →生成する意味がない |
人間 強化学習 | 一定の基準で、良し悪しを自分で判断 似てない回答の方が良い可能性有 →生成する意味がある |
生成AIにとっては学習データと似た回答が良い回答です。
独創的な回答は悪い回答です。
悪い回答は生成する必要がありません。
そのため、意識のような仕組みも必要もありません。
意識を持たせるには、人間のように一定の基準で、回答の良さ自分で評価できる必要があります。
例えば、ゲームの勝敗を評価基準に、強化学習します。
生成AIでは、質問者が望む返答や画像であるかどうかが、合理的な評価基準です。
回答の良さの判断基準のギャップ
生成AIの回答と本当に欲しい回答には差があります。
回答のギャップ
・本当に欲しい回答:今質問している人が望む回答
・生成AIの回答:学習データ内の過去の質問者が望んだ回答に対して実際にされた回答
この回答のギャップは、次の二つの和になります。
(1)「今質問している人が望む回答」と「学習データ内の過去の質問者が望んだ回答」の差
(2)「学習データ内の過去の質問者が望んだ回答」と「学習データ内の実際にされた回答」の差
(1)は、できるだけ近い事例を選びますが、どういう基準で近いとするかはプログラマーの匙加減です。
帰納推論の最適解の定義がないのがその最大の原因です。
(2)は、例えば学習データ内のある題目の絵は、他のどんな絵よりも優れた最高傑作とは限りません。
本当に質問者が求めたものを論理的に推測できれば、学習データを超える絵を出力することも可能です。
従来の強化学習のように、後で報酬が貰えたかどうかいう、時間的な因果関係だけでは不十分です。
世界モデルの構築が必要です。
学習データが持つ良否の情報のバリエーション
学習データには、さまざまなバリエーションがあります。
学習データ | 用途 | 評価の誤りの修正 |
事前に人間が選別 | 大半の機械学習 | ×偏りは修正不能 |
事前に人間が採点 | 一部の機械学習 | △点数を無視可能 |
良否の情報なし | 人間や強化学習 | 〇自由に評価 |
事前に人間が選別するのは、一見良いことに思えます。
しかしそれは、データに偏り発生させたことになります。
どういう回答が悪いのかの学習材料も残すべきです。
自分で評価する能力を持たせた上で、人間同様に生データを与えるのが最適です。
事前に点数を付けるだけなら、その点数を無視することも可能なので、デメリットはありません。
生成AIには絶対に越えられない汎用性の壁
生成AIをAGIにするには、あらゆることについて事前学習させておく必要があります。
しかし、どんな仕事にも対応できるように事前学習させておくことは困難です。
少なくとも、現時点では存在しない、未知の未来の仕事については事前学習できません。
本当に必要なのは、赤子のように、事前学習なしでも学んでいけることです。
学習データを増やせばよいという方針は、AGIを目指すなら見当はずれです。
生成AIには絶対に越えられない人間の壁
生成AIには人間が生成したものを正解として入力します。
そのため、人間が思いつかないような、人間より良い回答は、データがないため学習させられません、
つまり、ASI(人工超知能)には絶対になれません。
また、学習データは達人によるものだけではありません。
選別しなければ、平均的な人間のものです。
つまり、学習データを増やすほど、達人にではなく、平均的な人間に近づきます。
達人のデータだけに絞ることもできますが、データが減ってしまいます。
ASIを目指すなら、達人と凡人の差を理解して、達人の先を目指す機能が必要です。
コメント