AGI(汎用人工知能)へのアプローチ

AGIへのアプローチのタイプ

 アプローチ限界客観性
能力主義人間の代替率向上
(流行の生成AI等)
AGI△ 評価方法次第
↑模倣的脳シミュレーションAGI△ どこまで再現が必要?
過程主義全脳アーキテクチャ
(脳の機能の模倣)
AGI× 研究者により、細部の認識に差
認知アーキテクチャ
(認知機能の模倣)
AGI
↓理論的知能の解明ASI○ 人を超える知能を客観的に定義
AGIへのアプローチのタイプ

AGIへのアプローチには能力主義と過程主義があります。

流行の生成AIは能力主義です。
試験結果の良さが全てで、過程は問いません。

過程主義には、模倣的なものと理論的なものがあります。
模倣的なものは、脳や認知機能を模倣します。
理論的なものは、知能を解明し客観的に定義します。

ASIを狙えるのは、知能の解明によるものだけです。
人間の模倣では、人間がゴールです。
能力主義では、人間の代替率100%以上の評価が困難です。

また、評価方法をうまく決めないと客観性がありません。
どこまで模倣が必要なのかも客観的な判断が困難です。
知能を解明して、客観的に定義するのが理想です。

以下は、各アプローチの詳細です。

能力主義:人間の代替率向上

流行の生成AI等は、能力を求めて改良されています。
能力を求めて開発するなら、能力での評価が合理的です。
能力が上がりそうなアイデアがあれば試してみます。
後は、学習データやパラメータを増やします。
学習データを増やすだけでは能力向上に限界があります。
つまり、アイデアが尽きたらおしまいです。

アイデアが良いかどうかは試験で評価します。
AGIに適さない評価法なら、AGIに向かっていきません。
自己評価にはバイアスが掛かります。
自分達が作ったものは素晴らしいと思いたいためです。
正しい方向に進むには、客観的な評価方法が必要です。
また、ASIを目指すには、人を超える知能について明らかにして、評価方法を決める必要があります。

脳シミュレーション

脳を完全に再現できればAGIなのは明らかです。
ブルーブレインプロジェクトが代表的です。
まずは小さな生物からという現実的な動きもあります。

どこまで再現すればよいか分からないのが問題です。
精密に再現しようとすると計算量が跳ね上がります。

人間の脳を解剖して再現しようという試みがあります。
この手法ではアルゴリズムとデータの区別がありません。
本当に欲しいのは脳のアルゴリズムです。
知能さえあえれば、記憶の完全再現は必要ないでしょう。
しかし、区別ができないので、仕方ありません。

全脳アーキテクチャ

脳が持つ知能の機能さえ模倣できれば十分です。
脳の機能は実験で調べます。
しかし、実験結果が完璧な保証はありません。
矛盾がある場合、どの結果を採用するかで変わります。
そういった場合は、追試で確認するのが科学です。
しかし、倫理的に人体実験が困難です。

うまく行かなければ、完全再現まで必要になります。
あるいは、評価は能力で行い、脳は参考に留めます。
AGIへの近道でなくても、脳の研究は科学的に重要です。

日本ではWBAIという組織が代表的です。

認知アーキテクチャ

認知機能とはこうだと思うものを構築したものです。
ACT-Rなどが代表的なものです。

認知機能は、人間を観察して調べられます。
観察できるのは、ある場合にどう考えるかだけです。
全ての場合を説明できるか分かりません。
記号を使った推論などに、得意分野が絞られます。

分からない部分は、プログラマーが仮定します。
そのため、脳などの別アプローチも参考にします。
複合的なアプローチも存在します。

知能の解明

脳の研究は、人間の知能の解明が大きな目的の一つです。
しかし、人間の知能が最も優れたものとは限りません。
例えば、人間は誤った推論をすることがあります。
しかし、誤った推論をしない方が知能は優れるでしょう。
「人間の知能」ではなく「知能」を解明します。
人間は関係ないので、人体実験は不要です。
AGIを超えてASI(超知能)も目指すこともできます。
客観的な知能の定義を目指します。

「知能」さえあれば、過程は問いません。
「結果」さえ良ければという考え方とは異なります。
試験結果で評価する方法は、運に左右されます。
また、あらゆる場合を想定した試験が必要です。
良かった場合だけ見て偏った評価する恐れがあります。
一方、知能が定義されると、最適解も定義できます。
最適解に向かうプログラムかどうかを検証します。
運に左右されず、客観的な評価が可能です。

AIXIといって、普遍的なAIを定義する試みがあります。
「最も報酬を貰えるAI」が最良のAIです。
しかし、報酬を予測する方法は定義されていません。
未来の報酬は、演繹ではなく帰納推論で行います。
統計の取り方などで、主観的に推測値は変わります。

当組織では、帰納推論の最適解を定義しました。
従って、知能の定義が客観的なものになりました。
このような研究は、世界中探しても当組織のみです。

コメント

タイトルとURLをコピーしました