シンボルグラウンディング問題
記号とその意味がどのように結び付けられるかという問題で、記号接地問題とも呼ばれます。
ニューラルネットワークは、古典的な記号を使ったAIではありませんが、この問題が無いわけではありません。
生成AIが、おかしな回答をするのは、意味を正しく理解してないのが原因の一つだと推測されます。
統計的に可能性が高いことを出力しているだけで、意味を理解している言えるかは、意見が分かれるところです。
意味とは?
まず、意味とは何かを明確にしていきます。
一般的に、意味とは「言葉」が「示す」「内容」です。
記号も「言葉」に含まれると拡大解釈します。
さらには、区別さえできれば、何でも構いません。
ニュートラルネットワークの状態も当てはめられます。
「内容」とは、記号そのものではない任意の概念です。
「X」という記号を考えます。
二つの直線がクロスしているというのは、記号そのものの概念であり、記号の意味ではありません。
「AがBを示す」という場合、「A=B」ではありません。
記号と実体は同じではありません。
「f(A)=B」となる関数fがあるとはいえます。
関数fは、記号から実体へのマッピングをします。
広い意味での「意味」とは、ある状態から別の状態へマッピングする関数といえます。
ここでいう状態とは、区別可能な概念です。
生成AIと記号接地問題
ディープラーニングのようなニューラルネットワークは、入力と出力の間の関数を近似するものです。
関数は、広い意味では、「意味」を表します。
ただし、人間同様に意味を学習するとは限りません。
人間と同じでなければ、意味を理解しているといえないと、狭い意味で「意味」を定義することもできます。
しかし、そのような定義は客観性がありません。
TransformerのAttention機構について考えます。
ある単語から注意を向ける別の単語を関数が学習します。
その関数が意味を学習しているといえます。
生成AIは、入力文章に対する出力文章の関係を学習する関数ではありません。
単語単位で、単語同士の関係を学習する関数です。
従って、単語単位の意味を理解しているといえます。
ただし、映像を学習させてなければ、単語の映像的な意味は学習していません。
単合同士の関係性としての意味のみ学習します。
中国語の部屋のように、入力文章に対する出力文章を出力する場合は、単語の意味を理解してはいません。
ただし、文章の意味は理解しているといえます。
記号と意味がどう結び付けられるか
AIが意味を理解しているかどうかではなく、記号と意味がどう結び付けられるかも考える必要があります。
人間がある言葉の意味を理解しているのは、どういう状態なのか考えます。
人間は、それぞれ意味が異なる単語を認識したとき、それぞれ異なる概念を想起します。
意味が異なる単語を認識したとき、脳は異なる状態にあります。
異なる概念を想起したとき、脳は異なる状態にあります。
想起の前後では、脳の状態は変化します。
脳が学習しているのは、ある瞬間の脳の状態から、次の瞬間の脳の状態がどうなるべきかという関数です。
どんな学習内容でも、このように表されます。
ある状態から、次の瞬間の状態を学習すれば、どんな意味でも学習できるといえます。
生成AIは、ある単語から、次に来る単語を学習します。
単語については、どんな意味でも学習できます。
コメント