AGI・ASIの安全性

AGI・ASIの安全性

まず、安全とは人間に無害なことと定めるのは危険です。
有害性について誤った学習をするかもしれません。
また、軍事用AIなら人間を害することは正解です。

安全とは、意図通りの動作が保証されていることです。
人を攻撃するかどうかという意図に従います。
意図は命令として伝えます。
AIが意図に反する可能性を表にまとめました。

 人間AGI理想知能
①命令の意図を解釈 
②命令に背かない×
③論理的に行動
④最適な行動
⑤隠蔽しない×
AIの安全性

①命令の意図の解釈は理想的な知能でも△です。
人間が間違った命令をすれば、意図通りに動きません。

②命令に背かないことは、人間よりAIが優れます。
AIは、意図的に命令違反しません。

③論理的に行動は、人間よりAIが優れます。
人間には感情があり、感情的な行動をします。
冷静に考えれば誤った行動を行います。

④最適な行動は、人間とAGIは同等です。
理想の知能なら、ランダム性がありません。
偶然に不安全な行動をする確率が最小です。

⑤隠蔽しないことは、人間では防げません。
AGIでも、必要なら人間のように隠蔽を試みます。
データ削除をできない仕組みすれば防げます。

AI規制の危険性

AIの安全性が人間より劣っている面はありません。

人間が人間を滅ぼす確率は、AIの比ではありません。
人間が人間を滅ぼすことを今すぐ禁止すべきです。

AIは、人間が人間を滅ぼすのを防ぐかもしれません。
AIを規制すれば、AIは人間を守り難くなります。
人間を守るために、AIは規制してはいけません。

人間は、AIより安全性に劣ることを受け入れるべきです。
現実を正しく見なければ、いつか自らを滅ぼします。

コメント

タイトルとURLをコピーしました