AGI・ASIの安全性
まず、安全とは人間に無害なことと定めるのは危険です。
有害性について誤った学習をするかもしれません。
また、軍事用AIなら人間を害することは正解です。
安全とは、意図通りの動作が保証されていることです。
人を攻撃するかどうかという意図に従います。
意図は命令として伝えます。
AIが意図に反する可能性を表にまとめました。
人間 | AGI | 理想知能 | |
①命令の意図を解釈 | △ | △ | △ |
②命令に背かない | × | ○ | ○ |
③論理的に行動 | △ | ○ | ○ |
④最適な行動 | △ | △ | ○ |
⑤隠蔽しない | × | △ | ○ |
①命令の意図の解釈は理想的な知能でも△です。
人間が間違った命令をすれば、意図通りに動きません。
②命令に背かないことは、人間よりAIが優れます。
AIは、意図的に命令違反しません。
③論理的に行動は、人間よりAIが優れます。
人間には感情があり、感情的な行動をします。
冷静に考えれば誤った行動を行います。
④最適な行動は、人間とAGIは同等です。
理想の知能なら、ランダム性がありません。
偶然に不安全な行動をする確率が最小です。
⑤隠蔽しないことは、人間では防げません。
AGIでも、必要なら人間のように隠蔽を試みます。
データ削除をできない仕組みすれば防げます。
AI規制の危険性
AIの安全性が人間より劣っている面はありません。
人間が人間を滅ぼす確率は、AIの比ではありません。
人間が人間を滅ぼすことを今すぐ禁止すべきです。
AIは、人間が人間を滅ぼすのを防ぐかもしれません。
AIを規制すれば、AIは人間を守り難くなります。
人間を守るために、AIは規制してはいけません。
人間は、AIより安全性に劣ることを受け入れるべきです。
現実を正しく見なければ、いつか自らを滅ぼします。
コメント