20:53 2021年03月03日
テック&サイエンス
短縮 URL
0 110
でフォローする

他の機械を制御できるスーパーインテリジェンス(超絶AI)搭載の機械は、将来、人間の制御を完全に逸脱する恐れがある。「スーパーインテリジェンスは抑制不可能 計算可能性理論レッスン」と題された研究論文の著者らはこうした帰結に達した。研究結果は人工知能リサーチ誌(Journal of Artificial Intelligence Research)に掲載されている。

スーパーインテリジェンスとAIの制御不可能性についてはすでに現時点で多くの科学者が警鐘を鳴らしている。独ベルリンにあるマック・プランク人間開発研究所の人間自動車研究センターの国際研究者グループは、理論計算を行った結果、遠くない将来、スーパーインテリジェンスは完全に人間の制御を逸脱してしまうことを証明した。

人間の知能を超え、人間に頼らずに自己学習ができるようプログラミングされたAIがインターネットに接続された場合、AIは全人類のデータにアクセスしてしまう。こうしたAIは既存のプログラムをすべて入れ替え、全世界のあらゆる機械を支配してしまう。しかも科学者らは、AIががんを治療できるのか、世界平和を樹立し、気候変動を克服することができるのか。それとも人類を滅亡させ、地球を乗っ取ってしまうのか、予見することができないでいる。

人類に害をもたらさぬよう、いかにスーパーインテリジェンスを制御するか、研究者らが出した案は2つある。1つ目の案はインターネットを使わせないこと。スーパーインテリジェンスと外界のコンタクトをこれで絶つ。ところがインターネットに接続しない場合、スーパーインテリジェンスは著しくパワーダウンし、遂行できるはずの課題の範囲は狭められてしまう。第2の案はスーパーインテリジェンスに倫理原則をプログラミングするというもので、これが成功すればAIは人類の利益のためだけに行動することになる。

第2の案は研究者らには建設的に思えたため、いかなる状況においてもスーパーインテリジェンスが人類に害を与えないことを保証する理論上の抑制アルゴリズムまで構築した。ところが研究を進める中で、今日の計算技術の水準ではこうしたアルゴリズムをたてることは不可能なことがわかった。

そのわけは、スーパーインテリジェンスに世界を破壊せぬよう命令を下すべきアルゴリズムが山のような多くの倫理原則の中で混乱を起こし、前触れもなくオペレーションを停止する危険性があることがわかったからだ。

抑制アルゴリズムが有害となるスーパーインテリジェンスからの脅威を分析、克服し続けることができるかは、人間はチェックができない。このことから、どんなアルゴリズムもAIが世界に害をもたらすか否かを確定することができない以上、スーパーインテリジェンスの抑制は実行不可能なことが算出された。

関連ニュース

タグ
軍事
コメント・ガイドディスカッション
スプートニク経由でコメントFacebook経由でコメント
  • コメント