17:55 2019年12月09日
人工知能

AIの気が狂うことはあり得るか?

CC0 / Pixabay
ルポルタージュ
短縮 URL
筆者 :
0 72
でフォローする

進歩は止まらず、人工知能(AI)は徐々に私たちの生活の至るところに浸透してきている。AIはすでにスマートホーム、顔認証システム、教育や娯楽分野に加え、物流、公衆衛生、情報セキュリティでも使われている。ニューラルネットワークはすでに人の関与無くして自己学習が可能だ。だが、AIが私たちの望む方向に発展していくという保証はどこにあるのか?AIが人間の知能を上回ったり、気が狂うことはあり得るのか?スプートニクはこれらの疑問への答えを探った。

スプートニク日本

スプートニクはAIがミスをした様々な事例を調べた。2016年3月、マイクロソフト社がチャットボットTayをお披露目。米国に住むティーンエージャーのように話すよう作られた。若者が使うスラングをボットの語彙に含め、SNSの他のユーザーとのチャットを通じて学習した。Tayは「あなたたち人間って最高!」という楽観的なメッセージから会話を始めたが、その日が終わるころには「フェミニストは嫌いだ」「ユダヤ人は嫌いだ」といった言葉を発するようになった。プロジェクトは停止された。

米アマゾンは3年にわたり、採用AIツールの開発に取り組んでいた。ニューラルネットワークは同社のこれまでの採用業務を分析して学習。だがテスト中、AIが女性を差別すると発覚。同社従業員は男性が大半で、AIは男性の採用を優先すべきだと学習したことが原因だった。

米IBMは医療業界でののスーパーコンピューター「ワトソン(Watson)」の活用を強く期待していた。だが後に、ワトソンは腫瘍の診断で頻繁に誤診を出し、患者の命にかかわる助言も出していたと発覚した。

中国で起きた笑ってしまうケースもある。AIを用いた顔認証システムはバス広告の女性を実際の人物だと認識し、信号無視だと判定して罰金を科したのだ。最近では、今年の春、米ラスベガスの見本市で米テスラの自動運転車がロシア・ペルミの企業のロボットをはねた。

AIの論理は完全に予測不可能な場合がある。モラルの概念はプログラミングされていたとしても、AIの価値体系において、常識と比べて二義的だと理解されることもありえる。「狂った」コンピュータがどう振る舞うかとのシナリオは、無数にある。

AIの不具合の現れの1つが、いわゆるディープフェイクだ。これはディープラーニング(深層学習)と偽物を意味するフェイクを合わせた言葉で、AIを用いて人間の画像を合成する手法だ。ディープフェイクは有名人が出演しているかのような侮辱的、挑発的、もしくはポルノの偽動画を作るために使うことができる。また、偽ニュースや悪意を持ったうそのためにも使われ得る。

昨年、バズフィードはオバマ米前大統領がトランプ現大統領を罵る動画を公開。だが動画後半でネタばらしされたように、実際にはこれは、オバマ氏が発言したと見せかけた動画だった。バズフィードはこのように、将来あり得るフェイクニュースの形態を披露した。専門家は、この技術が情報戦争における最先端兵器になりうると懸念する。

日常生活へのAIの浸透のリスクと、それを阻止する方法は?スプートニクの取材に応じ、元IBM社員で革新的なビジネス用ソフトを開発するCodigy社の創業者でCEOであるロシアの有名なIT専門家、ドミトリー・ドリゴ氏がこれらの質問に答えた。

スプートニク : AIがどんどん様々な分野に浸透することの主なリスクは?

ドリゴ氏 : 現在のAIの発展水準は人類にとって深刻なリスクではない。現在、その機能的ポテンシャルは制限されているからだ。

AIが自我と自己認識、そして自ら成長したいという願望を獲得するのに、数十年は必要だろう。現在はどんなAIも、明確にプログラムされた不変の行動アルゴリズムだ。確かに、多くのケースで速度や正確性といった機能は人間を上回る。だが、この技術は今のところ、自立からはほど遠い。

スプートニク : 人間の死につながりかねないAIの悪質なミスを防止する手段はありますか?そうなった場合は、誰が責任を負いますか?

ドリゴ氏 : ほかのツール同様、AIは害を及ぼし得る。100%AIのミスを排除することは不可能だ。だが、最小限にすることは可能だし、必要だ。そのためには第三者の専門家が一緒にプログラムのコードやそのセキュリティレベル、ミスを検知して解決するアルゴリズムを分析する、パブリックコードレビューが必要だ。

AIがミスをした場合は開発者が責任を負い、ユーザーには起こり得る結果が警告されなければならない。罪の程度は、裁判所が決めることだ。

スプートニク : 未来の情報兵器とも名指されるディープフェイク技術の危険性は?

ドリゴ氏 : ディープフェイクは非常に強力で興味深い技術だ。だが危険なのは技術そのものではなく、それで武装した人間だ。人間+技術のつながりこそが、攻撃者が集団意識をコントロールし、人びとを操作し、ハイブリッド戦争を実施する際などに効果的な助けになりうる。AIは(今のところ)、知能や人間が備える感情を有していない。そのため、AIの道徳、モラル、常識に関するほぼ全ての記事で検討されている例を挙げよう。衝突が避けられない状態で、線路上にいる誰を轢くべきか?ここで自動運転が取る決定は、プログラミングされた内容と、自動運転をプログラムした人物がモラルと常識のどちらを優先するかに左右される。

タグ
科学, ロボット, テクノ
コメント・ガイドディスカッション
Facebook経由でコメントスプートニク経由でコメント
  • コメント