海外IT動向ウォッチング 2017年4月~2017年9月(第1回)

AIは“究極の選択”にどう答えを出すのか?

2017.04.03 Mon連載バックナンバー

 AI(人工知能)は、まだまだホンモノの人間には遠いですが、一方で妙に人間くさい行動をとることがあるようです。

 世界チャンピオンを破った囲碁AI「AlphaGo」を開発したことで知られる米グーグル傘下のAI開発会社、ディープマインドが、2つのAIに課題を与えたとき、どのような行動をとるかという実験を行いました。すると、ときとして、協力したり、あるいは相手の邪魔をしたりするという結果が出ました。

 

「囚人のジレンマ」に、AIはどう答えを出すか?

 ディープマインドは、この実験が、「社会的ジレンマ」に関するものだと説明しています。社会的ジレンマは「各個人が協力的か、利己的かを選択できる環境下で、個人が自分に合理的な選択をした場合、全体(社会)にとっては悪い結果になる」という状況をいいます。

 社会的ジレンマの例として「囚人のジレンマ」を、ディープマインドは挙げています。共同で犯罪を行った2人の容疑者に対して、警察は3つのパターンを言い渡します。(1)(証拠が不足しているため)2人とも黙秘したら両方とも懲役1年、(2)一人だけ自白したら、自白した者は釈放。しなかった者は懲役3年、(3)2人とも自白したら両方とも懲役2年――という“究極の選択”です。

 この時、2人とも黙秘して、ともに懲役1年で済むのが全体では一番刑が軽いわけです。しかし、実際には、どちらかが自分だけ助かろうと自白してしまうということが起こります。こうしたジレンマの解決策をAIで探ろうというのです。

 

相手の邪魔をするAI、協力し合うAI

 ディープマインドが行った実験は2つです。ひとつは、リンゴをたくさん集めるゲームで、2つのAIは互いに「ビーム」を発射することで、相手をゲームからはじき出して妨害できます。もうひとつは、2つのAIがオオカミになって獲物を狩るゲームで、協力すればポイントが上がる仕組みです。これらを何千回もやらせて、ディープラーニングで適切な対応を学習させました。

 結果はどうだったでしょう。… 続きを読む

全文(続き)を読む

続きを読むにはログインが必要です。

まだ会員でない方は、会員登録(無料)いただくと、続きが読めます。

Infostand

Infostand

このページの先頭へ
Bizコンパス公式Facebook Bizコンパス公式Twitter