Report 1

AI(人工知能)と未来。

「強力なAIの台頭は、人類史上の最高の、または最悪の出来事になるだろう。」

(英国物理学者 スティーブン・ホーキング博士)

「車椅子の天才物理学者」として知られるスティーブン・ホーキング博士に訪ね、GWC(長城会)会長、社長、株主らがインタビューを行った際に撮影されたビデオ講演「AIと未来」で、今大会の幕を開けました。

◆ 制御可能なAI(人工知能)を。

「車椅子の天才物理学者」スティーヴン・ホーキング博士
「車椅子の天才物理学者」
スティーヴン・ホーキング博士

スティーブン・ホーキング博士は、「AIの開発に成功すれば、人類の文明史上における最大の出来事になるかもしれません。ただし、リスク回避の方法を学ばなければ、人類史上の最後の出来事になる可能性もあります」と警鐘を鳴らし、AIの開発研究者に対し、「制御可能なAIを開発しなければいけない」ことを呼びかけている。

「過去20年ほどの間、AIは主に知的エージェント、つまり特定の環境下で認識や動作をするシステムの構築に関する問題が研究されてきて、様々なタスク分野で素晴らしい成功が収められています。例えば、音声認識、画像分類、自立型車両、機械翻訳、脚式移動、それに質問応答システムなどです。これらの分野で業績が上がるにつれ、実験室での研究対象から経済的な価値あるテクノロジーへと移行し、好循環が生まれます。
しかし、これからAIは自律し、加速度的に自身を再設計していくことでしょう。人間の生物学的な進化の速度は遅く、限界があるため、競争にならず、最終的に取って代わられる恐れがあります。そうなれば、人間の経済は大きく混乱します。そして将来、AIは自らの意志を生み出し、人間の意志と対立するようになります。」

ホーキング博士は、長期的な懸念としてAIシステムが制御不能になり人類を脅かす可能性を指摘する一方、短期的な懸念としていくつの問題も挙げた。
一つは、自律性の定義と故障が起きた場合の責任所在。例えば、ドローンや自動運転車を含む自律型車両は、緊急時には「可能性の低い大事故」と「可能性の高い小事故」のどちらかを選ぶことが迫られる。また、AIを搭載した自律型致死兵器に関す懸念もある。
さらに、AIが解釈可能な監視データ量の増大によりプライバシー侵害や、雇用の減少がもたらす経済的影響といった問題もある。世界は新しい産業ロボット革命を迎えると、法律上で定義される「企業人格」と同等の法的権利を、「電子人格」としてのロボットにも認めるべきかどうか、といった問題も議論を呼んでいる。

「AIは過去の産業革命により自然界に与えたダメージの一部を回復でき、人類が享受できるメリットは極めて大きいと信じていますが、科学者として現代のテクノロジーが将来に影響を与える立場にあると自覚されることが重要だ」とホーキング博士は他の国際的科学者とともに、国際条約や法律の制定への支持を呼びかけている。

 

◆ これからの10年は、AIを積極的に利用。その次の10年は、AIをコントロール。

慶應義塾大学 特別招聘教授 夏野 剛氏
慶應義塾大学
特別招聘教授 夏野 剛

ホーキング博士の講演を受けて、慶応大学特別招聘教授 夏野 剛氏は、AI技術の段階的な発展という独自の見解を述べた。

「AIの基本はマシンラーニング(ディープラーニング)です。過去のデータに対して学んでいくので、どうしても現実世界より少し遅れることになります。人類を超えるインテリジェンスを全知能的に持つには現段階ではまだ足りないと思います。なので、今はAIのアプリケーションを積極的に社会の中に入れて、人類の側がAIに慣れるというフェーズを一旦経験してから、AI制御がテーマになるだろうと思います。人類の進化はAIに頼るというのはこれからの10年です。人類が気づいていないけれど、AIが発見してくれることはこれからの10年でどんどん増えるだろう。」と。

大会レポート目次 へ