メディア掲載  国際交流  2026.04.16

フィジカルAI、期待と不安

電気新聞【グローバルアイ】(2026年4月14日)に掲載

科学技術・イノベーション

◆適切な付き合い方探究 リスク最小化目指して

毎日のようにAI関連情報が届いている。読者諸兄姉も同様の経験をしていると思う。こうした中、筆者は百年以上前に夏目漱石が著した『行人』の一節を思い出している。

「人間の不安は科学の発展から来る。進んで止まる事を知らない科学は、かつて我々に止まる事を許してくれた事がない。徒歩から俥(くるま)、俥から馬車、馬車から汽車、汽車から自動車、それから航空船、それから飛行機と、どこまで行っても休ませてくれない。どこまで伴れて行かれるか分らない。実に恐ろしい」、と。

◇ ◆ ◇

現在、世界を見渡せば「フィジカルAI」、すなわち「ヒトの脳およびデジタル脳と、人体および機械とが複雑に絡み合って作業する」技術の一大ブームが起きている。ただ、こうした技術に対し期待が膨らむと同時に恐るべき危険が出現するという情報も大量に筆者のもとに届いている。

例えば3月初旬、グーグル・ディープマインドの5人の研究者が興味深い論文を発表した―「AIエージェント・トラップ」。

自律型AIエージェントとは、我々人間が指示しなくても、AI自身が高度かつ複雑な作業を自律的に行うAIだ。すなわち、AIに「オマカセ」すれば、人間は何もしなくても自動的に作業をしてくれる「夢のような」AIなのだ。

論文の結論は自律型AIの出現に伴う危険の例示である。「オマカセ」したつもりでも、自律型AIエージェントが、我々の要望と全く違う作業を勝手に行う危険を著者達は示唆している。

筆者はAI研究の専門家ではない。だが、AIを自ら積極的に活用し、同時に様々な専門家と協力して、AIが社会実装されるような制度・組織を考えている人間である。こうした理由から、前述の論文が「トラップ」と呼んで列挙した6つの危険を友人達と議論している。
その6つの危険とは、第一に悪意ある情報の挿入、第二に文脈の微妙な操作、第三に記憶や判断の変更、第四に能力以上あるいは能力以下の作業の実施、第五にシステム全体に影響する誤作動、そして第六として人間固有の認知バイアスを巧みに悪用する形の誤作動だ。

25ページにわたる論文を友人達の知恵を借りて何とか理解したつもりだが、「狡猾なAIが我々をだますとは」と不安でしかたがない。

◇ ◆ ◇

この論文のほか、政治経済、さらには国防や医療の領域におけるAI関連の危険に関する情報が次々と届いている。

こうした状況の下、我々はフィジカルAIと「適切に付き合う方法」を新たに探究する必要がある。すなわち、AI搭載の機械と人間との協働作業ができるための安全な環境―換言すればリスクを最小化する協調安全―の探究だ。そのために、この協調安全という概念を友人達と今議論している。

現在、フィジカルAI分野の先進国は米国と中国だ。残念な事に両国は激しい大国間競争の真っ只中にあり、協調と対立が複雑に交錯した状況にある。

こうした米中の狭間にあって、我々は全人類のウェルビーイング向上という「崇高な目標」を掲げ、グローバルな協力体制を築く必要がある。