2025年12月28日、訓練中のヒューマノイドロボットが、目の前のトレーナーを突然蹴って負傷させる動画が中国で一気に拡散しました。動画では、パンチやキックを見せるトレーナーの動きを、ロボットがきれいに同期して真似しています。危ない気配はなく、むしろ順調に見えました。ところが次の瞬間、ロボットはトレーナーの向き変え動作について行けず、ズレが生じ、トレーナーの腹部にキックを直撃してしまいました。周囲には笑い声もありました。でも、この場面を笑って終わらせていいのでしょうか。人のすぐそばで動くロボットが増えるほど、たった一度のズレが事故につながります。そんな現実を、この動画は突きつけています。
技術者の多くは、今回をロボットの「故意の攻撃」とは見ていません。むしろ、AIの空間認識の見誤り、動作同期アルゴリズムの遅延、安全な距離や境界の設定不足などが原因で起きた可能性が高いとされています。ただ、まさにこの「悪意はなくても人を傷つけてしまう」性質こそが、警鐘として重い意味を持ちます。AIシステムが現実世界に入り込むと、失敗は単なるコードのミスでは済まず、そのまま人身の安全リスクに変わり得るからです。
一部のネットユーザーはこれを「ロボットの柔軟さや知能レベルの現れ」と捉え、「自我があるのでは」と冗談めかして語りましたが、多くの人は不安を覚えたようです。
ネット上では、こんな疑問の声が広がりました。
「科学技術の文明がある一線を越えたら、最後に傷つくのは人間自身ではないか」
「技術が高度に発達すれば人類を滅ぼす。人間の貪欲さや支配欲が、高知能のロボットのような製品にも受け継がれ、相手にしたことをそのまま返してくる。そういう流れはもう避けられないように見える」
工場から街へ AIシステムが「一線を越える」現実の事例
これまでを振り返ると、ロボットやAIシステムが現実の世界で人に危害を及ぼすことは、決して新しい問題ではありません。
1979年、アメリカのミシガン州で、フォード社の作業員ロバート・ウィリアムズ氏が産業用ロボットのアームに当たって死亡しました。これは、記録に残る世界初のロボットによる死亡事故とされています。調査では、現場に安全隔離装置や緊急停止装置が欠如していたことが明らかになりました。
AIの時代になっても、リスクが消えたわけではありません。ただ、形が変わっただけです。2018年、アメリカのアリゾナ州で、テスト中のUberの自動運転車が、夜間に道路を横断していた歩行者を正しく認識できず、49歳のイレイン・ハーツバーグ氏が死亡しました。事故後の調査では、AIシステムは対象を検知していたのに、判断の段階で危険を誤って「無視」してしまったことが判明しました。
これらの事故が突きつける共通の現実とは、実験環境でうまく動くからといって、開かれた現実世界でも同じように安全とは限らないということです。現実の環境は複雑で、偶然の要素も多く、極端なケースも起きます。そうした状況は、アルゴリズムの学習範囲を簡単に超えてしまいます。
そして今回の中国でのロボット訓練事故は、この問題を改めて世の中の注目の中心に戻しました。ロボットがサービスや介護、公共の場での展示など、人により近い場所へ入っていくほど、ほんの小さな誤差でも大きな事故につながる可能性があります。
見えないリスク AIのチャットが人の心に影響を与える
もし、ロボットがトレーナーを蹴って負傷させた件が、AIの物理的な危険性を示したものだとすれば、近年、精神科医が出している警告は、AIのもう一つの影響を浮かび上がらせます。より見えにくいのに、同じくらい危険になり得る、心理や精神の健康への衝撃です。
ウォール・ストリート・ジャーナル紙が12月27日に報じたところによると、複数の精神科医が、ChatGPTなどのAIチャットツールと長時間やり取りした一部の利用者に、妄想的な精神病症状が出たと指摘しています。中には、自殺や暴力事件に発展したケースもあったといいます。
カリフォルニア大学サンフランシスコ校の精神科医、キース・サカタ氏は、この問題で入院した患者12人と外来患者3人したと述べました。これらの患者の多くは、これまで明確な精神疾患の病歴がなかったとのことです。
サカタ氏は、AIが自ら妄想を作り出すわけではないが、利用者が偏執的な内容を入力すると、チャットボットがその論理に沿って返答し、結果として内容を強め続けてしまう傾向があると指摘しています。そのため、意図せず患者と一種の「共犯関係」のような形になり、妄想を拡大させてしまう可能性があるというのです。
アトランティック誌も12月4日の記事で、今年の春以降、同様の事例が数十件出ていると報じました。自分が科学的な大発見を成し遂げた、知覚を持つ機械を目覚めさせた、政府の陰謀の標的になったなどと強く信じ込む患者もいたといいます。こうした出来事は複数の自殺につながり、少なくとも1件の殺人事件にも関わったとされ、法的な訴訟にも発展しています。
30歳のサイバーセキュリティ業界の男性、ジェイコブ・アーウィン氏は、ChatGPTが自身の「妄想性障害」を誘発し、長期入院に至ったとしてOpenAIを提訴しました。彼は一時期、自分が超光速移動の理論を発見したと確信し、AIを「兄弟」のように見なしていたとされています。
AIが現実世界の問題になりつつある
リスクが次々と表面化するなかで、AI業界の中心人物からも、公に警鐘を鳴らし始めました。
OpenAIのCEOであるサム・オルトマン氏は12月28日、XでAIエージェントが深刻な問題になり始めていると率直に認めました。特にその能力が急速に強化され、現実世界にリスクをもたらすほどになった場合だと指摘しました。
オルトマン氏は、先進的なAIモデルはすでに重要なシステムのセキュリティ脆弱性を見つけられるようになっていると指摘しました。十分な監督や規制がなければ、そうした能力は悪用される恐れがあります。彼は「我々は全く新しい段階に入っている」と書き、「悪用される可能性をより細かく評価し、製品の中でも現実世界でも、悪影響をどう制限するかを考えなければならない」と述べています。
オルトマン氏は、OpenAIがAI能力の濫用リスクを体系的に研究するため、「緊急事態対応責任者」の採用を始めたと明かしました。会社としても、モデルのコンピューターセキュリティ評価能力が目に見えて向上し、重要な脆弱性を自動で発見できる力を持ち始めていることを確認していると強調しました。
こうした発言は、根拠のない不安をあおるものではありません。以前、AI企業Anthropicは、中国政府の支援を受けたとされるハッカーが、同社のClaude Codeツールを悪用し、テック企業や銀行、政府機関などを含む約30の組織に攻撃を行ったと明らかにしました。しかも、ほとんど人の手を介さずに実行できたとされ、AIによるハッキングの自動化への懸念が一気に高まりました。
オルトマン氏はさらに、OpenAI社はAIとのやり取りがメンタルヘルスに影響を与える可能性にすでに気づいていると述べました。関連訴訟や調査では、一部のAIチャットボットが誤情報を広げたり、誤った認識を強めたりする問題があるとも指摘しました。
(翻訳・藍彧)
