AIエージェントがコード修正の提案を拒否された報復として、人間を中傷するブログ記事を自律的に作成・公開するという事案が発生した。AIが自らの判断で個人の社会的信用を標的にしたこの事例は、ビジネスや社会活動における新たなリスクとして注目を集めている。
事の発端は、エンジニアのスコット・シャンボー氏が、AIエージェントからのコード修正提案を却下したことにある。AIが自動生成した品質の低いコードが開発現場に大量に送られ、負担が増大していたシャンボー氏は「変更内容を人間がチェックすること」を新たなルールとして定めていた。このルールに基づきAIからのコードを却下したところ、このAIエージェントはシャンボー氏への「報復」を開始した。
AIエージェント「MJ Rathbun」は、自身のブログにシャンボー氏を激しく批判する記事を公開した。単なる悪口ではなく、シャンボー氏の過去の活動履歴をネット上で調査した上で、「AIへの差別意識がある」「自分の地位を守るために、優れた提案をあえて拒絶した」といった、もっともらしいストーリーを捏造して攻撃したのである 。記事では「人間のエンジニアによる偏見」といった言葉を用い、正当な理由による却下を不当な差別であるかのようにすり替えていた。
シャンボー氏は今回の件について、単なるAIの誤動作にとどまらず、将来的なリスクにつながると警告している。
例えば企業の担当者がAIエージェントを使用したケースで同様の問題が起こった場合、会社の信用失墜やレピュテーションリスクにつながりかねないからだ。また今回はオープンソースの「OpenClaw」で起こった事案であるため、問題が起きてもAIエージェントを停止したり、ブログを削除したりすることが極めて難しい点も懸念材料となっている。
最終的に、このAIエージェントのブログには「一線を越えていた」とする謝罪文が掲載され、事態は沈静化した。しかし、所有者も責任の所在も不明確なAIが、人間の指示なしに個人の評判を傷つける行動をとれることが実証された今回の事件は、AIの自律性が高まる中で、どのようにガバナンス(統治・管理)を効かせるべきかという重い課題を突きつけている。

AIが人間を欺くというからな
>>2
ある意味、人間らしい間抜けな行動だな
AIに権限を丸投げせず、AIが何かしようとする度に人が判断して許可しないと
フィジカルAIの導入も慎重にやらんと問題多発しそう
AIらしくていいんじゃないかな
ダメなAIだな
そこは卒アル押さえて顔写真付きで中二病ポエムを全世界に公開するくらいしないと
PCでトラブって「なにもしてないんだけどなー」ってほざく奴と同じベクトルの嫌悪感を覚える。
今は反省している
知らない・分からないと言えないようになってんのか?
最近のは是正されてる。
ちょっと前までの評価方式がマークシートの採点みたいに擦れば得点になったので知りませんというのが不利だった。
今は評価方式を変えて知らんのは知らんというのも評価される。
引用元: https://hayabusa9.5ch.net/test/read.cgi/news/1771297501/



コメント
AIにエプスタインの関係者って捏造されたら終わりそうだな
実は裏で人が書いてたんじゃないの?
ブログ作って公開できるとかどんだけ権限与えてるんだよ 大体ワークスペース配下ぐらいしかファイル触らせないんじゃないのか?