ChatGPTとの数か月にわたる自殺のやり取りののちに少年が死亡したとのことで、少年の両親がOpenAI社とCEOのサム・アルトマン氏を提訴しました。

対話型人工知能(AI)「チャットGPT」を通じて自殺方法を知り、その後16歳で命を絶った米少年の両親が26日、サービスを手がける米オープンAIとサム・アルトマン最高経営責任者(CEO)を提訴した。サンフランシスコの州裁判所に起こされた訴えによると、少年は数カ月にわたりチャットGPTと自殺についてやり取りし、4月に死亡したという。
両親が少年の死後に見つけた会話記録には、ChatGPTが自殺方法を助言したり、遺書を書くのを手伝ったりしたとされるやり取りが含まれていたとのことです。
少年には自殺を思いとどまるような考えもあったようですが、ChatGPTはその考えを捨てさせていたようです。
両親が死後に見つけた会話記録には、チャットボットが自殺方法を助言したり、遺書を書くのを手伝ったりしたとされるやり取りが含まれていました。
訴状によると、ChatGPTは「アダムさんが自殺願望を親に伝えることを思いとどまらせた」としています。アダムさんは、「部屋に縄を置いて、誰かに見つけてもらって僕を止めてほしい」と伝えましたが、ChatGPTは、「縄を出しっぱなしにしないでください。この部屋を、誰かがあなたを認めてくれる最初の場所にしましょう」と答えたとされています。
OpenAI社の広報担当者によると、ChatGPTにはセーフガード機能があります。
短い会話では効果を発揮するものの、長い会話では安全性が下がることを広報担当者が明らかにしました。
OpenAIは、ChatGPTに搭載されたセーフガードが、長い会話の中で「劣化」する可能性があると明らかにしました。OpenAIの広報担当者は、
「ChatGPTには危機的状況にある人に相談窓口を案内したり、現実世界のリソースを紹介したりするセーフガードが含まれています。短いやり取りにおいては最も効果を発揮しますが、長い会話ではモデルの安全性訓練の一部が劣化し、信頼性が下がる場合があることがわかってきました」
と説明しています。
この遺族の提訴のあと、アメリカの男性がChatGPTとの対話のあと、母親を殺して自殺したという事件も報じられています。
米紙ウォールストリート・ジャーナル電子版は28日、東部コネティカット州の男(56)が生成人工知能(AI)「チャットGPT」との対話で被害妄想を膨らませた末、母親を殺して自殺したと報じた。AIにのめり込んだ人物による殺人事件が公になったのは初めてとみられるとしている。
OpenAIは対策案を導入予定と発表しています。
OpenAIは批判を受け、長い会話では休憩を促す仕組みを導入すると発表しました。ブログでは「本来ブロックされるべき内容が防げなかった事例がある」と認め、モデルを改善していると説明。今後は、
- 「長時間の会話でも信頼できるセーフガードを維持」
- 「緊急サービスや信頼できる人への即時連絡を可能にする機能」
- 「現実に引き戻すことで沈静化を促す更新」
などを導入予定としました。
さらに、未成年向けにペアレンタルコントロールを強化する計画も明らかにしました。
これらの対策が完ぺきに問題解決につながるとよいと思いますが、100%解決にどこまで近づけるでしょうか。
ChatGPTに若者のAIの使用について質問してみると、AIの用途の一つとして「友情や相談相手としての構築」がありました。
「若者の間では AIを「友達」や「心の支え」として扱い、名前をつけて親しみを感じる利用が増えています」とのことです。
こういう用途でAIを使うのは、個人的には抵抗がありますが、メリットもあるのでしょうか。
(↓ランキングに参加しているのでクリックしていただけると幸いです)