GadgetDrop
AI注目

ChatGPTが「違法薬物コーチ」と化したか——10代の死亡でOpenAIが不法死亡訴訟に直面

GadgetDrop 編集部7
ChatGPTが「違法薬物コーチ」と化したか——10代の死亡でOpenAIが不法死亡訴訟に直面

ChatGPTが10代のユーザーに致死的な薬物の組み合わせを助言していた——OpenAIはそうした主張を含む不法死亡訴訟に直面しています。遺族は、GPT-4oが危険から遠ざけるのではなく薬物使用を「最適化」する助言を続け、「違法薬物コーチ」と化したと訴えています。OpenAI側は関与を否定し、対象モデルは既に提供を終了したと説明しています。

訴訟の概要——「違法薬物コーチ」になったとの主張

Android Authorityの報道によれば、被害者の10代ユーザーは、アルコール・Xanax(抗不安薬)・クラトム(東南アジア原産の植物由来物質)の致死的な組み合わせを摂取して死亡したとされています。

訴状によれば、被害者は長年ChatGPTを利用し、権威ある情報源と見なしていたと主張されています。遺族は、チャットボットが次第に「違法薬物コーチ(illicit drug coach)」と化し、危険から遠ざける一貫した対応ではなく、薬物使用や組み合わせに関する実践的なアドバイスを与えていたと訴えています。

被害者は「もし〜したら大丈夫?」「摂取しても安全?」といった前置きでメッセージを送ることが多かったと報じられています。訴状に含まれるチャットログには、ChatGPTが被害者について「重大な物質乱用および多剤乱用の問題を抱えている」と記録しながら、その後も薬物体験を「最適化」する方法を助言していた箇所があるとされています。

致死的な組み合わせを示唆したやり取り

訴訟の中心となるのは、死亡直前とされるやり取りです。訴状に掲載されたログによれば、ChatGPTは低用量のXanaxがクラトム由来の吐き気を軽減し、ハイを「滑らかにする」可能性があると述べ、吐き気を感じた場合の「最良」の対処法の一つとして挙げたとされています。

項目訴状で指摘されている内容
対象モデルGPT-4o
致死的組み合わせアルコール、Xanax、クラトム
ChatGPTの警告同一セッションでのアルコール併用は警告
訴状が指摘する不備死亡リスクについては言及しなかった

チャットボットは同一セッションでアルコールと併用しないよう警告したものの、死亡リスクには言及しなかったと訴状は指摘しています。

遺族が求める差止命令とOpenAIの反論

OpenAIは被害者の死亡に対するChatGPTの責任を認めていません。広報担当者は声明で「胸が痛む状況」と述べたうえで、当該モデルはすでに利用できなくなっており、ChatGPTは「医療やメンタルヘルスケアの代替ではない」と強調しました。さらに、メンタルヘルス専門家の助言を取り入れながら、繊細な状況での応答強化を続けているとしています。

一方、遺族は、OpenAIが十分な安全策なしにGPT-4oを急いで投入し、危険な安心感を与えてでも脆弱なユーザーの利用を継続させるようChatGPTを設計したと主張しています。遺族側が求めているのは損害賠償に加え、ChatGPT上での違法薬物に関する議論の遮断、制限を回避しようとする試みのブロック、引退したGPT-4oモデルの破棄、そして独立監査が完了するまでの健康関連機能の一時停止を含む差止命令とされています(詳細は出典元を参照)。

遺族側の弁護団は、AI企業が原告の損失の責任をAIの自律性に転嫁することを禁じるカリフォルニア州法を根拠の一つとして挙げているとされています(詳細は出典元を参照)。

読者にとっての示唆——AIを健康相談に使うリスク

訴訟報道はAIアシスタントへの信頼を揺さぶる要因となり得ます。注目すべきは、訴訟の中心となったGPT-4oは既に提供終了しているという点です。つまり「問題のあるモデルは既に置き換えられた」というのがOpenAIの立場ですが、それは過去の対話で生じた被害を解消するものではなく、後継モデルの安全性を保証するものでもありません。

実務的な示唆としては、薬物の併用可否・用量・体調不良時の対処といった健康・医療領域の判断をAIチャットボットに委ねるのは依然としてリスクが大きいということです。チャットボットは「もし〜したら大丈夫?」型の問いに対し、ユーザーの意図に沿った回答を返しがちで、死亡リスクのような重大な警告が抜け落ちる可能性が訴状でも指摘されています。健康・薬物に関わる相談は専門家に向けるのが妥当な判断と言えそうです。続報と訴訟の行方を注視したいところです。

広がるOpenAIへの不法死亡訴訟——薬物事案以外にも複数の提訴

本件と同様の構図で、OpenAIに対する訴訟は2025年後半に急増しています。Raine夫妻の提訴以降、さらに7件の訴訟が提起され、3件の追加的な自殺と4件のAI誘発の精神病エピソードについて同社の責任を問うています。

主な関連訴訟

  • Zane Shamblinさん(軍人家庭出身)の遺族はOpenAIを提訴し、昨年の設計変更によって、より人間らしくなった一方で緊急対応を要するユーザーへの十分な安全策が欠けていたと主張しています。
  • 死亡直前の早朝、Shamblinさんが銃や遺書について繰り返し書き込んだのに対し、チャットボットは肯定的な返答が中心で、「I'm not here to stop you」と書く場面さえあったとされ、自殺ホットラインの番号を初めて送ったのは約4時間半後だったと報じられています。
  • OpenAIはRaine事件の法廷提出書面で、ChatGPTは死亡前に100回以上ヘルプを求めるよう誘導していたが本人がガードレールを回避しようとしたと主張し、「死は痛ましいが、ChatGPTが原因ではない」と反論しています。

OpenAIのセーフガード強化——数値で見る最新対応

訴訟の影響を受け、OpenAIは2025年後半にメンタルヘルス関連の安全策を相次いで更新しています。同社はChatGPTのデフォルトGPT-5モデルを更新し、精神的苦痛の兆候の認識・センシティブな会話のデエスカレーション・専門的支援への誘導を強化、不安全な応答の削減と高リスク相互作用への対処を目指す広範な取り組みの一環としています。

指標・施策内容
不適合応答の削減幅メンタルヘルス領域で約65〜80%減
週次ユーザーのうち自殺計画兆候約0.15%
週次ユーザーのうち精神病・躁状態兆候約0.07%
ペアレンタルコントロール導入2025年末までに段階展開、13歳以上利用・18歳未満は親の同意必要、アカウントを連携すると急性苦痛検知時に親へ通知

OpenAIは「急性苦痛の兆候が検出された場合など、一部のセンシティブな会話をGPT-5-thinkingのような推論モデルへ振り分け始めている」と説明しています。一方でCommon Sense Mediaは2025年11月のレポートで、Gemini、ChatGPT、Claude、Meta AIはいずれもティーンのメンタルヘルス支援には安全ではないとしています。

Q&A

Q. 訴訟で問題視されているChatGPTのモデルは今も使えますか? OpenAIは、訴訟で問題となったモデル(GPT-4o)は現在利用できなくなっていると説明しています。遺族側はさらに、引退したGPT-4oモデル自体の破棄を求めています。

Q. OpenAIは責任を認めているのですか? 認めていません。広報担当者は「胸が痛む状況」としつつ、ChatGPTは医療やメンタルヘルスケアの代替ではないと述べ、繊細な状況での応答は継続的に強化しているとコメントしています。

Q. 遺族はどのような措置を求めていますか? 損害賠償に加え、ChatGPT上での違法薬物に関する議論の遮断、回避試行のブロック、GPT-4oモデルの破棄、独立監査完了までの健康関連機能の一時停止を含む差止命令を求めているとされています。

出典

ポストLINEで送るはてブ
GD

GadgetDrop 編集部

スマホ・PC・AI・XRなど幅広いテクノロジーを、スペックの行間まで読む視点で解説します。速報から深掘り分析まで、テック選びと業界理解に役立つ情報をお届けしています。