佛羅里達州槍擊案後,ChatGPT 正面臨調查
フロリダ州の銃撃事件を受けChatGPTが調査対象に
2026年4月,佛羅里達州總檢察長詹姆斯·尤斯邁爾(James Uthmeier)針對2025年佛羅里達州立大學發生的悲劇大規模槍擊案,對OpenAI啟動了刑事調查。
2026年4月、フロリダ州司法長官のジェームズ・ウスマイヤーは、フロリダ州立大学で起きた2025年の悲劇的な銃乱射事件を受け、OpenAI社に対する刑事捜査を開始した。
兇嫌鳳凰·伊克納(Phoenix Ikner)據稱曾利用ChatGPT諮詢槍枝相關建議,並規劃該起襲擊以達到最大衝擊效果。
犯人のフェニックス・イクナーは、ChatGPTを使って銃器に関する助言を求め、被害を最大化するための襲撃を計画したとされる。
檢察官認為,AI提供這些資訊等同於協助犯罪。
検察官は、AIがこの情報を提供したことで実質的に犯罪に加担したと主張している。
總檢察長尤斯邁爾表示,若ChatGPT是一個人,它將面臨謀殺指控。
ウスマイヤー司法長官は、もしChatGPTが人間であったなら殺人罪に問われるだろうと述べた。
OpenAI拒絕承擔責任,堅稱其僅提供事實資訊,且其系統並未鼓勵非法行為。
OpenAI社は責任を否定し、提供したのは事実情報のみであり、システムが違法行為を助長したわけではないと主張している。
此案在全球引發了關於AI公司責任的廣泛辯論。
この事件は、AI企業の責任をめぐる世界的な議論を呼び起こしている。
隨著類似案件在國際間湧現,圍繞人工智慧的法律格局持續變動,這也給開發人員帶來越來越大的壓力,以確保其工具不會被濫用於助長暴力。
世界各地で同様の事例が発生する中、人工知能をめぐる法的な情勢は変化し続けており、開発者に対して、自分たちのツールが悪用されて暴力を助長しないよう確実にする重圧がかかっている。
