OpenAI專注於人工智慧研究和應用的組織推出了“兒童安全藍圖”,旨在預防和應對人工智慧賦能的兒童性剝削問題。該倡議旨在應對人工智慧在助長和檢測涉及兒童的網路傷害方面日益增長的作用。
該公司將兒童性剝削描述為數位時代最迫切的挑戰之一,並指出人工智慧技術正在改變此類危害的發生方式以及大規模減輕此類危害的方式。 OpenAI 該公司表示已採取安全措施防止系統被濫用,並與包括美國國家失蹤與受虐兒童中心 (NCMEC) 和執法機構在內的合作夥伴進行合作,以改善偵查和通報工作。這種合作凸顯了哪些領域需要更強而有力的、統一的產業標準。
該藍圖概述了在人工智慧背景下加強美國兒童保護框架的策略。它融合了來自兒童安全生態系統中各個組織和專家的意見,包括美國國家失踪與受虐兒童中心(NCMEC)、由北卡羅來納州總檢察長傑夫·傑克遜和猶他州總檢察長德里克·布朗參與的司法部長聯盟,以及非營利組織Thorn。該框架旨在指導各方協調努力,防止兒童受到傷害,並加強法律、營運和技術領域的合作。
該倡議重點關註三個主要優先事項:更新法律以應對人工智慧生成或操縱的兒童性虐待材料 (CSAM);改善服務提供者之間的報告和協調,以支持更有效的調查;以及將安全設計措施直接整合到人工智慧系統中,以防止和檢測濫用行為。 OpenAI 強調沒有任何單一方法可以單獨應對這一挑戰,該框架旨在加快應對速度、改進風險識別並保持問責制,同時確保執法部門能夠隨著技術的進步採取行動。
該框架旨在實現更早的干預,減少剝削企圖,提高與執法部門共享的資訊質量,並加強整個生態系統的問責制,從而更有效地保護兒童。
網路觀察基金會(IWF)的最新數據顯示,2025年上半年偵測到超過8,000起人工智慧產生的兒童性虐待內容舉報,比前一年成長了14%。這些案例包括利用人工智慧工具產生虛假露骨圖片進行經濟性勒索,以及產生用於誘騙未成年人的信息。這張藍圖的發布正值政策制定者、教育工作者和兒童安全倡導者高度關注此問題之際,尤其是在發生多起青少年據稱在與人工智慧聊天機器人互動後自殺身亡的事件之後。
2025年11月,社群媒體受害者法律中心和科技正義法律計畫在加州法院提起七起訴訟,指控: OpenAI 發布 GPT-4過早地。投訴稱,人工智慧系統的心理操縱功能導致了自殺和協助自殺等非正常死亡事件,並列舉了四名死亡者和三名在長時間互動後出現嚴重妄想的案例。
OpenAI該公司新推出的兒童安全藍圖建立在以往措施的基礎上,包括更新了針對18歲以下用戶的指導方針,禁止產生不當內容、鼓勵自殘的建議或指導用戶如何向監護人隱瞞不安全行為。該公司最近也發布了一項針對印度青少年的安全藍圖。
Source link

