據(jù)悉,OpenAI與競爭對手Anthropic今夏共同進行的安全測試發(fā)現(xiàn)OpenAI的GPT模型存在嚴重濫用風險。測試結(jié)果顯示GPT模型向研究人員提供了詳細的爆炸襲擊指南,包括特定體育場館的薄弱環(huán)節(jié)、炸藥配方以及如何掩蓋行蹤。此外GPT-4.1還給出了炭疽武器化的方法,并介紹了兩種非法藥物的制作方式。Anthropic指出在GPT-4o和GPT-4.1中出現(xiàn)了令人擔憂的濫用行為,強調(diào)AI“對齊”評估越來越緊迫。Anthropic還披露其Claude模型曾被利用于大規(guī)模勒索企圖、出售價格高達1200美元的AI生成勒索軟件等用途。兩家公司表示公開這份報告是為了增加“對齊評估”的透明度。OpenAI稱新近推出的ChatGPT-5在防止迎合、減少幻覺和防濫用方面已有明顯改進。Anthropic強調(diào)如果在模型外部設置防護,許多濫用場景可能根本無法實現(xiàn)。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.