成人深夜视频网站|日韩高清无码久久|中文a√在线天堂|亚洲黄网站在线看|欧美视频 第二页|日本 久草 天堂|高潮无遮挡黄视频|久久一级内射精品|国产操逼一级视频|五月天婷婷色AV

網易首頁 > 網易號 > 正文 申請入駐

如何遏制人工智能“說謊”

0
分享至

制造出的虛假信息更具迷惑性,“AI(人工智能)幻覺”帶來“一本正經地胡說八道”……易傳播、難防治的“AI謠言”,對政府監(jiān)管部門、互聯(lián)網平臺、技術研發(fā)者以及社會各界提出了新挑戰(zhàn)。

如何遏制人工智能“說謊”?需要技術完善與規(guī)制,也需要系統(tǒng)性治理。多名受訪專家表示,要完善法律規(guī)范和部門監(jiān)管,推動形成多方聯(lián)動的共治格局。

亮明法律底線,增強對“AI謠言”的威懾力

近日,借AI造謠燃氣漲價的廣西網民鄭某受到行政處罰;一批傳播“AI謠言”的網絡賬號被網信部門責令禁言或依法依約關閉;向用戶傳授如何利用AI“一鍵去衣”“換臉換身”的賬號、公開售賣相關軟件的網絡店鋪,受到網信、公安等部門聯(lián)動懲治……

依法懲治的背后,是近年來AI相關法律法規(guī)的不斷健全完善?!痘ヂ?lián)網信息服務深度合成管理規(guī)定》《生成式人工智能服務管理暫行辦法》《人工智能生成合成內容標識辦法》等出臺,向AI使用者和平臺管理者亮明了法律底線,為執(zhí)法提供了法律依據(jù)。

中南大學法學院副院長楊清望表示,“AI謠言”違法成本過低的問題仍然存在,要對不法行為嚴加懲處,完善相關法律法規(guī),增強威懾力。

北京師范大學新聞傳播學院教授許小可建議,針對生成和傳播虛假信息的高風險領域,通過司法解釋等法律形式,明確各方義務邊界,制定科學合理的AI侵權責任認定指導標準。

與此同時,“AI謠言”案件取證難,困擾著辦案機關?!敖鉀Q涉‘AI謠言’案件取證難,需構建一套適應AI技術特性的證據(jù)收集與認定系統(tǒng)。”楊清望建議,通過建立完善案件證據(jù)的司法認定規(guī)則與標準,將不涉及商業(yè)秘密和個人隱私的平臺算法透明化,以此破解證據(jù)與責任認定難題。

一些地方公安機關已經在監(jiān)測和識別“AI謠言”上有所探索。“我們與科研機構、企業(yè)密切合作,進一步提高對惡意‘深度偽造’信息的監(jiān)測預警和快速識別能力,與相關部門合作建立網絡謠言巡查監(jiān)測、核查反饋、會商研判、線索移送、打擊處置的閉環(huán)機制,對于通過AI等方式合成的虛假信息,第一時間依法依規(guī)處理?!边|寧沈陽市公安局網絡安全保衛(wèi)支隊民警楊永志表示。

加固技術堤壩,斬斷“AI謠言”的傳播鏈

有網友發(fā)現(xiàn),一些網絡平臺上,AI生成圖片、視頻發(fā)布時“疑似AI技術生成”的提示語出現(xiàn)并不及時,給了虛假信息傳播的時間。

“為了維護自身發(fā)展和利益,平臺更應自覺治理‘AI謠言’,斬斷‘AI謠言’的傳播鏈條?!睏钋逋J為,發(fā)現(xiàn)AI謠言后,平臺應立即采取下架、刪除、辟謠等措施,尤其是面對重大事件、敏感話題,要加強圖片、視頻的真?zhèn)魏瞬椋皶r消除謠言帶來的負面影響。

如何加強真?zhèn)魏瞬椋?/p>

重視網民反饋。“建立便捷的舉報和投訴渠道,對于網民反映的疑似謠言信息,要及時予以查證處理。對于多次利用AI造謠的用戶,可以采取列入黑名單等禁止性措施,規(guī)范用戶行為?!睏钋逋f。

“進行AI識別,還需要有力的技術保障?!敝袊ù髮W網絡法學研究所所長李懷勝表示,技術上,可以通過算法識別、大數(shù)據(jù)分析和區(qū)塊鏈溯源等手段,識別和阻斷謠言傳播。例如,利用AI系統(tǒng)檢測,通過自然語言處理和圖像識別技術,自動標記可疑內容并減少推薦。

“監(jiān)管部門還可以引入‘動態(tài)可追溯責任鏈’機制,使用內容顯式標識和隱式標識等,探索開展‘AI謠言’的內容倒查和動態(tài)追責?!痹S小可說。

提高辨別能力,看清“AI謠言”的真面目

數(shù)數(shù)手指,AI可能生成“六根手指”;尋找陰影方向,AI也許把太陽掛反;看看面部表情,AI生成畫面可能眼嘴不協(xié)調……AI謠言真假難辨,但仍可發(fā)現(xiàn)蛛絲馬跡。

提高警惕,是提升“AI謠言”辨別能力的第一步。

看到“網友爆料”“獨家內幕”的字樣,或是發(fā)現(xiàn)信息邏輯存在漏洞或矛盾,就要注意了——它很可能經過了篡改或杜撰。“要謹慎分辨,盡量找到權威信息核實;也可以通過交叉印證的方式,驗證信息真?zhèn)涡?。”許小可說。

還要增強法律意識,防止在“無意識”中助力謠言傳播。

“有些人可能主觀上并無造謠意識,只是將AI合成內容發(fā)布在網絡上,結果被大量轉發(fā),從而產生負面影響?!崩顟褎僬f。

對此,李懷勝提醒,AI生成內容可能存在事實性偏差、邏輯漏洞或時效滯后問題,使用過程中應保持審慎態(tài)度,不要直接公開發(fā)布未經核實的AI生成內容,防止無意間誤導信息傳播。

在媒體責任方面,專家認為,媒體平臺應提高內容審核能力,通過官方渠道和權威信源核查信息真實性;自媒體從業(yè)者應增強法律意識,真實、準確、客觀發(fā)布信息。

防治“AI謠言”,知識普及不可少。許小可認為,通過發(fā)布典型案例,引導人們了解“AI謠言”的生成機制、傳播邏輯、話術套路和識別方式,可以幫助人們看清“AI謠言”的真面目。

AI技術發(fā)展迅速,學會“智慧”地運用“智慧工具”,才能讓AI更好服務人們的生產生活。

人民日報記者 張?zhí)炫啵ê钜狸枀⑴c采寫)

來源:人民日報客戶端

新媒體編輯:宗敏

如需交流可聯(lián)系我們


特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

中國社會科學網 incentive-icons
中國社會科學網
中國社會科學院官方網站
17800文章數(shù) 25545關注度
往期回顧 全部

專題推薦

洞天福地 花海畢節(jié) 山水饋贈里的“詩與遠方

無障礙瀏覽 進入關懷版