偽造熱點事件、捏造名人言論、炮制偽科普、嫁接虛假證據……近年來,隨著AI技術的快速發展,利用AI工具合成技術編造謠言,甚至生成逼近真實的圖片、音視頻,時常出現在人們的生活中,讓人難辨真假。此外,還包括利用AI技術催生的黑灰產,這些行為不僅嚴重擾亂了公共信息秩序,更對社會信任與穩定構成現實威脅。
人工智能時代,利用AI造謠日漸多發。一方面,AI技術的便捷性和低成本,使得造謠者能夠輕松地生成大量虛假信息,只需輸入相關關鍵詞,AI軟件便能自動抓取素材生成文本,并配上虛假的圖片,實現謠言的大規模生產。另一方面,利用 AI造謠離不開利益的誘惑,不法者的造謠動機主要源于牟取互聯網內容平臺給予創作者的獎勵,以及為一些電商平臺經營引流等;一些造謠者可以從廣告收入、合同推廣、直播帶貨或其他相關的商業活動中獲益。
針對利用AI制作發布謠言、不實信息等亂象,相關部門重拳出擊。自今年4月以來,中央網信辦開展“清朗·整治 AI技術濫用”專項行動,聚焦AI換臉擬聲侵犯公眾權益、AI內容標識缺失誤導公眾等AI技術濫用亂象,累計處置違規小程序、應用程序、智能體等AI產品3500余款,清理違法違規信息96萬余條,處置賬號3700余個,各項工作取得積極進展。
然而,AI技術的迅猛發展,讓網絡謠言治理面臨新的挑戰。遏制 AI謠言需要多方協同發力,構建起涵蓋生成方、傳播方與接收方的全鏈條、全流程治理機制。
網絡平臺作為信息傳播的關鍵樞紐,應升級現有的信息審核體系,借助AI技術治理 AI謠言,利用實時的智能內容識別和過濾系統,對文本、圖像、音視頻進行自動標注和風險預警,在謠言傳播初期實現技術級別的高效攔截;應加強對 AI造謠和“水軍”行為的智能識別機制研究,進一步改革涉及AI內容的流量分發和收益分成機制,最大限度壓縮通過 AI造謠牟利的空間,同時完善用戶實名認證與信用評價體系,對違規造謠用戶采取限制功能、封禁賬號等措施。
網絡不是法外之地,AI也不是“造謠工具”。相關部門須加速完善相關立法,對模型開發者、服務運營商、內容發布者等各方主體設定明確的審核與合規義務。對因管理不善、審核失職導致謠言傳播的技術企業、平臺方依法追責,并建立高效、便捷的權益救濟和司法響應渠道,為受害者提供明確的法律支持,營造有力的法律威懾。
作為信息接收者,公眾應主動了解AI技術的應用特點,面對疑似謠言,在轉發傳播前核實信息的來源和真實性,避免成為謠言的傳播者。發現疑似 AI謠言或其他虛假信息時,及時向平臺和監管部門舉報,為凈化網絡環境貢獻自己的力量。
只有通過優化數據治理生態、健全法律責任體系、增強公眾識別能力,才能在源頭上有效遏制AI謠言的制造與流通,為后續治理環節打下堅實基礎,從而推動人工智能向上向善、行穩致遠。(記者 陳文麗)
轉自:中國商報
【版權及免責聲明】凡本網所屬版權作品,轉載時須獲得授權并注明來源“中國產業經濟信息網”,違者本網將保留追究其相關法律責任的權力。凡轉載文章及企業宣傳資訊,僅代表作者個人觀點,不代表本網觀點和立場。版權事宜請聯系:010-65363056。
延伸閱讀