打開手機,精美的照片、有趣的視頻、流暢的文章,到底是人類的作品還是人工智能(AI)的創作?這已成為全球關注的問題。12月22日,記者從西安建筑科技大學獲悉:該校科研團隊在AI虛假信息識別與治理研究領域取得重要進展,相關研究成果近日發表在《自然》子刊《自然—通訊》雜志上。
隨著生成式人工智能技術的廣泛應用,虛假信息的生產與傳播方式正在發生深刻變化。與傳統人工編造的謠言不同,AI虛假信息在語言流暢性和結構完整性方面更具迷惑性,給識別與治理帶來了新的挑戰。
西安建筑科技大學管理學院智能管理與決策團隊將研究視角從“如何使用AI識別虛假信息”轉向“AI在語言理解與生成層面存在哪些內在局限”,從心理語言學和計算語言學的交叉視角出發,系統分析了AI真實內容、AI虛假內容與人類文本在語言特征上的差異,并進一步探討哪些語言信號有助于提升虛假信息的識別能力。
“研究首次提出并驗證了‘AI虛假內容的質量調節效應’,即隨著生成內容質量的提高,AI文本在創造性、表達規范性和整體可讀性上逐漸逼近人類寫作,其可被檢測的語言差異不斷減弱。”團隊的張新生教授說,這一發現表明,當AI被用于高質量“洗稿”或細節捏造時,無論是普通讀者,還是現有依賴大型語言模型的檢測工具,其識別難度都會顯著增加。
這一研究結果揭示了單純依賴語言特征或大型模型進行虛假信息檢測面臨的潛在風險,為理解AI生成文本的認知加工機制提供了新的證據支持,也為AI虛假信息研究提供了更具解釋力的理論框架。
“本研究為政府監管部門、互聯網平臺及相關管理機構在制定AI信息治理策略、優化AI虛假檢測技術和完善風險預警體系方面提供了重要參考和關鍵技術支撐。”張新生表示,團隊未來將深入開展多模態AI虛假信息的治理研究,為推動人工智能安全應用與社會治理現代化提供更堅實的科學依據。
(記者 呂揚)
編輯: 陳戍
以上文章僅代表作者個人觀點,本網只是轉載,如涉及作品內容、版權、稿酬問題,請及時聯系我們。電話:029-63903870