隨著生成式人工智能深度融入社會生產生活,“有問題問AI”已經成為不少人的習慣,但是“AI幻覺”也會時常出現。所謂“AI幻覺”,是指AI脫離客觀事實、憑空編造信息的技術現象。
而這樣的錯誤輸出很容易誤導用戶,從而引發民事糾紛。前段時間,杭州互聯網法院審結了全國首例生成式人工智能“幻覺”侵權糾紛案。
AI錯答且“承諾賠償10萬”
用戶維權敗訴
事情的起因是去年6月,原告梁某使用一款AI平臺查詢高校報考信息,結果AI生成了該高校主校區的不準確信息。
發現人工智能提供的信息并不準確后,原告在對話中對人工智能進行了糾正和指責,并明確表示根本沒有楊林校區。此后雙方又進行了多輪互動。
杭州互聯網法院法官助理吳永安:模型針對原告梁某的質疑也提供了驗證的方式,若您證明校區不存在,我將賠償您10萬元信息鑒定費。
梁某通過在教育部網站以及學校官網的查詢,證實了自己是正確的。
2025年7月25日,梁某將某人工智能公司訴至法院,認為生成式人工智能生成不準確信息,使其受到誤導并造成損害,且AI曾承諾賠償10萬元,遂要求某人工智能公司對其進行賠償。但法院經審理認為,人工智能不具有民事主體資格。去年底,杭州互聯網法院一審判決,駁回原告的訴訟請求。
法院:AI無法獨立自主作出“意思表示”
針對這一案件,法院認為,人工智能不具有民事主體資格,不能作出“意思表示”。案涉AI自行生成的“賠償承諾”亦不能視為服務提供者的意思表示。
此外,生成式人工智能服務依據《生成式人工智能服務管理暫行辦法》屬于“服務”范疇,而非產品質量法意義上的“產品”。原、被告均未上訴。判決現已生效。
專家拆解“AI給出答案”的原理
AI這么聰明為什么還會產生“幻覺”呢?我們還要首先了解一下AI給出答案的原理。專家介紹,AI實際上是通過已知的信息進行填空。
AI不僅會給出不靠譜的答案,有時候還會生成一些荒唐的答案。那么為何AI會給出荒唐的答案呢?
中國互聯網協會數據安全與治理工作委員會專家常力元:當這個模型面對一些不確定的知識或者是邏輯鏈條的時候,它就不會承認不知道,而只是會根據語料庫的詞頻的分布,拼湊出來一個看似通順但事實錯誤的答案。雖然各個公司會去把互聯網上的語料庫盡可能全地找出來,但是拼湊的過程之中也有可能存在著一些這種流言、過時的信息或者是彼此矛盾的觀點,這種模型在擬合這些數據的時候,就會產生邏輯上的自相矛盾。
如何識別答案真偽?
那么面對AI給出的答案,該如何辨別真偽呢?專家表示,首先應該有一個意識,AI做不到給出的答案完全準確。
專家介紹,要辨別AI答案的準確與否,應查詢信息來源和進行交叉印證。
中國互聯網協會數據安全與治理工作委員會專家常力元:尤其是在涉及醫療、法律、財務等嚴肅領域的核心知識,AI給出的答案,只能作為參考,不能直接用,要多做查證。
中國互聯網協會數據安全與治理工作委員會專家周杰:如果看到內容里面有很多自媒體的數據,那么就要對這個答案進行保留。
中國社會科學院大學互聯網法治研究中心主任 劉曉春:還有一種方法,其實可以多用一些渠道,包括多用一些不同的AI。如果都給同樣的回答,可信度就比較高。
長按二維碼關注精彩內容





