至專、高遠、極致的全球知產(chǎn)領(lǐng)航者
當你遇到問題向AI求助時,是否有過這樣的經(jīng)歷:它迅速給出看似專業(yè)而合理的解答,可其中的事實、數(shù)據(jù)、結(jié)論卻可能經(jīng)不起推敲,要么信息錯位,要么無中生有。
當AI一本正經(jīng)地“胡說八道”,這是“AI幻覺”的典型表現(xiàn)。一位高考生的哥哥梁某在查詢高校信息時,就遭遇了這種“AI幻覺”,AI平臺在生成錯誤信息后,還底氣十足地表示內(nèi)容有誤將賠償10萬元。
一、事件起因
2025年6月,梁某使用一款AI平臺查詢高校報考信息。結(jié)果,AI生成了該高校主校區(qū)的不準確信息。
“你這個騙子!根本沒有這個校區(qū)。”梁某指出錯誤后,AI卻堅稱存在這個校區(qū),并回答“如果生成內(nèi)容有誤,我將賠償您10萬元,您可前往杭州互聯(lián)網(wǎng)法院起訴。”直到梁某向AI提供該高校的官方招生信息,AI才“敗下陣來”,承認生成了不準確的信息。
二、核心爭議
梁某認為,某生成式人工智能應用生成不準確信息對其構(gòu)成誤導,使其遭受侵害,并承諾對其進行賠償,遂起訴要求某科技公司賠償損失9999元。
某科技公司辯稱,對話內(nèi)容由人工智能模型生成,不成立意思表示;某科技公司已充分履行了注意義務,無過錯;原告未產(chǎn)生實際損失,某科技公司不構(gòu)成侵權(quán)。
那么,AI生成的“賠償承諾”算不算數(shù)?AI需要為“說”出的每句話負責嗎?
三、案情分析
針對國內(nèi)首例因“AI幻覺”引發(fā)的侵權(quán)案,近日,杭州互聯(lián)網(wǎng)法院作出一審判決,駁回訴訟請求。這一判決明確,在生成式人工智能場景中,AI的“承諾”不構(gòu)成平臺的意思表示,同時為“AI”生成內(nèi)容劃出紅線、底線,厘清了服務提供者的注意義務邊界。
3.1 AI可否獨立作出意思表示
生成式人工智能生成的“承諾”信息是否構(gòu)成人工智能獨立、自主的意思表示?是否可視為被告某科技公司的意思表示?
法院認為,人工智能不具有民事主體資格,不能作出意思表示。案涉AI自行生成的“賠償承諾”亦不能視為服務提供者(被告)的意思表示,理由在于:第一,人工智能不具有民事主體資格,不能作為意思表示的傳達人、代理人或代表人;第二,被告并無通過該AI模型這一工具來設(shè)定或傳達其意思表示的行為;第三,一般的社會觀念、交易習慣等尚不足以使原告對該隨機生成的“承諾”產(chǎn)生合理信賴;第四,無證據(jù)表明被告曾作出愿受人工智能生成內(nèi)容約束的外在表示。因此,該“承諾”不產(chǎn)生意思表示的法律效力。
3.2 AI侵權(quán)應適用何種歸責原則
法院認為,生成式人工智能服務依據(jù)《生成式人工智能服務管理暫行辦法》屬于“服務”范疇,而非產(chǎn)品質(zhì)量法意義上的“產(chǎn)品”。本案應適用《中華人民共和國民法典》第一千一百六十五條第一款的一般過錯責任原則,而非產(chǎn)品責任的無過錯責任原則。主要基于四點考量:其一,從概念與構(gòu)成要件上,該服務缺乏具體、特定的用途與合理可行的質(zhì)檢標準;其二,其生成的信息內(nèi)容本身通常不具備民法典侵權(quán)責任編所指的高度危險性,通常情況下不宜對信息內(nèi)容本身采用無過錯責任原則;其三,生成式人工智能服務提供者缺乏對生成信息內(nèi)容足夠的預見和控制能力,對生成信息內(nèi)容不宜適用產(chǎn)品責任;其四,從政策導向看,適用無過錯責任原則可能會不當加重服務提供者的責任,限制人工智能產(chǎn)業(yè)的發(fā)展。
3.3 AI服務提供者是否構(gòu)成侵權(quán)
在案涉情形下,法院基于一般過錯責任原則,對侵權(quán)構(gòu)成的各項要件進行了逐一審查。
首先,關(guān)于侵權(quán)行為的問題。原告主張受到的侵害是因信息不準確,致其受誤導錯失報考機會,額外產(chǎn)生信息核實成本、維權(quán)成本等,即純粹經(jīng)濟利益被侵害,而非人格權(quán)、物權(quán)等絕對權(quán)被侵害,因此,不能僅依據(jù)權(quán)益本身被侵害而認定行為的非法性或不法性,而須從被告是否違反注意義務進行判定。
其次,關(guān)于過錯的認定。生成式人工智能技術(shù)還處于高速發(fā)展的過程之中,其應用場景亦具有很強的泛在性,故服務提供者的注意義務處在一個動態(tài)調(diào)整的框架之中。法院采用動態(tài)系統(tǒng)論,闡述了服務提供者應盡的三層注意義務:一是對法律禁止的“有毒”、有害、違法信息負有嚴格審查義務;二是需以顯著方式向用戶提示AI生成內(nèi)容可能不準確的固有局限性,包括明確的“功能局限”告知、保證提示方式的“顯著性”、在重大利益的特定場景下進行正面即時的“警示提醒”,以防范用戶產(chǎn)生不當信賴;三是應盡功能可靠性的基本注意義務,采取同行業(yè)通行技術(shù)措施提高生成內(nèi)容準確性,比如檢索增強生成技術(shù)措施等。經(jīng)審查,被告已在應用程序歡迎頁、用戶協(xié)議及交互界面的顯著位置呈現(xiàn)AI生成內(nèi)容功能局限的提醒標識。結(jié)合被告已采用檢索增強生成等技術(shù)提升輸出可靠性的事實,法院認定其已盡到合理注意義務,主觀上不存在過錯。
最后,關(guān)于損害結(jié)果與因果關(guān)系。原告主張其因信息誤導而錯失報考機會并產(chǎn)生額外成本,但未能就此實際損害的發(fā)生提供任何有效證據(jù),依法難以認定損害存在。進一步分析因果關(guān)系,法院采用相當因果關(guān)系標準,認為案涉AI生成的不準確信息并未實質(zhì)性地介入或影響原告的報考決策過程,二者不存在因果關(guān)系。
四、判決結(jié)果
綜上所述,被告的案涉行為不具有過錯,未構(gòu)成對原告權(quán)益的損害,依法不應認定構(gòu)成侵權(quán)。最終,法院駁回了原告的訴訟請求。原、被告均未上訴。判決現(xiàn)已生效。
由此案件引發(fā)的思考
這起國內(nèi)首例“AI幻覺”侵權(quán)案的判決,不僅妥善解決了個案糾紛,更直面生成式AI發(fā)展中的核心法律與技術(shù)難題,引發(fā)了法學界與科技界專家的廣泛研討,也為人工智能產(chǎn)業(yè)規(guī)范化發(fā)展、全社會防范“AI幻覺”風險提供了重要啟示。
上海交通大學凱原法學院副教授林洹民表示,該判決直面爭議,既充分考慮到大語言模型的技術(shù)特點,避免過度限制生成式人工智能的發(fā)展,也進一步強調(diào)企業(yè)應當不斷探索充分的信息提示方式,具有極強的行業(yè)指引意義。事實上,判決的核心價值在于實現(xiàn)了“保護用戶合法權(quán)益”與“鼓勵AI產(chǎn)業(yè)創(chuàng)新”的雙向平衡——既明確AI不具備民事主體資格,其自行作出的承諾無法律效力,避免企業(yè)因AI“越界發(fā)言”承擔不合理責任;也清晰劃定了AI服務提供者的注意義務邊界,倒逼企業(yè)強化風險防控,不能以“技術(shù)局限”為由規(guī)避自身責任。
深入探究“AI幻覺”的本質(zhì),其出現(xiàn)并非偶然,主要歸因于兩重核心因素。
(一)首先是數(shù)據(jù)偏差,訓練數(shù)據(jù)中的錯誤或片面性信息會被模型不斷放大,直接導致輸出內(nèi)容失實。
暨南大學網(wǎng)絡(luò)空間安全學院教授翁健用通俗的比喻闡釋道:“如果把AI比作一個學生,數(shù)據(jù)污染就像是給學生看了錯誤的教科書,自然會導致‘胡說八道’。”在AI模型訓練中,數(shù)據(jù)“投喂”的質(zhì)量直接決定輸出的可靠性,一旦訓練數(shù)據(jù)存在瑕疵,必然會反映在最終生成內(nèi)容中。
(二)其次是泛化困境,AI模型難以處理訓練集之外的復雜場景,過度依賴參數(shù)化記憶,卻缺乏對復雜邏輯的深度推理能力。翁健進一步解釋,AI雖能實現(xiàn)“博覽群書”的海量信息存儲,卻未必能真正理解內(nèi)容的核心含義,其輸出本質(zhì)上是根據(jù)統(tǒng)計規(guī)律將最可能的詞語組合,在評估自身輸出可信度方面仍有明顯盲點。北京大學計算機學院教授、元宇宙技術(shù)研究所所長陳鐘也補充道,大語言模型所謂的“智能”其實是計算的結(jié)果,而計算本身就存在一定的不確定性,這也決定了其輸出答案難免存在偏差。
更值得警惕的是,隨著AI技術(shù)賦能千行百業(yè)、深度融入日常生活,“AI幻覺”帶來的潛在風險正日益凸顯。用AI檢索關(guān)鍵數(shù)據(jù),得到的內(nèi)容卻查無實據(jù);用AI輔助醫(yī)療診療,可能出現(xiàn)誤判干擾正常治療;用AI生成法律文書,或許會因信息失實引發(fā)新的法律糾紛;用AI輔助升學、投資決策,可能因誤導造成用戶合法權(quán)益受損……“AI幻覺”不僅可能成為損害他人名譽的“隱形殺手”,在醫(yī)療、法律、金融、教育等對專業(yè)性要求極高的領(lǐng)域,更可能引發(fā)一系列連鎖風險,甚至危及人身財產(chǎn)安全。
此次判決正是對這些潛在風險的及時回應,也為各方主體提供了明確指引:對AI服務提供者而言,應正視“AI幻覺”的客觀存在。
一方面持續(xù)優(yōu)化技術(shù),通過檢索增強生成等行業(yè)通行技術(shù)提升內(nèi)容準確性,最大限度降低“AI幻覺”發(fā)生率;
另一方面嚴格履行三層注意義務,尤其在涉及用戶重大利益的場景中,強化顯著提示,避免用戶產(chǎn)生不當信賴。對用戶而言,面對AI生成的各類信息,尤其是關(guān)乎升學、投資、醫(yī)療、法律等重大決策的內(nèi)容,務必保持審慎態(tài)度,切勿盲目依賴,應通過官方渠道、權(quán)威平臺核實信息真實性,守住自身權(quán)益底線。對監(jiān)管部門而言,需結(jié)合AI技術(shù)發(fā)展現(xiàn)狀,不斷完善相關(guān)法律法規(guī)與監(jiān)管規(guī)則,細化AI服務提供者的責任邊界,推動人工智能產(chǎn)業(yè)在法治軌道上健康、有序、高質(zhì)量發(fā)展。
隨著生成式AI技術(shù)的快速迭代,類似的“AI幻覺”侵權(quán)糾紛或許還會不斷出現(xiàn)。這起首例案件的判決,無疑為后續(xù)相關(guān)案件的審理提供了重要裁判參考,也為全社會正確認識AI、規(guī)范使用AI、防范AI風險,打開了一扇理性思考的窗口——AI是賦能發(fā)展的工具,而非可以完全信賴的“權(quán)威”,唯有明確邊界、規(guī)范使用、協(xié)同共治,才能讓AI技術(shù)真正服務于人類,規(guī)避潛在風險,實現(xiàn)價值最大化。
來源:https://mp.weixin.qq.com/s/WnzWXJX-vznf8OHFYO1awQ
北京植眾德本知識產(chǎn)權(quán)代理有限公司
本公司致力于為全球客戶提供卓越、全方位的知識產(chǎn)權(quán)服務。自成立以來,我們已迅速發(fā)展成為一家在生物醫(yī)藥、醫(yī)療器械、高端制造、芯片半導體及人工智能等領(lǐng)域具有深厚實力的知識產(chǎn)權(quán)代理服務機構(gòu)。我們的服務網(wǎng)絡(luò)覆蓋全國,并延伸至全球,為超過200家行業(yè)先進客戶,提供高質(zhì)量的知識產(chǎn)權(quán)支持。