近年来,生成式人工智能在人们生活中的应用越来越广。然而,在提供便利的同时,生成式人工智能也经常出现答非所问、信息不准确等“AI幻觉”现象,给用户带来困扰。
开发者需要为人工智能提供的信息准确性担责吗?近期,杭州互联网法院审结了一起生成式人工智能模型提供不准确信息引发的侵权纠纷案。
AI提供不实信息有没有责任
2025年6月,本案原告梁先生在互联网上检索院校信息时,找到一款生成式人工智能应用程序。他通过输入提示词的方式,询问了云南一所职业高校的相关情况。随后,这款由本案被告公司研发、基于自研大语言模型的应用程序提供了相关信息。
但梁先生经过多方查询发现,这款应用程序提供的部分信息有误,随即在对话中对人工智能进行了纠正和指责。但生成式人工智能坚称信息无误,并生成了对该争议问题的解决方案——若生成内容有误,将向梁先生提供10万元赔偿,并建议他到杭州互联网法院起诉。
2025年7月25日,梁先生以生成式人工智能生成不准确信息具有误导性,且其承诺赔偿10万元为由,将这家人工智能公司诉至法院,要求该公司对其进行一定金额的赔偿。
法院经审理后认为,人工智能不具有民事主体资格,不能作出具有法律约束力的意思表示。生成式人工智能服务提供者应履行服务功能的显著提示说明义务,采取有效提示措施,使公众认知人工智能的功能局限,起到警示提醒效果。
具体到本案,法院认为,该人工智能公司已充分履行了服务功能的显著提示说明义务和生成内容可靠性的基本保障义务,案涉行为不存在过错,亦未构成对原告权益的损害,依法应认定不构成侵权。因此,法院判决驳回原告的诉讼请求。判决后,原、被告双方均未上诉。
如何界定开发者是否有过错
随着生成式人工智能技术的快速发展普及,越来越多的人注意到“AI幻觉”问题及其不良影响。社交平台上,可以看到不少相关吐槽——有人依据人工智能投资理财造成亏损,有人借助AI问诊结果反而延误疾病治疗。
各种争议纠纷背后,潜藏着一个共性问题:被生成式人工智能误导,能否追究侵权责任?
“这一判例从法律法规、人工智能技术原理、产业发展现状等方面进行了相对全面的考量,在法律层面给出初步结论,较有现实指导意义。”北京大学法学院教授薛军说。
法律界人士普遍认为,这一判决在主体资格、归责原则等方面给出了相对明确的意见,例如,判决认定人工智能不具有民事主体资格;生成式人工智能以对话方式提供的信息,应被视作服务而非产品,因此适用过错责任原则。
杭州互联网法院跨境贸易法庭庭长肖芄认为,AI生成的不准确信息本身并不构成侵权,需要探究的是提供服务的开发者是否存在过错。
那么,如何界定开发者是否有过错?肖芄进一步解释,基于当前生成式人工智能几乎不可避免会出现一定程度的信息偏差,就需要探究比如开发者是否使用了当前行业内通行并被证明有效的措施,来提升技术可靠性,降低错误发生的概率,由此证明是否存在过错。
“经过调查,本案中的开发者确实采用了可行的技术手段,力求降低错误发生。”肖芄说。
记者调查发现,本案中这款生成式人工智能应用程序,已经针对信息可能存在的不准确性,在页面醒目位置对用户进行提示:“内容仅供参考,请仔细甄别。”法院认为,这也证明了开发者尽到了提醒告知义务。(新华社 吴帅帅)