立即下载
国内首例“AI幻觉”案宣判,对用户有何警示?
2026-01-28 16:51:22 字号:

国内首例“AI幻觉”案宣判,对用户有何警示?

300.jpg

□曹家明(南京师范大学)

近日,国内首例因“AI幻觉”引发的侵权案件宣判。该案源于一名考生家属在使用某生成式AI平台查询高校报考信息时,AI生成了并不存在的校区信息,且在被质疑后进一步作出“如有错误赔偿10万元”的回应。用户发现AI生成的信息确实有误,于是提起诉讼,要求研发公司承担赔偿责任。杭州互联网法院一审驳回诉讼请求,这一判决明确,在生成式人工智能场景中,AI的“承诺”不构成平台的意思表示,同时为“AI”生成内容划出红线、底线,厘清了服务提供者的注意义务边界。1月26日 潮新闻

所谓“AI幻觉”,是指AI在看似流畅、专业的表达中,输出了并不存在或并不准确的事实、数据与结论,从而引发信息错位、无中生有的问题。这种“编得像真的一样”的错误,并非偶发,而是当前AI模型训练中难以规避的问题。麦可思研究院2025年面向2971名在校大学生及1073名高校教师展开的一项研究显示,近八成高校师生(在校大学生:79.2%;教师:77.1%)遇到过“AI幻觉”。

在AI高速渗透教育、医疗、金融等关键领域的背景下,“AI幻觉”问题愈发突出,如果缺乏明确的规则约束与引导,用户或根据错误信息作出重大决策,被迫承担因此造成的利益损失。更严重的是,AI生成的内容若被用户“盲目信任”并广泛传播,社会整体的信息秩序可能遭受冲击。因此,围绕生成式AI打造清晰、可操作的治理框架,既是保护个体权益的需要,也是维护社会秩序稳定的前提。

在该环节中,AI研发公司是治理主体,应当在合理范围内承担与技术能力相匹配的责任与义务,包括持续提升生成内容的准确性、在显著位置呈现AI生成内容的固有局限、在涉及重大利益的场景中强化风险提醒等,为用户体验保驾护航。法律层面,则应在鼓励创新与防范风险之间寻求平衡,通过明确企业“注意义务”标准、细化过错认定规则,构建动态、分层的治理框架,引导AI在可控范围内运行。

值得注意的是,本案驳回原因中特别指出,“一般的社会观念、交易习惯等尚不足以使原告对该随机生成的‘承诺’产生合理信赖”。这一理由直接将目光投向AI使用者本身。虽然AI输出的内容不可避免地带有模糊性与不确定性,但使用者若将其视为权威,甚至把情绪化、玩笑式的生成文本当作真实承诺,这在一定程度上也是信息素养欠佳的体现。

此外,本案中的使用者在明确核实AI生成信息存在谬误的情况下,仍选择围绕AI所谓的“赔偿承诺”上诉维权。当利益因素介入时,明知信息真实性存疑却仍寄希望于AI输出的内容真实可靠,这非但不理智,也容易在涉及经济利益的场景中弱化自身对虚假信息的辨别能力,甚或在现实生活中上当受骗。

因此,面对AI幻觉,用户同样需要培养“智理”能力,即以理性、审慎的态度去理解并使用AI技术,在关键决策面前保持基本的判断理智,对涉及重大利益的信息进行事实核查,同时抵御经济利益的诱惑。只有当使用者能够理性看待AI的能力边界,避免对人工智能技术的过度依赖或迷信,AI才能真正成为辅助决策的工具。

AI侵权,既离不开制度层面的“治理”,也离不开个体层面的“智理”。盲目轻信AI,甚至将答案诉诸司法,并不能解决AI幻觉的根本问题,反而可能加剧技术应用中的情绪对立。而真正成熟的AI社会,应由企业、法律与用户三方共同参与构建。

本文为红辣椒评论原创文章,仅系作者个人观点,不代表红网立场。转载请附原文出处链接和本声明。

来源:红网

作者:曹家明

编辑:汪敏星

点击查看全文

回首页
返 回
回顶部