2025年开年的AI“明星”DeepSeek被接二连三地接入各行各业的工作流程中,人们在惊叹于其秒速生成的行业报告、法律文书时,却也发现,这些流淌着逻辑美感的文本中,正演绎着赛博世界最大的黑色幽默——“一本正经地胡说八道”。
当《平凡的世界》作者莫名其妙从路遥变成“朱大建”、霍光从西汉权臣变成“清朝将军”……打开小红书,只要在搜索框输入“DeepSeek编造”“DeepSeek睁眼说瞎话”一类的词条,就会看见大量网友发文控诉DeepSeek在对话过程中提供假资料、假文献、假作者等信息。AI为什么会胡说八道?又该如何善用?
第一批用DeepSeek打官司的人已经败诉
在广告、新闻等文化行业,一场由DeepSeek带来的行业变革正在不断发酵。来自上海的广告策划Ivy告诉记者,当她的老板刚接触到DeepSeek时,看到其词藻华丽的文风便振臂一挥,命令下属按照DeepSeek生成的文章写出广告方案。但Ivy发现,DeepSeek生成的内容前后逻辑不通、使用的案例全靠瞎编,毫无事实依据,与其费力地扭转AI的错误逻辑,还不如一开始就自己动脑、动笔。
而在法律界,第一批用DeepSeek打官司的人已经败诉了。来自福建的程序员MOMO在起诉某公司时没有请律师,而是尝试用DeepSeek撰写申诉状和证据清单,尽管看起来头头是道,然而在法庭上,申诉状出现了很多基本的法律适用错误,近乎无效。更重要的是,因为起诉人并没有法律常识,所以一开始便会给DeepSeek的解答预设错误的方向,而DeepSeek会沿着这个错误的方向“继续说下去”,脑补和编造许多案例、法条、事实。
记者发现,在DeepSeek官方网站上展示的《用户协议》中明确指出:“咨询医疗、法律、金融及其他专业问题时,请注意本服务不构成任何建议或承诺,不代表任何专业领域的意见。”
需先理解语言大模型背后的底层原理
为什么生成式AI会系统性地编造事实?是技术缺陷还是算法特性?北京大学王选计算机研究所教授万小军表示,要适用语言大模型,需先理解其背后的底层原理。目前,通用语言大模型,不论是DeepSeek、ChatGPT还是KIMI,大模型的训练目标是生成符合语言模式的文本,而非确保事实准确,因为它的本质是“概率预测”,而不是“知识库”——也就是说,他们所生成内容的核心是预测下一个词的概率分布,然后进行采样输出,而不是去验证事实。
“业界通常将该问题称作大模型的‘幻觉’,可以说是大模型的算法特性。”然而,万小军认为,这种特性不应简单归结为一种缺陷,因为大模型的“幻觉”在创意写作、新思路发现等方面可以发挥积极的作用。
核实来源、检查细节及使用外部工具
在大模型研发与应用过程中,技术创新和内容合规缺一不可。万小军表示,在促进技术进步的同时,确保生成内容符合法律、伦理和社会规范——一方面,政府和相关机构应对AI生成内容进行必要监管,确保在关键应用场景下AI生成内容的真实性。另一方面,应积极开发和应用技术手段,如AI生成内容和幻觉检测工具、数字水印技术等,识别和标记AI生成内容以及非真实内容。
那么,普通用户要如何辨别AI生成内容的真伪?万小军建议,首先要核实信息来源,检查AI生成内容中自带的信源链接的可靠性;其次,检查内容细节,评估内容的逻辑是否合理;最后,使用外部工具进行检查,利用事实检查工具以及搜索引擎对重要信息进行确认。
清华大学新闻与传播学院、人工智能学院的双聘教授沈阳指出,比如在对DeepSeek等AI模型下达指令时,可以尝试点击“联网搜索”,同时在指令中描述:“请你不要胡编乱造,我需要严格的、真实的信息”,尽管不能保证它完全不会“胡编”,但它出现“幻觉”的概率可以有所降低。(据《南方都市报》)

