DeepSeek 对 “王一博案” 道歉?假新闻!AI 时代的真假迷局与反思
日期:2025-07-04 13:38:39 / 人气:8

近日,一则消息在网络上掀起轩然大波。有媒体声称,“DeepSeek 就 AI 模型违规关联王一博与‘李爱庆腐败案’作出道歉”,还言之凿凿地表示,DeepSeek 方面承认因内容审核疏漏,在回答用户查询时引用未经证实的网络谣言,对王一博名誉造成侵害,且已永久撤回相关失实信息,并援引北京市第三中级人民法院判决书为证。
然而,经多方严谨核查,真相令人大跌眼镜。DeepSeek 官方微信公众号、官方网站、官方 X 账号(前 Twitter)等所有官方社交媒体平台,均未公开发表过任何道歉声明。进一步检索相关新闻报道,竟没有任何一则能明确指出 DeepSeek 的道歉渠道,也不见相关道歉声明的截图,这则消息就如同无根之木,毫无事实依据。
事件的戏剧性远超想象。诡异的是,全网几乎都认定 DeepSeek 进行了道歉,大量自媒体、网络新媒体乃至传统媒体,纷纷在第一时间跟进报道这条不实消息,仿佛陷入了一场集体幻觉。更令人咋舌的是,向市面上所有 AI 大模型询问该事件,得到的回答出奇一致,均称 DeepSeek 的确进行了道歉,并引用上述不实新闻链接。这不禁让人发问:在信息传播的链条中,究竟是哪里出了错?
作为长期跟踪科技类新闻的从业者,这起事件背后折射出的,远不止新闻报道核查不严的问题,更暴露出当下 AI 大模型比 “幻觉问题” 更为严峻的困境 ——AI 通过援引假新闻生成新的假新闻。近两年,AI 大模型迅猛发展,早期普遍存在的 “幻觉问题” 确实有所缓解,这得益于其增加了联网搜索和推理等能力,能依据网络公开信息推理生成回答。但当网络充斥海量虚假信息,连人类都难以快速辨别真伪时,AI 缺乏有效的信息核查能力这一短板便暴露无遗,导致 “Rubbish in, Rubbish out”(垃圾进,垃圾出)效应凸显。
以日常写作工作为例,AI 并不能真正替代人类撰稿。新闻工作者借助 AI 辅助写作时,反而可能降低工作效率,因为大部分时间都要用于查证 AI 生成信息的真伪。即便 AI 援引了新闻网页,看似有迹可循,却仍需再次核实网页内容真实性。与多数新闻从业者交流后发现,大家普遍认为,“用 AI 生成稿件的效率比自己动手写更低”。
这起事件给 AI 发展带来重要警示:在真假难辨的网络世界里,AI 该如何辨别真伪,进一步提升生成准确率?只有提高准确率,AI 才能真正投入实际生产工作。这也是企业应用大模型时,给其 “投喂” 企业专有知识库的原因,如此员工提问时,才不会得到错误答案。
而对于人类而言,这同样是一记警钟。当人类自身都在 “生成” 假消息时,AI 又如何能给出准确答案?在信息爆炸的 AI 时代,无论是媒体从业者,还是普通信息接收者,都应保持清醒的头脑,强化信息核查意识,莫让虚假信息借助 AI 的翅膀肆意传播。唯有如此,我们才能在真假交织的网络世界中,守住真实与真相的底线。
作者:傲世皇朝
新闻资讯 News
- 00 后养生热潮:理疗养生小店的黄...07-04
- 当288分女孩成为时代切片:我们为...07-04
- 《永乐大典》为何沦为阴谋论符号...07-04
- 美联储 7 月降不降息,就看今晚?07-04