在信息爆炸的时代,人工智能(AI)已经深度融入我们的生活,成为获取知识和信息的重要工具。然而,近期“AI把野史当信史”的现象,却引发了广泛关注和担忧。从“明朝使臣质问帖木儿为何不进贡”,到“钱大钧枪击军统湖北站副站长”,这些看似生动有趣、煞有介事的说法,在网络上广泛传播,甚至能在AI工具中得到一本正经地解释,仿佛它们就是不容置疑的信史。但稍加查证就会发现,这些内容要么是凭空编造,要么严重曲解史实,所谓的“原始出处和参考文献”也是子虚乌有。
AI之所以会将野史当信史,与其运行机制密切相关。AI本质上是基于模式识别与语料拼接的技术,它本身并不具备判断历史真伪的能力。其生成内容的“可信度”往往来自貌似“精确”的表述形式,而非真实可靠的资料来源。然而,很多人因为AI输出的文本具有语义连贯、语气肯定等特点,就不假思索地选择相信它。
在科技飞速发展的今天,人工智能(AI)已成为社会运转的重要驱动力,从日常的信息检索到复杂的生产流程优化,AI的身影无处不在。然而,随着AI应用的日益广泛,其误导公众认知的潜在风险也逐渐浮出水面,引发了全社会的关注与反思。
AI误导公众认知,不仅存在于“AI把野史当信史”,还存在于其他方面。当前,AI生成虚假知识、信息的现象屡见不鲜,从“孝子农民工提塑料袋带走母亲骨灰”这类博眼球的谣言,到“十大致癌卫生巾黑名单”的伪科学文章,背后都有AI的“推波助澜”。这些虚假知识、信息往往借助AI强大的内容生成能力,在短时间内迅速传播,以假乱真,迷惑大众。
AI误导公众认知,带来的危害是多方面的。当AI以“理性中立”的姿态输出知识和观点时,其潜在的误导性可能比传统谣言更具隐蔽性。一是混淆事实与虚构之间的认知。例如煞有介事地“考证”出“明朝使臣质问帖木儿为何不进贡”,对野史“合法化”处理,这类看似“有细节、有逻辑”的伪历史,借助AI的“权威口吻”迅速传播,正在消解“一分证据说一分话”的史学根基。二是消解知识金字塔的信任体系。当AI能快速生成看似专业的法律分析、医学诊断时,公众相信了AI提供的知识和分析,对专家的信任度正在下降。当AI成为“知识”的伪装者,实质是在瓦解信任的价值链条。三是误导性信息会干扰人们的决策。例如消费者依据AI生成的虚假产品评价做出错误购买选择,求职者因AI的偏见性评估失去工作机会。
要解决AI误导公众认知的问题,需要多方协同努力。政府应加强监管,完善相关法律法规,对恶意利用AI制造传播虚假知识、信息的行为予以严惩,为AI健康发展营造良好法治环境。研发者应提升数据质量,将AI大模型接入权威信源,确保数据真实、全面,同时对AI生成内容的真实性进行验证,避免虚假信息流出。平台方应在历史、新闻、医疗、法律等多领域设置人工审核关卡,对虚假、有害信息,及时采取删除、辟谣等措施,防止其扩散。公众自身也需提升素养,面对AI提供的信息,不能盲目接受,要通过官方渠道、专业人士等多方面核实,避免被误导。
AI的价值应是拓展人类认知的边界,而非制造新的认知误区。当我们赞叹AI的“聪明”时,更需要守护人类特有的“智慧”,更需要坚守对“真实”的不懈追求。唯有如此,才能在智能时代避免陷入“数据丰富、智慧贫瘠”的认知困境。