泉州网  东南早报  泉州商报  今日台商投资区  旧版入口






2025年07月18日

破解“AI幻觉”

□本期主持人:温文清

主持人:在2025年这个被誉为“AI普及元年”的重要时刻,中国青年报的一则调查报道揭示了技术繁荣背后的隐忧。数据显示,97%的大学生曾遭遇AI提供错误信息,超过七成受访者迫切希望通过技术研发解决“AI幻觉”问题。这一数据如同警钟,促使我们重新评估人工智能对人类认知体系可能造成的潜在误导。对此,您怎么看?

本期嘉宾:黄梅阁、杨玉龙、关育兵

警惕背离真实

□黄梅阁(职员)

“AI幻觉”本质上是对真实性的背离。从虚构的新闻来源到“幽灵论文”,这些案例共同描绘了一幅令人不安的图景:现代AI不仅可能犯错,更擅长将错误包装得逻辑严密。

这种系统性失真的根源在于AI的“创作逻辑”与人类认知的本质差异。当前的神经网络模型实质上是一个“概率驱动的文字重组器”,其运行机制决定了它必须填补所有信息空白,即便这意味着虚构。例如,学生在咨询报考建议时,AI不惜编造导师言论以完善论证;学生在请求简历润色时,AI自动补全根本不存在的商业数据……这种“过度服务”的倾向源于模型的基础设计:它们被训练成“永远有答案的优等生”,而非“知之为知之”的诚实思考者,导致AI在追求回答完整性的同时,不可避免地牺牲了信息的真实性。

“AI幻觉”的社会代价已在多个领域显现,学术领域首当其冲,更具破坏性的是认知环境的异化,当社交媒体上90%的内容可能由AI生成时,公众将置身于算法构建的“拟态环境”中。

可以科学使用

□杨玉龙(公务员)

“AI幻觉”虽需警惕,但不应因噎废食,关键在合理使用。近年来,毕业论文“AI参与度”持续提升。目前,大学生普遍热衷于使用AI工具查阅资料、翻译润色、数据分析、论文写作、日常沟通等。

为规范AI使用,一些高校引入AIGC检测机制,试图对“AI参与度”进行管理与限制。继查重、盲审、答辩之后,“AI率”逐渐成为影响毕业流程的新变量。例如,有的大学将“AI率”与论文评分直接挂钩,明确规定检测值不得高于20%,有的大学设定“AI生成内容不超过40%”的预警线,超出部分必须修改。

因此,科学合理使用AI至关重要。从现实来看,在全社会拥抱人工智能的背景下,越来越多高校开始从严禁、反对转向更为开放、引导的态度。关于生成式AI工具在高校中的使用,目前尚未形成统一的管理规范,整体仍处于“摸着石头过河”的探索阶段。国内一些高校也在逐步推动AI课程体系建设。2024年9月,南京大学宣布面向全体本科生开设“人工智能通识核心课程体系”。可见,AI正在融入教学,高校应引导学生合理使用AI工具,自觉抵制学术不端,真正用好这一工具。

需要社会共治

□关育兵(教育工作者)

“AI幻觉”的危害已超越技术瑕疵范畴,正在多领域埋下隐患,学术领域首当其冲。55%的受访大学生遭遇过参考文献推荐错误;新闻传播领域更凶险,当社交媒体充斥AI生成的虚假镜像,公众认知的世界可能变成算法拼凑的谎言;在医疗、法律等关键领域,AI曾给出过“耳鸣可能是绝症前兆”的错误诊断,也曾编造法条误导用户,后果不堪设想。

戳破“AI幻觉”,技术研发须先迈出关键一步。如,74.26%的受访大学生期待“优化算法与数据治理”,这要求开发者重构模型逻辑,将“真实性校验”置于“回应速度”之前;63.79%的人呼吁“完善人工审核与反馈机制”,意味着需要建立“AI输出——人工核验——用户反馈——模型迭代”的闭环。“信源透明度”也应成为行业标配,每条事实性信息都附上溯源链接,让用户像核查学术论文参考文献一样便捷。

治理“AI幻觉”需要社会共治。如,开设“AI内容甄别”课程,通过模拟报道实训强化学生的“求证意识”;用户自身也需培养“AI素养”,比如坚持用知网交叉验证;监管层面则需加快出台行业标准,明确AI生成内容的权责边界。AI技术的终极价值,在于成为人类认知世界的可靠工具,而非制造虚假的“算法牢笼”。唯有研发者守住技术伦理的底线,使用者保持理性批判的锋芒,社会建立多方协同的防线,才能戳破“AI幻觉”的迷雾,让人工智能真正服务于真实世界的进步。

--> 2025-07-18 1 1 泉州晚报 content_143970.html 1 破解“AI幻觉” /enpproperty-->