去年以来,生成式人工智能在世界范围内掀起一波接一波的热潮,其颠覆性应用让许多行业和网民受益。然而,一块硬币有两面,伴随生成式人工智能而来的也有一些负面问题,由“信息垃圾”导致的“AI污染”越来越突出。
清华大学新闻与传播学院新媒体研究中心今年4月发布的一份研究报告显示,近一年来,经济与企业类AI谣言量增速达99.91%。美国调查机构“新闻守卫”称,生成虚假文章的网站数量自2023年5月以来激增1000%以上,涉及15种语言。一些专家认为,AI制造的“信息垃圾”产量庞大,且辨别难度较大、筛选成本较高。
“AI污染”带来的危害显而易见。“AI污染”会让网民陷入认知幻觉。在某知识分享平台上,看似“上知天文,下晓地理”的AI,生成的内容却空洞生硬。在缺乏批判性思考的情况下,AI快速编织的“知识体系”,一方面可能使人们的思辨能力产生退化,另一方面也可能让人陷入认知幻觉,引发公众认知困惑,进而扭曲公众对现实和科学共识的集体理解,最终让人被AI“牵着走”。尤其对于伴随互联网(互联网行业分析报告)成长起来的年轻一代,一旦他们的认知被“信息垃圾”所塑造,其后果不堪设想。
“AI污染”会反噬AI产业的发展。众所周知,AI模型的准确性很大程度上取决于训练数据的质量。若AI生成的虚假、垃圾内容“回流”互联网,成为训练AI模型的新数据,这种“垃圾进、垃圾出”的循环模式,或使AI的输出质量断崖式下降,不利于整个AI产业的发展。比如,某互联网企业通过搜索引擎优化,将AI生成的文章优先呈现于搜索结果中,导致用户难以检索到高质量信息,引发用户广泛批评。
此外,“AI污染”还涉及法律、伦理甚至社会稳定等诸多问题。AI制造的虚假内容,或侵犯知识产权、动摇版权规则,也涉嫌侵犯个人隐私、泄露身份信息,且有滥用风险,恐扰乱、操控社会舆论,AI制造的违法行为还会加大社会治理难度。