微量虚假数据即可显著增加人工智能有害输出
警惕AI数据投毒,虚假信息潜藏巨大风险
人工智能技术飞速发展,其训练数据的质量变得至关重要。国家安全部近日发布预警,指出人工智能领域的数据污染问题已构成新的安全隐患。不实信息、偏见以及其他不良数据正严重影响AI系统的性能,可能导致其产生有害输出,给社会稳定带来潜在威胁。

图源备注:图片由AI生成,图片授权服务商Midjourney
AI系统的核心在于算法、算力和数据。其中,高质量的数据是AI模型学习规律、实现智能决策与内容生成的基础。然而,令人担忧的是,研究显示,即使是极少量的虚假文本,例如仅占0.01%,也可能导致AI系统输出有害内容的概率显著上升11.2%。即使比例降至0.001%,有害输出的上升率也高达7.2%,足见数据纯净度对AI行为的深远影响。
数据污染的潜在危害远不止于AI模型的性能下降。在金融市场,不法分子可能利用AI生成虚假信息操纵股价;在公共安全领域,扭曲的数据可能误导舆论,引发社会恐慌;而在医疗健康领域,错误的诊疗建议可能直接危及患者生命。这些现实风险的出现,凸显了数据安全在AI应用中的极端重要性。
为应对这一挑战,国家安全部提出了一系列加强数据治理的建议。这包括从源头抓起,防止污染数据的产生,并依据《网络安全法》《数据安全法》和《个人信息保护法》等法律法规,建立AI数据的分类分级保护制度。同时,强化全生命周期的数据风险评估与安全保障,并定期对受污染数据进行清洗与修复,从而构建有效的AI数据治理框架,提升AI数据的整体安全水平。
面对AI技术的蓬勃发展,保障训练数据的真实性和安全性,已成为维护社会各领域安全不可或缺的一环。这是当前AI领域发展必须正视的关键问题。