VEO 3生成的CBC新闻实验视频……破坏数字信任的AI视频技术
一则关于阿尔伯塔野火扩散的加拿大CBC新闻快讯视频。新闻主播冷静地播报新闻,她背后的地图上火焰正向加拿大中部蔓延。记者连接现场,背景中传来紧急警报。然而,屏幕上的一切都是虚假的。这段视频并非真实的报道,而是由Google开发的人工智能视频生成工具“Veo 3”制作的。

CBC为了展示AI视频技术的威力而制作了这段内容,其目的在于显示虚假信息可以制作得多么精巧。视频看起来对观众来说是真实的,不再有过去AI内容中常见的尴尬场景或缺陷。专家们分析,Veo 3能够将语音、音效、阴影、纹理等物理元素逼真地实现。能够将虚假构造成现实的工具已对普通用户开放。
比真实更真实的视频

Veo 3自发布后便通过网络迅速传播。仅上线第一周,就制作了关于名人的假死消息、伪造的政治家新闻发布会以及操控的选举场景的视频,这些内容被制作成多种语言。短时间内,这些视频到达了数万人,有些甚至在媒体和社交网络上被误认为是真实新闻。
英国图灵研究所最近的一份报告指出,“AI视频正在模糊事实与虚假的界限,其影响不是一次性的,而是累积性的。”报告中指出了在实际选举过程中,AI制作的恶搞视频被混淆为新闻报道或候选人发言的案例。加拿大多伦多都市大学的安吉拉·米斯里教授警告称,如果AI制造的虚假现实被重复,人们最终将不再信任任何东西。
探测技术的局限
早在很久以前,人们就已对深度伪造技术发出警告。然而,现有的探测系统在精密的AI内容面前变得越来越无力。过去识别视频操控的线索包括物理错误、嘴形不一致、不现实的背景等。而Veo 3弥补了所有这些缺陷,从而削弱了探测标准本身。
美国雪城大学的尼娜·布朗教授表示,“AI生成的视频欺骗观众的感官,甚至使媒体消费者的批判性思维迟钝。”她反映,“如果假视频反复出现,大众会陷入‘该相信什么’的混乱中。”
规制反应迟缓,而技术却在前进
2025年4月,美国国会通过了将未经同意的深度伪造色情内容定为犯罪的“拿下来(Take It Down)法案”。然而,对政治、社会、健康等公共信息操控的全面规制尚未制定。欧盟通过数字服务法(DSA)要求对AI内容的透明度,但实际应用进展缓慢且存在地区差异。
技术监督组织阿达·洛芙蕾斯研究所分析称,“现有的技术保护措施不足以阻止虚假信息的扩散。”研究员朱莉娅·斯马克曼指出,“AI视频刺激情感、视觉、听觉,现有的文字过滤或算法警告显然有其局限。”
如何阻止AI假新闻
针对假视频扩散的解决方案正在讨论中,核心是恢复“数字信任”。首先,建议开发“数字水印”技术以自动标示视频内容是否由AI生成。Meta、微软等公司正在引入为AI内容贴上“起源标签(origin tag)”的共同标准。然而,这种措施尚未具有强制性,也无法应用于所有平台。
媒体和社交平台的角色也很重要。在内容分发阶段需要检测AI生成物,并清楚地将事实核查结果告知观众。加拿大CBC在进行AI视频制作实验的同时,也在开展观众教育项目。面向学生、教师和公众进行虚假信息识别教育,并鼓励公开讨论AI技术的两面性。
除了技术性防御外,还必须同步恢复媒体的信任和增强公民的信息解释能力。安吉拉·米斯里教授强调,“要应对AI带来的威胁,公民教育、媒体伦理及技术规制必须同步运作。”
假新闻并不是一种新现象。但是人工智能将假变成真,引发对真实的误认。保护真相的技术、制度,以及公民监督的平衡现在比任何时候都更加急迫。