2022 年俄乌战争爆发时,社群媒体上充斥着品质低劣的假影像— 无论是用Photoshop 合成的图片,还是截取自电玩、电影或旧新闻的错误标记画面。如今,相同的手法再度出现在伊朗战事中,但这一次,有了一种在2022 年尚未普及的新型欺骗工具:任何人都能轻松上手的AI 工具,可生成以假乱真的高画质影片与图像。
加州大学柏克莱分校数位鉴识学教授Hany Farid指出,十年前,类似的假讯息顶多一两件,很快就会被揭穿;如今却是数以百计,且逼真程度令人咋舌。 「不只是逼真,而且正在发酵— 深深影响着人们。大家信以为真,并持续转发扩散。」

生成式AI 普及,让造假门槛大幅降低
BBC Verify 资深记者、长期追踪战地假讯息的Shayan Sardarizadeh 表示,过去一年来最关键的改变,在于生成式AI 的取得门槛大幅下降,「现在任何人都能制作出极具说服力的影片和图像,看起来像是重大战事现场,且难以用肉眼或非专业眼光识别真伪。」
伊朗战事开打不到两周,Sardarizadeh 等专家已确认多支AI 生成的假影片在各大社群平台累积数千万次观看。
哪些假影像正在流传?
目前已被识别的AI 伪造内容涵盖面极广,包括:
- 虚构的伊朗飞弹炮击以色列特拉维夫画面
- 民众逃离特拉维夫机场遭攻击的恐慌场景
- 美国特种部队被伊朗士兵持枪押解的影片
- 声称为伊朗军事设施遭炸毁的「监视器画面」(其中三段为AI 生成,一段为去年真实事件)
- 美军在伊朗境内的「地面行动车队」
- 美军坠机残骸在德黑兰街头游行的画面
静态假图方面,则出现美军基地与美国大使馆遭伊朗攻击后燃烧的画面、伊朗最高领袖哈梅内伊被压在瓦砾下的死亡图像,以及伊朗平民悼念伤亡者的场景。甚至有与伊朗政府有关联的媒体,发布一张伪造的卫星图,声称显示美军巴林基地受损情况。
而这些,仅是目前流传中伊朗相关假讯息的冰山一角。
平台管制松,假讯息更难遏止
尽管Sardarizadeh 等人每天持续揭穿假讯息,新的伪造内容仍以远超过辟谣的速度涌现,且逼真程度足以让普通用户在滑动动态时难以即时识破。
部分广泛流传的假讯息,明显出自亲伊朗的帐号、具有宣传目的。但更多假讯息的制作动机难以判断— 可能是为了流量、影响力或收益,也可能只是因为制作太容易了。
Farid 点出当前的困境:「内容更逼真、数量更庞大、渗透更深— 这就是我们当下的现实,而且非常混乱。」
社群媒体平台X 上周宣布,若付费创作者发布未标示AI 来源的战地影像,将被暂停收益资格90 天,再犯则永久停权。然而Farid 对此政策的执行效果持怀疑态度,且绝大多数X 用户根本不在创作者付费计划内。 TikTok 与Meta(旗下拥有Facebook 与Instagram)则未回应CNN 的置评请求。
更令人忧虑的是,X 自家的AI 聊天机器人Grok 已被Sardarizadeh 多次点名,指其在事实查核上反而帮了倒忙— 错误告知用户多支AI 生成影片为真实画面。
如何避免被假讯息欺骗?
Farid 坦言,即便是数月前流传的「辨识AI 假影像技巧」,在今日已几乎失效。过去可留意人物手指数量或肢体比例,现在的AI 早已修正这类明显错误。
他建议的根本之道,是主动选择从具公信力的新闻媒体获取资讯,而非依赖社群媒体上的陌生帐号。 「在全球冲突时刻,社群媒体不是获取资讯的地方。」
对于仍需频繁浏览社群媒体的用户,专家建议:
- 放慢脚步:看到耸动的战地影像,先花几秒搜寻查证,再转发或相信
- 观察细节:音画是否同步?影像特征是否符合现实环境? AI 仍有缺陷,部分生成内容仍留有浮水印
- 查询专业辟谣:确认是否有专业事实查核媒体或领域专家已就该影像发表意见
- 留意留言区:一般用户有时也能提出有效质疑
- 使用AI 侦测工具:虽不完美,但仍有一定参考价值
趋势令人忧虑,未来挑战更大
Sardarizadeh 呼吁大众尽力「训练自己的眼睛」,学习识别AI 内容的痕迹。但他同时坦承:「侦测AI 生成内容正变得极为困难,且趋势显示,未来只会愈来愈难。」
在生成式AI 技术持续演进、社群平台管制趋于宽松的双重压力下,数位假讯息的战场正以前所未有的速度扩张,而每一位滑手机的用户,都站在这场资讯战的最前线。
本文链接地址:https://www.wwsww.cn/rgzn/37567.html
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。
