以下文章来源于军工小参,转载自战略前沿技术
“深度伪造”是2017年首次出现的一个术语,用于描述使用人工智能技术生成的逼真照片、音频、视频和其他伪造品,在未来几年可能会给国家安全带来各种挑战。随着这些技术的不断成熟,它们可能会对国家相关监督、授权以及社交媒体平台的监管产生重大影晌。
深度伪造是如何产生的?
尽管定义各不相同,但深度伪造最常被描述为使用机器学习(ML)技术创建的伪造品,机器学习是人工智能的一个子领域,尤其是生成对抗性网络(GANs)。在GAN过程中,两个称为神经网络的ML系统在相互竞争的情况下进行训练。第一个网络或生成器的任务是创建复制原始数据集的伪造数据,如照片、录音或视频痕迹。第二个网络或鉴别器的任务是识别伪造的数据。根据每次迭代的结果,生成器进行调整,以创建越来越逼真的数据。经常持续进行数千万或数百万次迭代,直到生成器提高其性能,使得鉴别器无法再区分真实数据和伪造数据。
尽管媒体操纵并不是一个新现象,但使用人工智能生成深度伪造品引起了人们的担忧,因为结果越来越逼真,创建速度很快,而且使用免费软件制作成本很低,并且能够通过云计算处理能力。因此,即使是不熟练的操作员也可以下载必要的软件工具,并使用公开的数据创建越来越令人信服的伪造内容。
如可使用深度伪造?
深度伪造技术已被推广用于娱乐领域,例如,社交媒体用户将演员尼古拉斯·凯奇插入他最初没有出现的电影中,以及一家博物馆与艺术家萨尔瓦多·达利制作互动展览。深度伪造技术也被用于对人类有益的研究领域。例如,医学研究人员报告称,使用GANs合成模拟医学图像,以训练罕见病的疾病检测算法,并将患者隐私问题降至最低。
然而,深度伪造也可能会被用于邪恶的目的。国家对手或出于政治动机的个人,可能会发布大选候选人或其他公众人物发表煽动性言论或行为不当的伪造视频。这样做反过来可能会削弱公众信任,对公众话语产生负面影响,甚至影响选举。
事实上,美国情报界曾得出的一个结论是,ELS在2016年总统选举期间进行了广泛的影晌力行动,以“破坏公众对美国民主进程的信心,诋毁克林顿国务卿,损害她的当选能力和潜在的总统职位。”同样,在2022年3月,WKL总统宣布,他在社交媒体上发布的一段视频中似乎指示WKL士兵向ELS军队投降,这是一个彻头彻尾的骗局。虽然专家们指出,这种深度伪造并不特别复杂,但在未来,令人信服的音频或视频伪造可能会加强恶意影晌行动。
深度伪造也可能被用来羞辱或勒索有权获取机密信息的候选人或普通个人。已经有证据表明,外国情报人员使用深度伪造的照片创建了虚假的社交媒体账户,并试图从中搜集情报来源。一些分析人士认为,深度伪造同样可以用来生成煽动性内容,比如令人信服的美国军事人员参与战争罪的视频,这些战争罪旨在激进化民众、招募恐怖分子或煽动暴力。《2021财年国防授权法》(P.L116-283)第589F条指示国防部长针对深度伪造对服役人员及其家人构成的威胁进行情报评估,包括评估该技术的成熟度以及如何使用该技术进行信息作战。
如何检测深度伪造?
如今,深度伪造往往可以在没有专门检测工具的情况下被检测到。然而.技术正在迅速发展到一个地步,在这个程度上,无人辅助的人类检测将非常困难或不可能。虽然商业行业一直在投资自动化深度伪造检测工具,本节介绍了美国政府的投资和活动。
《识别生成对抗性网络的输出法案》(P.L.116-258)指示美国国家科学基金会和美国国家标准与技术研究院支持对GANs的研究。具体而言,美国国家科学基金会旨在支持对操纵或合成内容和信息真实性的研究,美国国家标准与技术研究院旨在支持开发必要的测量和标准的研究,以开发工具来检查GANs或其他合成或操纵内容的技术的功能和输出。
此外,DARPA有两个专门用于检测深度伪造的项目:媒体取证(MediFor)和语义取证(SemaFor)。MediFor于2021财年结束,旨在开发算法,自动评估照片和视频的完整性,并向分析师提供伪造内容是如何生成的。据报道,该项目探索了识别深度伪造中存在的视听不一致的技术,包括像素不一致(数字完整性) 、与物理定律不一致(物理完整性〉和与其他信息源不一致(语义完整性)。MediFor技术有望被用于作战指挥和情报领域。
SemaFor寻求建立在MediFor技术的基础上,开发算法、自动检测、鉴定和表征(即识别为良性或恶意)各种类型的深度伪造。该程序旨在对语义不一致进行分类,如图1中GAN生成的图像出现的不匹配的耳环,或不寻常的面部特征或背景,并对疑似深度伪造进行优先排序,以供人类审查。国防高级研究计划局要求在2023财年为SernaFor拨款2890万美元,比2022财年拨款高出790万美元。SemaFor和MediFor开发的技术旨在提高对对手信息作战的防御能力。图1 GAN生成的图像中的语义不一致示例:
政策考虑因素
一些分析人士指出,基于算法的检测工具可能会导致猫捉老鼠的游戏,在这种游戏中,深度伪造生成器会迅速更新以解决缺陷达到能通过检测工具识别的目的。出于这个原因,他们认为,社交媒体平台除了:部署深度伪造检测工具外,还可能需要扩展标记或认证内容的手段。这可能包括要求用户识别内容产生的时间和位置,或者将编辑后的内容标记为原始内容。
其他分析人士表示担心,对深度伪造技术的监管可能会给社交媒体平台带来不应有的负担,或导致对言论自由和艺术表达的限制。这些分析人士表示,现有法律足以监管深度伪造的恶意使用。一些专家断言,仅靠技术工具的回应是不够的,相反,重点应该放在教育公众深度伪造的必要性上,并尽量减少对恶意深度伪造者的激励。
可能面临的问题
国防部、国务院和情报界是否掌握了足够的信息,了解外国深度伪造技术的现状以及该技术可能被用来危害国家安全的方式?
DARPA在开发自动化深度伪造检测工具方面的技术有多成熟?DARPA方法的局限性是什么?是否需要额外的努力来确保恶意深度伪造不会损害国家安全?
国防和非国防机构以及私营部门的联邦投资和协调工作是否足以满足研发需求和国家安全对深度伪造技术的担忧?
关于深度伪造的国家安全考虑应如何与言论自由保护、艺术表达和底层技术的有益使用相平衡?
是否应该要求社交媒体平台对内容进行认证或标记?是否应该要求用户提交有关内容出处的信息?这会对社交媒体平台以及用户的安全、保障和隐私产生什么副作用?
社交媒体平台和用户应该在多大程度上、以什么方式(如果有的话)对恶意深度造假内容的传播和影响负责?