Google 的超强 AI 工具,怎幺会被拿来做换脸 A 片?

时间:2020-06-07 作者:

Google 的超强 AI 工具,怎幺会被拿来做换脸 A 片?

科技始终来自于人性,因此在 AI 工具的协助下,现在有一群人专门拿艾玛·华森、艾米莉亚·克拉克、娜塔莉·波曼等女明星的脸移花接木,放在 A 片女演员的头上,製作出各种诡异的影片,在 Reddit 论坛引发换脸热潮,餵养男性网友的疯狂幻想。这一切是怎幺发生的?

2015 年,Google 宣布将释出开发 AI 演算法的内部工具 TensorFlow,进而改变了全世界的 AI 研究与发展方向。用 Google 执行长的话来说,AI 科技的影响力可能如电力般深远,而 Google 提供的工具是开放、免费的,入门 AI 的门槛也从博士学位降低到只需要一台笔电。

但 TensorFlow 的力量,现在已经超出 Google 的控制。两年多来,学术界和硅谷用 TensorFlow 缔造不少引人注目的成果,但匿名 Reddit 论坛用户 deepfakes 成了最新焦点。

Deepfakes 以 AI 软体为基础,打造了几乎能自动无缝缝製任何脸部影像到影片的功能。你可以轻易想像这会被拿来做什幺事。《Motherboard》报导,这个软体被拿来把任何人的脸(例如女明星或脸友)放上色情片女演员的身体。

《Motherboard》首先披露消息后,Deepfakes 创造了自己的 subreddit,累积 9.1 万多名订户。另一名 Reddit 用户 deepfakeapp 也释出一个叫做 FakeApp 的工具,让任何人都可以下载这个 AI 软体、自行使用。目前 Reddit 已经禁了这个社群,理由是这违反了该网站对于非自愿色情的规範。

根据 FakeApp 的使用指南,这项软体是以 TensorFlow 为基础打造的。Google 员工曾以稍微不同的设定和主题,用 TensorFlow 做过类似的事,训练演算法从涂鸦中产生影像。Deepfakes 认为这还有许多好玩的用法,例如把尼可拉斯凯吉的脸放到各种不同电影,但我们知道,订阅该讨论区的 9.1 万玩家都是为了 A 片。

TensorFlow 这项开源资源带来许多有益人类的成果,例如可能侦测出癌症的演算法,FakeApp 的存在则代表着开源的黑暗面。

Google(还有微软、亚马逊、脸书)都鬆绑了许多技术力,开放全世界使用,现在任何人都可以下载 AI 软体,尽情实验、创造,这代表可以假造政治演说(使用会模仿声音的 AI),也能产生假的报复性色情影像。所有数位媒介都是一连串 1 和 0,AI 则能透过巧妙安排产生出原本不曾存在的东西。

由于这个软体可以直接在一台电脑上独自运作,当软体离开伺服器,大型科技公司也就丧失了控制权。开源理念的教条,也代表这些公司无需对后果感到愧疚或觉得有责任。

换脸 A 片风波也不足以改变现状,因为免费软体对这些企业来说是门好生意,让更多人研发 AI。每家大型科技公司都陷入尽可能争抢 AI 人才的争夺战,愈多人涌入这个领域愈好。这些免费劳工会写出程式码,启发新产品,帮忙找出 bug、修正程式,大学也会训练大学生和研究生使用这个软体,提供一个好管道,增加熟悉公司内部工具的新人才。

AT&T 先进科技副总裁吉尔柏(Mazin Gilbert)说:「大家过去 5 年都在谈机器学习的大突破,但真正的大突破不是演算法,其实演算法跟 1970、1980、1990 年代没两样,真正的突破是开源。」

「开源降低了入门障碍,所以现在口袋最深的不再是 IBM,而是 Google 和 Facebook。」

随着舆论对 AI 开发伦理的重视,开源软体议题也複杂化。Google 目前提供的工具,并非用来创造《魔鬼终结者》的天网(Skynet)等恐怖威胁,但依然可能造成真正的伤害。Google、微软等提供开源 AI 架构的企业一直大声疾呼 AI 伦理的重要性,也让旗下科学家展开相关研究,但这些公司并未提供任何下载免费软体的指导原则,像 TensorFlow 官网就没有任何伦理相关的指南说明。

让 AI 不再开源似乎也不是理想的解决方法,ArXiv、Github 等网站免费分享的资讯,代表相关人士可以发现潜在的陷阱并要求问责。由于这项核心科技的开发人员不会愿意为换脸 A 片的出现负责,责任将落在这些影像分享的平台。例如,Gfycat 删除所有 deepfakes 製作的 GIF 动图,Reddit 禁止该讨论区,PornHub 也表示一发现有类似影片也会删除。但 deepfakes.club 网站依然存在于主要社交平台之外。

换脸 A 片不但伤害了被换脸的女明星,也贬低了 A 片女演员的专业作品,把她们当成「可替换的」,在她们不知情、不同意、不能控制的情况下散播这些数位操纵;这项科技可以允用在名人身上,不可避免地当然有人会拿来使用在一般人身上,如班花、同事、小孩、同学、前女友,做为一种报复性色情手段,数位性骚扰将进入黄金时代,任何女性只要被拍太多照片都得疑心,更不用说上传照片到社群网站时得多加思考权限问题。

向来疾呼要对大数据问责的数学家欧尼儿(Cathy O’Neill)对色情换脸并不意外,她说这早已存在多年。她建议,在假新闻当道的时代,我们最好对任何所见、所听、所读、所闻抱持怀疑,因为就连声音也是可以编辑的。