2019-04-05 23:58:01
人工智能现在可以模仿人类的行为 很快就会有危险的好处

当人工智能系统开始变得富有创造力时,他们就可以创造出伟大的东西 - 而且可怕。例如,一个人工智能程序,让网络用户和虚拟的约翰·塞巴斯蒂安·巴赫(Johann Sebastian Bach)一起创作音乐,并将音符输入到一个程序中,该程序可以生成类似巴赫的和声。

该应用程序由Google运营,因其具有开创性和趣味性而备受赞誉。它也引起了批评,并引发了对人工智能危险的担忧。

我对新兴技术如何影响人们生活的研究告诉我,这些问题超出了人们对算法是否能真正创造音乐或艺术的巨大担忧。一些投诉似乎很小,但实际上并非如此,就像谷歌人工智能正在打破音乐创作的基本规则一样。

事实上,让计算机模仿真实人的行为的努力可能会令人困惑并且可能有害。

模仿技术

谷歌的节目分析了巴赫音乐作品306中的音符,发现了旋律和提供和声的音符之间的关系。由于巴赫遵循严格的组成规则,该计划有效地学习了这些规则,因此当用户提供自己的笔记时它可以应用它们。

巴赫应用程序本身是新的,但基础技术不是。经过训练以识别模式并做出概率决策的算法已经存在了很长时间。其中一些算法非常复杂,以至于人们并不总是了解他们如何做出决策或产生特定的结果。

人工智能系统并不完美 - 其中许多系统依赖于不代表整个人口的数据,或者受人类偏见影响的数据。当AI系统出错或导致问题时,谁可能在法律上负责并不完全清楚。

然而,现在,人工智能技术已经发展到足以能够逼近个人的写作或说话风格,甚至面部表情。这并不总是坏事:一个相当简单的AI让Stephen Hawking能够通过预测他最常使用的词来更有效地与他人沟通。

模仿人类声音的更复杂的节目可以帮助残疾人 - 但也可以用来欺骗听众。例如,语音模仿计划Lyrebird的制作者发布了巴拉克奥巴马,唐纳德特朗普和希拉里克林顿之间的模拟对话。这可能听起来很真实,但这种交流从未发生过。

从好到坏

2019年2月,非营利性公司OpenAI创建了一个程序,该程序生成的文本几乎与人们撰写的文本无法区分。它可以用John F. Kennedy,J.R.R。的风格“写”一个演讲。 Tolkien在“指环王”中或学生撰写关于美国内战的学校作业。

OpenAI软件生成的文本非常可信,公司选择不发布程序本身。

类似的技术可以模拟照片和视频。例如,在2018年初,演员和电影制片人乔丹皮尔创建了一个视频,似乎显示前美国总统巴拉克奥巴马说奥巴马从未真正说过的事情,警告公众这些技术带来的危险。

2019年初,美国众议员亚历山大·奥卡西奥·科尔特斯的一张假裸照在网上流传。制作的视频,通常被称为“深度伪造”,预计将越来越多地用于竞选活动。

在2020年大选之前,国会议员已经开始研究这个问题。美国国防部正在教导公众如何发现篡改的视频和音频。像路透社这样的新闻机构正在开始培训记者发现深陷伪造。

但是,在我看来,一个更大的问题依然存在:当AI技术变得更加复杂时,用户可能无法快速学习以区分假内容。例如,随着公众开始意识到深度伪造,人工智能已被用于更高级的欺骗。现在有些程序可以生成伪造的面孔和伪造的数字指纹,有效地创建了制造整个人所需的信息 - 至少在企业或政府记录中。

机器不断学习

目前,这些技术中存在足够的潜在错误,使人们有机会检测数字制作。谷歌的巴赫作曲家犯了一些专家可以发现的错误。例如,当我尝试它时,程序允许我输入并行的五分音,这是巴赫刻意避免的音乐间隔。该应用程序还通过协调错误键中的旋律打破了对位的音乐规则。同样,OpenAI的文本生成程序偶尔会写出“在水下发生的火灾”这样的短语,这些短语在他们的背景下毫无意义。

随着开发人员对他们的创作工作,这些错误将变得更加罕见。实际上,人工智能技术将不断发展和学习。随着人工智能计划帮助医学实践民主化,改善的表现有可能带来许多社会效益 - 包括更好的医疗保健。

让研究人员和公司自由探索,以便从人工智能系统中寻求积极的成就,意味着开辟更多先进的方法来制造欺骗和其他社会问题的风险。严格限制人工智能研究可以遏制这种进步。但是,给予有益技术成长空间的成本不小 - 而且滥用的可能性,无论是制作不准确的“巴赫式”音乐还是欺骗数百万,都可能以人们无法预料的方式增长。

猜您喜欢的其它内容