谷歌AI有多强?竟让人无法分辨

google程序可以通过电话传递给人。是否需要告诉人们这是一台机器?
谷歌首席执行官桑德尔·皮蔡本周二在美国加利福尼亚州山景城举行的google i / o大会上发表讲话,该公司在推出duplex时着重强调ai。自动语音助理可以预订餐厅预订
谷歌的新ai可以进行如此逼真的电话交谈,甚至可以愚弄人类听众。
谷歌的人工智能助理在接受沙龙预约女性造型设计时听起来几乎和人类一样。它回答问题,商谈时间并感谢接待员的帮助。它甚至会说“嗯”和“mm-嗯”。
然而,它没有说的是它是一台机器 - 而接待员没有显示任何她可以说出来的迹象。
谷歌周二推出了duplex,一家可以预订餐厅,检查开放时间并通过电话完成其他任务的自动化语音助理,这引发了人们关注,ai现在如何进行如此逼真的对话,即使是人类听众也可以被混淆。
这项技术在google的i / o开发者大会上首次亮相,对于任何讨厌接听电话的人来说都是一个巨大的便利。但它也提出了一些棘手的问题,关于使用机器模仿人的声音,执行命令的道德规范 - 并可能欺骗另一方的毫无戒心的听众。
麻省理工学院教授兼数字化计划主任erik brynjolfsson说:“这项技术令人惊叹,向前迈进了一大步,但我认为人工智能的主要目标不应该是模仿人类”。 “相反,人工智能研究人员应该尽可能地让人们知道他们是在与另一个人或机器进行互动” 。
谷歌的研究人员表示,ai不能进行一般的聊天,但是已经接受了特定任务的“自然对话”训练,例如通过电话安排预约。“该系统使会话体验尽可能地自然,让人们可以像对待他人一样正常说话,而无需适应机器” ,工程师在公司的ai博客上写道。
google将duplex称为“实验”,即有限数量的google智能助理用户今年夏天可以试用。何时,是否会首次亮相仍然是一个悬而未决的问题。google尚未展示现场演示。
google工程师表示:“我们希望明确电话会议的意图,以便企业了解情况” 。 “我们将在未来几个月内尝试正确的方法” 。
该公司展示了几个例子,包括duplex打电话给一家餐厅预订一张四人餐桌,在每种情况下,听众似乎都不知道这是一台机器; 在一次电话中,听众问ai,“怎么了,男人?”,并称之为“先生”。
谷歌的人工智能工程师培训了duplex在通常对人类很简单但对机器有挑战性的召唤实践中,包括“阐述”(“什么时候?”),“同步”(“你能听到我吗?”),“中断”( “你能重新开始吗?”)和“暂停”(“你能坚持吗?”)。
为了防止它听起来太过高调或机器人,该系统还被教导了一些所谓的“言语不流利”:人们在闲谈中所做的“哼声”,“呃”以及其他噪音。工程师说,就像人类一样,ai会让这些声音传达出它仍在收集想法。
当用户要求它完成任务时,duplex将从外部号码拨打电话; 人类将无法倾听或干预。谷歌表示,如果任务过于复杂或拨打电话出现问题,人工智能会将呼叫转接给操作人员。
亚马逊的alexa和苹果的siri等自动语音助理已迅速成为人们与电脑在生活中互动的关键部分,今天的许多电话用户都熟悉现代电话推销员,客户服务热线和robocalls的自动化声音。
但duplex将这种ai注入到一种新的舞台上,听众不会同意或不意识到他们正在与机器对话。谷歌代表没有回应有关duplex如何在对话中运作的问题,包括是否会宣布其非人性化。谷歌工程副总裁yossi matias告诉cnet,该软件“很可能”会告诉另一端的人他或她正在与ai交谈。
从“她”的迷人萨曼莎到“2001:太空漫游”中冷血杀人的hal 9000,栩栩如生的人工智能助理长期以来一直是科幻小说的标志,duplex的令人信服的假发让一些听众对这项技术有多远感到不安来。一些听众说,双面打电话似乎能够通过一个简单的“图灵测试”,这是著名的标准,是否机器可以采取行动或说话如此令人信服,以至于很难将其与真人区分开来。
牛津大学未来人类研究所的研究员miles brundage说:“许多人已经将注意力集中在伪装成人类的风险上,duplex似乎正常化了”。 “至少谷歌应该认真考虑某种人们与人工智能交互的通知”。
布伦戴奇说,这种通知将有助于教育人们关于人工智能的先进状态。它还可以防止机器模仿人类时可能导致的各种破坏。在最近的一篇关于“恶意ai”的报道中,brundage及其合着者提出了一系列令人不安的例子,其中包括人工智能如何模仿某人的声音欺骗听众或寻找信息,作为自动化“社会工程攻击”的一部分。 google官员表示,非常重视传播错误信息的合成内容问题。
目前还不清楚谷歌将如何处理法律问题,如联邦通信委员会的电话营销和robocall法律。这些规定禁止公司使用“人工或预先录制的语音”拨打某些机构的电话,并为类似的语音系统的运行方式设置指南,包括要求每个电话明确标识“业务,个人或其他发起呼叫的实体”。
一位google官员表示,该服务与这些电话不同,因为它不是用于招揽或电话营销。该官员补充说,自动助理只能通过电话号码向公众提供预约约会或做生意的电话号码。
华盛顿大学研究生研究机器人伤害和言论自由的马德琳·拉莫说,谷歌人工智能也可以有效地将这个robocall动态地翻转过来。“而不是使用ai与供应商和骗子联合潜在的消费者/骗子受害者”,她说,“消费者现在有权自己制造robocalls” 。
她引用了电视节目“办公室”中的一个场景,在该节目中,区域经理dwight schrute的策划助理制作了50家餐厅,然后将它们卖给绝望的来电者 - 他称之为“完美的情人节”。“拥有人工智能助理的人可以很容易地进行这50家餐厅预订,这会对企业和消费者造成伤害 ”,她说。
ai专家近年来呼吁制定法律或道德准则,以帮助遏制这种恶作剧。哥伦比亚大学教授蒂姆·吴在2017年呼吁“刀锋战士”的法律,这将阻止公司部署隐藏真实身份的人类复制机器。
对于这些规则有一种自然的紧张:谷歌希望它的人工智能能够尽可能令人信服 - 而且是人性化的,以确保听众给出令人信服的回应 - 并且希望不会挂断。
但brynjolfsson认为应该有一个中间立场,以确保人类不会想知道他们在说什么,或者说什么。可能需要机器人自我识别。
brynjolfsson说:“如果人类问到它是不是一个机器人,机器人应该如实回答” 。 “或者最根本的,应该要求机器人具有可识别的声音风格和/或文本风格和/或外观。我不认为这会损害他们的效率。......事实上,它可能会改善它”。