今年夏天,美国旧金山的一个人工智能(AI)实验室推出了一个新的计算机系统,这个新系统名为 GPT-3,而这个实验室就是人人皆知的 OpenAI。在随后的几个月时间里,该系统详细学习了自然语言的细节之处,这些学习内容来源于数以千计的电子书籍、维基百科以及写在博客、社交媒体和互联网上的近万亿字。
Mckay Wrigley 是美国盐湖城(Salt Lake City)的一名 23 岁的电脑程序员,同时他也是少数受邀修补 GPT-3 系统的人之一。他想知道这个系统能否模仿公众人物,比如像他们一样写作,甚至可以像他们一样聊天。
他的一项实验涉及一位流行心理学家 Scott Barry Kaufman。GPT-3以 Kaufman 的名字命名并且讨论了关于创造力的话题。当被问到“我们如何才能变得更有创造力?”时,GPT-3 立刻回应道:
我认为创造性表达是在一个多元化世界中成长的必需品。世界越多样化,你接触到不同的人、不同的机会、不同的地方和不同的挑战就越多样化,你就越有可能把这些点组合在一起从而形成一些新的东西。在许多方面,我认为如果你想有创造力,你必须去做。如果你想成为一名作家,你必须写作,如果你想成为一名音乐家,你必须创造音乐,如果你想成为一名喜剧演员,你必须创造喜剧,你创造的越多,你就越有可能在这些创造的过程中偶然发现一些有趣的事情。
(I think creative expression is a natural byproduct of growing up in a diverse world. The more diverse the world is, the more you get exposed to different people, to different opportunities, to different places and to different challenges. And the more diverse that is, the more likely you’ll be to be able to put the dots together to form something new. And in many ways, I think if you want to be creative, you have to go for it. If you want to be a writer, you have to write, if you want to be a musician, you have to create music, if you want to be a comedian, you have to create comedy, and the more you create, the more likely it is that you’ll stumble onto some interesting stuff.)
后来,当 Wrigley 把这段话发表在 Twitter 上时,有人@了真正的 Scott Barry Kaufman。Kaufmanbe 本人看完后惊呆了:“这听上去就像是我要说的话,疯狂而又准确的 AI!”
(来源:Liam Porr)
但与大多数涉及 GPT-3 的实验一样,Porr 的实验并不像看起来那么强大。
无人察觉的缺陷20 世纪 60 年代中期,麻省理工学院的研究员 Joseph Weizenbaum 建立了一个自动化的心理治疗师,并将其称之为 ELIZA。从目前互联网的发展现状来看,这个聊天机器人非常简单。
与 GPT-3 不同,ELIZA 没有从散文中学习。它按照设计师定义的一些基本规则运行。它几乎重复了你对它说的任何话,只是以问句的形式。但令 Weizenbaum 惊讶的是,许多人把机器人当作人一样对待,毫无保留地回应他们的问题,并在回应中获得安慰。
当狗和其他动物表现出少量类似人类的行为时,我们往往认为他们在模仿我们,而不是它们真正的行为。研究动物和机器的认知技能的匹兹堡大学教授 ColinA allen 表示,机器也是一样,“人们被‘吸’进去了,即使他们知道他们被‘吸’进去了。”
这是 GPT-3 的一部分。因为它可以生成令人信服的推文、博客文章和计算机代码,因此我们会阅读到这个数字系统中,并且较少关注其局限性。
实际上,系统故障与成功的次数差不多。我们忽略了它编写的计算机代码需要人类程序员进行一些微调——在这里删除一行,在那里添加一行。我们没有注意到,在几次交流之后,它的对话天赋就会失效,因为它无法 “记住” 几秒前说的话。我们也没有完全意识到,虽然这个系统为 Porr 先生写了一篇令人信服的博文,但他提供了标题和照片以及前几句话,并删除了一些不太有说服力的句子。
Porr 先生不相信 GPT-3 在短期内对打击虚假信息的战斗构成巨大威胁,因为它仍然需要人类的大量帮助。这样的工具只有在能够完全自己产生大量令人信服的虚假信息时,才会变得真正危险,这超过了一个雇佣团队今天相对容易做到的程度。
同样,当应用程序设计师问 Singer 关于 GPT-3 是否对其职业生涯构成威胁时,他向他们保证,至少现在还没有。他认为这是让他们的工作更轻松的一种方式。他说:“如果能达到 70%,那将意味着许多繁琐的工作将会消失。”
我们不知道的是,这项技术在未来几个月和几年里会有多少改进。
更智能、更快、也更贵当 OpenAI 的研究人员正在对 GPT-3 进行超过 1 万亿字的网络培训时,他们进行了第二次实验,对数万张数码照片进行了类似的系统培训。该系统可以分析所有这些照片,并学习构建图像,就像 GPT 3 构建段落一样。给定一张猫的照片的一半,它可以生成猫的其余部分。
对于一些研究人员来说,这个实验表明,这样的系统最终可以像人类一样,同时处理语言、视觉、声音等跨越多个维度的任务。他们说,即使仅仅接受语言训练,这个系统也能用于其他领域,无论是计算机编程、下棋还是制作吉他标签。
但是,继续改进这项技术并不是一件小事。处理所有这些互联网数据需要一台专门的超级计算机并连续运行数月,这是一项极其昂贵的工作。当被问及这样的项目是否涉及数百万美元时,OpenAI 首席执行官 SamAltman 表示,成本实际上“更高”,可能会达到达数千万美元。
对此,OpenAI 负责研究的副总裁 Amodei 表示,这项技术仍有改进的空间,可以使用更多的处理能力来分析更多的数据。但他也表示,这种方法可能快没 “果汁” 了(running out of “juice”)。
但至少,GPT-3 对 AI 研究人员和企业家来说是一个新的工具,一种建立各种新技术和新产品的方式。计算机程序员 Wrigley 最近辞去了日常工作,开始成立一家名为 “学习任何人”(LearnFromAnyone)的公司,该公司的目标是利用 GPT-3 构建一种自动化导师,这种导师可以伪装成从科学家 Douglas Hofstadter 到风险资本家 Peter Thiel 的所有人。另一些公司正在建立其他的一些初创企业,计算机程序员自动生成代码,并为营销专业人员自动编写促销电子邮件和推文。
但目前还不清楚这些服务最终会多么富有成效。如果 GPT-3 只有一半的时间产生正确的文本,它能让专业人士满意吗?目前还不清楚这项技术是否是真正的对话机器,更不用说真正的智能系统了。Amodei 表示,在通往能够模仿人类大脑的漫长道路上如果想要取得更多进展,需要全新的想法。
“这有点像化学反应,我们有这一种成分。但也需要其他成分。” Amodei 说。
翻译:阳光
原文链接:https://www.nytimes.com/2020/11/24/science/artificial-intelligence-ai-gpt3.html
相关文章
猜你喜欢