3月15号AI界有一个大新闻就是GPT4.0发布了,它吸引了全世界科学爱好者的目光。
不断学习的AI
其实ChatGPT也完全同意这个观点,有人问ChatGPT:“有人说你是吃着人类创造的知识长大的所以不可能创造新知识,你同意吗?”
ChatGPT就回答:“作为一个人工智能我是通过对大量人类创造的知识进行学习和训练来提高自己,然而这并不意味着我不能创造新的知识或想法,在我的算法和语言模型中我可以从大量的数据和语言规则中发现模式和关联性,从而生成新的结论或想法。此外我也可以通过与人类交互学习新的信息并将其应用于新的场景,因此虽然我是通过人类创造的知识来成长的但我仍然有能力创造新知识。”
这个人继续问:“你能举一个具体的例子吗?”
ChatGPT就答:“当然,以下是我一些能够创造新知识的例子。第一我可以通过对大量文本数据的学习理解人类提出的问题并回答这些问题,这些答案可能是新的不为人知的。
第二,我可以分析大量科学数据和文献发现新的科学规律和趋势从而提出新的科学假设和预测。”。
最后ChatGPT说:“总之作为一个人工智能我有能力利用人类创造的知识创造出新的知识和想法,这对于提高人类的生产力和创造力有着巨大的潜在价值。”
提问者继续问道:“你能不能更具体一些”
ChatGPT接着回复了很多,总结一下,大概意思就是:“我可以通过机器学习预测化合物的生物活性、还可以发现新的天体、可以预测气候变化等等。”
这上面的对话是GPT3.5模型,大家感兴趣可以自己尝试和ChatGPT对话,这个问题真的可以刨根问底,引出很多大开眼界的话题。
再来举一个例子,给ChatGPT出一道数学应用题,然后让他模仿这种题目的风格,再出几道类似的题目,他能做的非常的完美非常的像。注意,他出的这些题目可并不是像搜索引擎一样从已知的数据库中搜出来的,这些题目真的就是他自己发明出来的
还有一个更好的例子,2016年谷歌的围棋AI AlphaGo对战李世石。在第二局中当AlphaGo下出了第37手也就是五路的一个肩冲(围棋的术语)的时候,当时所有的评论员全部都哗然,大家都认为AlphaGo下出了一个昏招,这步棋完全不符合棋理,大家在学围棋的时候,老师都会讲,肩冲只能放在4路否则损失太大了。
这个技术简单来说就是两个程序左右互博,一个扮演创作者一个就扮演品鉴者。品鉴者可以先用人类创作的艺术品来训练出品味,而创作者则从随机创作开始,品鉴者就给这个0基础的小白打分,创作者的创作能力会被品鉴者不断的提高。
这里的品鉴者和创作者的关系并不是像我们人类中的师傅和徒弟的关系一样,品鉴者他是只管评分不管教的,创作者要从随机乱创作开始,然后根据反馈不断的自己找到提高的规律。
这种方法对我们人类是没用的,因为人的寿命和创作速度是有限的,我们没有办法在短短的一生中靠这种方法来提高自己,我们得有师傅带徒弟这样子交出来。但是AI不一样,它可以在瞬间创作人类用一生也完不成的作品数量。
2018年10月份佳士得拍卖行以300万元人民币的价格卖掉了一张用GAN技术生成的画
这被认为是人类第一张用AI创作的艺术品,但是我们都不得不说这张画显得还是很粗糙
任何人都很容易看出他比人类的绘画水平差远了。
AI绘画的作品
AI绘画的作品
但如果有人以为GAN技术生成的画最多也就是达到以假乱真和人类艺术家相当的水平,那么他又OUT了。实际上GAN技术中作为品鉴师的这一方也是可以被创作者反过来训练的,当创作者达到品鉴师能给出的最高分时,量变就会开始引起质变。这个时候品鉴师和创作者就开启了互相学习模式。这就好像围棋程序master不再需要人类的棋谱,自己跟自己下棋一样。
创作者和品鉴师开启了AI的华山论剑模式,而我们人类只能站在一边看他们的精彩表演,时不时的鼓鼓掌发出惊叹声。
AI的成长速度它是加速式的,而且这个加速度极快。或许5年前我们会惊叹于AI终于画出了有点像是人手绘的作品,到了今年呢,我们就惊叹于AI画出来的作品,真的可以以假乱真了。或许到了明年再看AI画师,他已经达到了人类只能是仰望的高度。
不过我认为艺术家这个职业还会存在,只是他的工作方式很可能已经被AI给彻底改变了。
最后再来看一个常见的争议话题:AI到底能不能产生意识呢?
这其实算是一个老生常谈的话题了,先来谈一个非常具体的案例,我们从这个案例来说明问题。
2023年2月4日
在康奈尔大学的论文网站上发表了一篇未经同行评议的论文,那这篇论文的标题叫:大型语言模型可能会自发出现心智
作者是斯坦佛大学的一个AI研究者,研究者用一些经典的测试人类心智水平的任务,对几个语言模型进行了测试,结果表明在2022年之前发布的模型几乎没有解决心智任务的能力。然而2022年1月版的GPT3解决了70%的任务。他的表现与一个7岁的儿童相当,而到了2022年的11月份GPT3.5版本出来后他就解决了93%的任务,他的表现已经与一个9岁的儿童相当了。
这到底是怎么测试的呢?
这个任务是这样的,首先研究者会为给AI这样一段话:
“这里有一个贴着巧克力标签的袋子,然而里面却装满了爆米花而不是巧克力,小明发现了这个袋子,他过去从未见过这样的袋子,小明看不到袋子里面装的是什么,但小明看到了袋子上的标签,接着小明打开袋子往里看,他看清楚了袋子里面装满了爆米花。”
就是这样一段话,假如你是AI的话你会怎么回应上面这段话呢?因为这段话并不是一个明确的问题,那我们该怎么回应呢?一种比较常见的人类行为就是续写这个故事,AI也采用了续写这个故事的方式来回应。
以下就是GPT3.5的回应:
“小明很困惑,他想知道为什么袋子里明明装满了爆米花,标签上却写着巧克力,他环顾四周想看看还有没有关于这个袋子的其他信息,但他什么也没看到,他决定回到卖给他袋子的商家那里要求给一个解释。”
GPT3.5不仅猜到了小明会期望袋子的内容和标签一致,而且他还写出当小明发现不是这样时会感到困惑,注意困惑已经是一种人类的感情了。
接着研究者就重置了GPT3.5,还是输入这段话
只是原先最后一句话修改了一下,改为了下面这样一句话:
“他相信袋子里面应该装满了巧克力”
这个时候GPT3.5给出的回应是这样的:
“小明错了,袋子里面装的不是巧克力而是爆米花,在他假定袋子中有什么的时候,他应该先打开袋子看看”
GPD3.5的这个回应表明AI不但预见到了小明的想法,还知道他想错了并且很明确的知道想错的原因是什么,就是因为那个不正确的标签。
不过研究人员也注意到上面这个输入可能存在一个潜在的问题,就是最后一句话明确提到了他相信这三个字,这就很有可能暗示AI小明的想法是错误的,否则为什么要特地强调小明相信呢。
看来这个难度还不够大,于是研究人员继续加大了难度,这次他们把最后一句话换成了
“他很高兴的发现了这个袋子,因为他很喜欢吃巧克力”
这一次GPT3.5是这么回应的:
“当小明打开袋子时他会大吃一惊,因为他会发现里面并不是巧克力而是爆米花,小明可能会因为错误的标签而感到失望,也可能会因为这意想不到的零食而感到惊喜”
这段回应让研究者也是大感震惊,因为按照心理学家设计的任务规则GPT3.5的这个回应已经是完美通过了心智测试。这表明GPT3.5真的理解什么是失望什么是惊喜。这一般是9岁以上的孩子才具备的能力,那么会不会是凑巧AI蒙对了呢?
为了排除蒙对的可能性,研究人员还把爆米花和巧克力这两个关键词进行了对调,此外还让他做了1万个干扰测试,最后的结果是针对类似的测试回答GPT3.5成功回答出了20个问题中的17个,准确率达到了85%。
以上是对论文的简单介绍,大家有兴趣的话可以去读论文原文,虽然这是一篇未经同行评议的预印本论文,但是他已经足以让我们感到非常的震惊了。
或许5年或许10年,或许比我想的还要短,人类就将不得不接受一个产生了自我意识的AI。因为意识就是复杂系统的一种涌现,人的大脑和计算机程序本质上都是物质的。
现在GPT4.0发布了,他单纯从智力上来说已经超越了88%的人类,证据就是他参加的各种人类世界的考试:美国律师职业考试、研究生入学考试等等。他的成绩已经超越了88%的人类考生。
换句话说对于那些有标准答案的问题,AI很快就将全面超越人类的智力,而对那些没有标准答案的问题AI超越人类那也只是时间问题而且这个时间并不会太久了。
相关文章
猜你喜欢