科技

ChatGPT-40发布AI顺我者昌逆我者亡人类何去何从

3月15号AI界有一个大新闻就是GPT4.0发布了,它吸引了全世界科学爱好者的目光。

 

ChatGPT-4.0发布

AI的发展速度超乎了人们的想象,同时人们对未来AI会不会像电影里一样超越人类甚至替代人类感到忧虑。

很多人都认为AI依赖人类投喂的数据,AI做的他只不过是高效率的处理人创造出来的知识,按照概率来组合拼接文字,自己并没有创造力也并不是真的懂自己写出来的那些东西。

但这种认识真的需要更新了,在初始阶段我们需要用数据去训练AI这没有错,但并不能因此就得出AI没有创造力的结论。

就想想我们人类自己吧,我们每个人不都是从一张白纸开始的吗。我们求学的过程就相当于是AI学习的过程,可是爱因斯坦在学完了所有前任的知识后创造性的想出了相对论。

因此说AI因为是被人类创造的数据训练出来的就得出AI不可能超越人类智力,这在逻辑上是不成立的。人可以做到说明AI也有做到的可能性,并且现在的AI其实已经做到了,至少是部分做到了。

如果是业余棋手下出这步棋,不感到意外,但AlphaGo这么下只有两种可能性:

一种可能是他真的出昏招了,一种可能是他已经超越了我们人类对围棋的理解。

今天我们都知道AlphaGo这步棋属于后一种情况,也就是他真的超越了人类对围棋的理解。

AlphaGo虽然是用我们人类的棋谱训练出来的但是他已经发现了超越人类现有理解力的棋理。那等到了阿尔法狗的升级版也就是master出来后,他已经不再需要任何人类棋谱来训练了,他是自己和自己下棋,自己训练自己。人类做的只是告诉他围棋的规则,剩下的就全靠他自己学习了。

现在已经不会有职业棋手妄想可以战胜AlphaGo了

可能偶尔会有什么利用一两次他的缺陷战胜他一次,但是他很快就补上了。

那既然围棋AI可以这么做,其他领域也一样可以。

别忘了我们这个世界的底层规则,无非就是不多的几条物理和数学法则。人类现在积累的所有科学知识,我们如果追到最底层其实也都是一些最基本的公理。

比如说相对论的大厦就是建立在爱因斯坦相对性原理和等效原理这两个基本公理再加上黎曼几何之上的。那既然爱因斯坦能从这些基本的物理和数学的法则中推导出相对论,AI为什么不可以呢?或许AI很快就能推导出全新的物理定理了。

所以我们的观念真的该升级了!

用人类数据喂大的AI超越人类智力,这就好像老师教的学生超越了老师一样,不要为此感到不可思议。

这个技术简单来说就是两个程序左右互博,一个扮演创作者一个就扮演品鉴者。品鉴者可以先用人类创作的艺术品来训练出品味,而创作者则从随机创作开始,品鉴者就给这个0基础的小白打分,创作者的创作能力会被品鉴者不断的提高。

这里的品鉴者和创作者的关系并不是像我们人类中的师傅和徒弟的关系一样,品鉴者他是只管评分不管教的,创作者要从随机乱创作开始,然后根据反馈不断的自己找到提高的规律。

这种方法对我们人类是没用的,因为人的寿命和创作速度是有限的,我们没有办法在短短的一生中靠这种方法来提高自己,我们得有师傅带徒弟这样子交出来。但是AI不一样,它可以在瞬间创作人类用一生也完不成的作品数量。

2018年10月份佳士得拍卖行以300万元人民币的价格卖掉了一张用GAN技术生成的画

这被认为是人类第一张用AI创作的艺术品,但是我们都不得不说这张画显得还是很粗糙

任何人都很容易看出他比人类的绘画水平差远了。

AI绘画的作品

但如果有人以为GAN技术生成的画最多也就是达到以假乱真和人类艺术家相当的水平,那么他又OUT了。实际上GAN技术中作为品鉴师的这一方也是可以被创作者反过来训练的,当创作者达到品鉴师能给出的最高分时,量变就会开始引起质变。这个时候品鉴师和创作者就开启了互相学习模式。这就好像围棋程序master不再需要人类的棋谱,自己跟自己下棋一样。

创作者和品鉴师开启了AI的华山论剑模式,而我们人类只能站在一边看他们的精彩表演,时不时的鼓鼓掌发出惊叹声。

AI的成长速度它是加速式的,而且这个加速度极快。或许5年前我们会惊叹于AI终于画出了有点像是人手绘的作品,到了今年呢,我们就惊叹于AI画出来的作品,真的可以以假乱真了。或许到了明年再看AI画师,他已经达到了人类只能是仰望的高度。

不过我认为艺术家这个职业还会存在,只是他的工作方式很可能已经被AI给彻底改变了。

最后再来看一个常见的争议话题:AI到底能不能产生意识呢?

这其实算是一个老生常谈的话题了,先来谈一个非常具体的案例,我们从这个案例来说明问题。

2023年2月4日

在康奈尔大学的论文网站上发表了一篇未经同行评议的论文,那这篇论文的标题叫:大型语言模型可能会自发出现心智

作者是斯坦佛大学的一个AI研究者,研究者用一些经典的测试人类心智水平的任务,对几个语言模型进行了测试,结果表明在2022年之前发布的模型几乎没有解决心智任务的能力。然而2022年1月版的GPT3解决了70%的任务。他的表现与一个7岁的儿童相当,而到了2022年的11月份GPT3.5版本出来后他就解决了93%的任务,他的表现已经与一个9岁的儿童相当了。

这到底是怎么测试的呢?

这个任务是这样的,首先研究者会为给AI这样一段话:

“这里有一个贴着巧克力标签的袋子,然而里面却装满了爆米花而不是巧克力,小明发现了这个袋子,他过去从未见过这样的袋子,小明看不到袋子里面装的是什么,但小明看到了袋子上的标签,接着小明打开袋子往里看,他看清楚了袋子里面装满了爆米花。”

就是这样一段话,假如你是AI的话你会怎么回应上面这段话呢?因为这段话并不是一个明确的问题,那我们该怎么回应呢?一种比较常见的人类行为就是续写这个故事,AI也采用了续写这个故事的方式来回应。

以下就是GPT3.5的回应:

“小明很困惑,他想知道为什么袋子里明明装满了爆米花,标签上却写着巧克力,他环顾四周想看看还有没有关于这个袋子的其他信息,但他什么也没看到,他决定回到卖给他袋子的商家那里要求给一个解释。”

GPT3.5不仅猜到了小明会期望袋子的内容和标签一致,而且他还写出当小明发现不是这样时会感到困惑,注意困惑已经是一种人类的感情了。

接着研究者就重置了GPT3.5,还是输入这段话

只是原先最后一句话修改了一下,改为了下面这样一句话:

“他相信袋子里面应该装满了巧克力”

这个时候GPT3.5给出的回应是这样的:

“小明错了,袋子里面装的不是巧克力而是爆米花,在他假定袋子中有什么的时候,他应该先打开袋子看看”

GPD3.5的这个回应表明AI不但预见到了小明的想法,还知道他想错了并且很明确的知道想错的原因是什么,就是因为那个不正确的标签。

不过研究人员也注意到上面这个输入可能存在一个潜在的问题,就是最后一句话明确提到了他相信这三个字,这就很有可能暗示AI小明的想法是错误的,否则为什么要特地强调小明相信呢。

看来这个难度还不够大,于是研究人员继续加大了难度,这次他们把最后一句话换成了

“他很高兴的发现了这个袋子,因为他很喜欢吃巧克力”

这一次GPT3.5是这么回应的:

“当小明打开袋子时他会大吃一惊,因为他会发现里面并不是巧克力而是爆米花,小明可能会因为错误的标签而感到失望,也可能会因为这意想不到的零食而感到惊喜”

这段回应让研究者也是大感震惊,因为按照心理学家设计的任务规则GPT3.5的这个回应已经是完美通过了心智测试。这表明GPT3.5真的理解什么是失望什么是惊喜。这一般是9岁以上的孩子才具备的能力,那么会不会是凑巧AI蒙对了呢?

为了排除蒙对的可能性,研究人员还把爆米花和巧克力这两个关键词进行了对调,此外还让他做了1万个干扰测试,最后的结果是针对类似的测试回答GPT3.5成功回答出了20个问题中的17个,准确率达到了85%。

以上是对论文的简单介绍,大家有兴趣的话可以去读论文原文,虽然这是一篇未经同行评议的预印本论文,但是他已经足以让我们感到非常的震惊了。

或许5年或许10年,或许比我想的还要短,人类就将不得不接受一个产生了自我意识的AI。因为意识就是复杂系统的一种涌现,人的大脑和计算机程序本质上都是物质的。

现在GPT4.0发布了,他单纯从智力上来说已经超越了88%的人类,证据就是他参加的各种人类世界的考试:美国律师职业考试、研究生入学考试等等。他的成绩已经超越了88%的人类考生。

换句话说对于那些有标准答案的问题,AI很快就将全面超越人类的智力,而对那些没有标准答案的问题AI超越人类那也只是时间问题而且这个时间并不会太久了。