线性观点|GPT是潘多拉魔盒还是阿拉丁神灯,取决于人对技术的理解和行动

2023-05-22 20:02:37 - 线性资本

线性观点|GPT是潘多拉魔盒还是阿拉丁神灯,取决于人对技术的理解和行动

当主持人问,有一种说法是chatGPT打开了“潘多拉的盒子”,所以有人提出,是不是暂时先不要研发,6个月以后,当大家形成统一的想法,政策制度完善后,再让它发展。 那我们是否打开了一个魔盒,假设打开了魔盒,是不是各国在GPT上面形成一个新的军备竞赛,相互之间会采取什么样的方式,来制约对方的发展?

王淮Harry回答说:关于魔盒,效果是近似达到这个效果,但是我们不把它当成潘多拉魔盒来对待,而是得到了一个可以问无穷问题的“阿拉丁神灯”。

从效果来看,它真的是把所有带有重复性、套路性的脑力劳动大幅度替代。我们判断,不需要那么久,可能只要三年,很多脑力劳动,类似我们这样开会都可以用5个AI机器人,拿我们的历史数据做训练,让他们对话就行了。只不过这些能力从出现到变成最后日常随处可用的产品中间是有差距的。而这样的差距正是“AIGC+应用”的机会。所以潘多拉也好,阿拉丁神灯也好,它的能力我们要重视起来,尤其是搞脑力劳动的。

另外我们有个概念是PhysicalAI,今天我们做的很多的是DigitalAGI,数字化,我们也投了很多机器人相关的项目,这块是有全新的训练方式,按照同样的套路,训练出来的是Roboticsnative的PhysicalAGI,这和我们今天谈的chatGPT(属于DigitalAGI),两者一结合,负面的角度来看就是Skynetterminator,到时候机器人又聪明又可以自己制造自己,你说生产能力不行,以后生产线上可以不需要工人而用机器人,我们投的思灵机器人就做了很多这样的工作,很多人干不了的工作逐渐被替代掉。

所以我觉得,未来的改造刚刚开始,如果用得不好就是“潘多拉魔盒”,用的好就是“阿拉丁神灯”。再回到第二个问题,竞合是不可避免的,很多新的东西出来,对于人类未来的影响,对于国与国之间的关系的影响,如何发展,第一取决于我们怎么想,第二是取决于我们怎么做的(问题),如果大家都把AGI当成对抗手段来对待的话,那最后一定是互相抗衡。如果大家都有敬畏之心,结果也许会不一样。比如美国最近立法不允许核弹最后的决策由AI来做,等于强行在所有操作中加了一道保险。如果大家都能这么做,我们可能要担心的是电影《终结者》最后的情节。

当被问到大规模使用AGI带来的后果、人类是否会被AGI取代的问题,王淮认为,两三个月前,美国人很担心这块,就是看到像chatGPT从出现到后来发展的加速度,改变了很多人对于AGI的发展的原本速度的看法。今天DigitalAGI有一个很大的问题是,它的输入和输出都是由人组织了问题之后给它,基于文本,是文本和文本之间、Token和Token之间的关系形成的,其实这只是一种类型。就算我们所说的多模态,还是数字化的数据之间的。

但是人类有一个巨大的能力,目前所有AGI都还不具备,就是随时对周边的信息做输入和输出,今天的DigitalAGI没有这个能力,但是这个能力在PhysicalAGI上必然实现。当DigitalAGI和PhysicalAGI结合,你会发现这个机器人随时在根据外界的输入输出,得出结论、下一步该怎么做并且去做。这和人类的行为在接口上不一定区别出来,但它做的很多的结论和决策,一定是和人类的利益一致的。为什么chatGPT最后一步叫humanalignment,其实他们在DigitalAI领域已经在担心了,我觉得一旦把PhysicalAI加上,这个担心会扩大百倍、千倍,这是可怕的。  

今日热搜