OpenAI动荡背后的路线之争:有效利他主义与有效加速主义
OpenAI管理层的动荡,大概是前两周科技圈最热的新闻,讨论非常多。相比商业部分,我对陶芳波在这档播客节目中提到的AI路线之争更感兴趣,原来OpenAI成立至今8年的时间中,路线之争一直存在,并发生过多次分裂,此前最著名的一次是2021年几位OpenAI早期员工离职创建Anthropic公司,并推出GPT的竞品Claude。Claude应该是目前市面上,仅次于GPT的AI对话产品。
所谓路线之争,主要是两派:有效利它主义(EA)和有效加速主义(E/ACC),两者都支持AI的发展,只是前者偏保守,追求确保AI安全的前提下进行产品化和商业化;后者更激进,希望加速产品化和商业化。
陶芳波基于Sam和Ilya近期的采访认为,GPT-5技术上应该有大的突破,以至Sam和Ilya可能在对技术应用产生分歧,这是导致Ilya投票同意辞退Sam的原因之一。
我不知道这两个路线哪个更好,但我对人性(作为整体的乌合之众)比较悲观,并认为在利益面前,有效加速主义将胜出。
Ilya在某次采访中做了个比喻表达他的担心说:AI和人类的关系可能会发展成人类与宠物的关系。——人类爱宠物,但这个爱不平等。
当前AI的发展速度似乎比移动互联网还快,ChatGPT发布仅仅一年时间,已经有很多产品真真切切的侵入到生活和工作当中,甚至影响了某些行业的就业机会。移动互联网短短15年已经彻底颠覆了人们的生活,15年后的AI会是什么样的?想想挺可怕。
(2023-11-28@上海)
劣币不一定总能驱逐良币,要看土壤,不必过于悲观
哈哈,希望发展慢点,已经适应不了如此快速的变化了。
OpenAI的官网(https://openai.com/)给出了这个slogan“Creating safe AGI that benefits all of humanity”,希望真的能够实现。
关于AGI安全,我有一个问题:如何评估大模型具备了自我意识,如果发现大模型具备了自我意识,人类应该怎么办?
好问题,值得研究学习下。
一个感受是:人类对自己的意识也没研究明白。
于是,这个AGI就更加充满了未知。
我觉得AI还是更多的去服务人类,至于说AI颠覆人类,控制人类等一些科幻片中的情节我觉得还太遥远。
感觉已经临近,主要是最近100年,科技发展真的太快,表现出了非常高的加速度。在我们的有生之年,可能会有颠覆性的进展,并带来社会形态的改变。
感觉是美国佬的阴谋,哈哈。
路线只是一个方面。
这件事,肯定有利益在里面,不可能只是路线的分歧。
但Sam做CEO做到「员工都要跟着走」的水平,也是相当牛逼。
想知道你怕的是什么
就是Ilya那个比喻:人类成为AI的宠物。或者更宽泛的讲,出现比人更高级的物种,但人与之不是平等关系。
这是基础的伦理秩序的变化。如果确实有一天发生了,我不知道这是好事还是坏事,仅仅对这种可能性、不确定性就会觉得挺可怕的。
如果科技发展慢点,在自己有生之年碰不到也行,但又觉得以现在的发展速度,可能是有生之年的事,就会更茫然。
我还是喜欢稳定,在既有的经验下生活,大概年纪大了害怕变化。
明白了。
对我来说,没什么可怕的。
你的状态很好,乐观主义 & 活在当下。
个人觉得和ai的具体应用相关了。觉得得孵化出短视频app这种全民性应用才会颠覆人类的生活
直觉上,我相信全民的AI应用,会很快到来,但也想象不出它的形态会是什么样的。