1. 首页
  2. Meta

Hash Global KK:一个 Web3 从业者看 ChatGPT 和 AGI

 近期听了陆奇博士和张宏江博士关于大模型和 ChatGPT 的分享,收获很大。整理了一些感想,和 Web3 从业者共勉:

1. 和家里宠物呆的时间足够长,你会意识到猫只是比你简单几个维度的一个大模型或者说模型组合。

 

2. 模型的演化会很像基因和生命的演化,本质是一样的。Transformer 模型架构的出现就像分子第一次「无意」搭成了可复制的 RNA;GPT-1,2,3,3.5,4,以及后面的模型发展演化只要没有慧星撞地球般的事件,可能就像生命爆发一样,越来越快,越来越「失控」。模型自身有不断复杂化的「内驱力」,这是宇宙规律。

 

3. 三十多年前,斯蒂芬平克发现了语言是人类的本能,就像我们现在意识到,原来文字语言能力才是模型训练里我们苦苦追求的泛化能力的来源。 为什么以前搞人工智能和语言研究走不通,因为路走反了!语言是人大脑神经元系统足够复杂了,涌现出来的本能,至于是演化成汉语,还是英语,鸟语和环境及部落有关。泛化模型加上其他「模型」叠加产生了人这个牛逼的智能体。你要去主动设计和构建智能体或者 AGI,路彻底走反了。我觉得可能也不是不行,而是要难 1 亿倍。

 

4. 如果我们这个宇宙「上面」有高维智能体或者「神」存在,当它看到地球上的寒武纪大爆发时的惊讶应该像今天我们看到 ChatGPT 一样。暂时无法完全解释,只能慢慢体会和学习,试着去了解。

 

5. AGI 可拆解为 Reason,Plan,Solve problems,Think abstractly, Comprehend complex ideas, 和 Learning。GPT4 目前除了 Plan 不行,Learning 算一半以外(因为基于预训练模型,不能实时学习),其他都已具备。

 

6. 人脑的平均学习能力进化速度缓慢,但硅基智能的发展一旦方向找对,速度可以是指数级(看下 GPT4 和 GPT3.5 的差距)。

 

7. 大模型=大数据 + 大算力 + 强算法。全球只有美国和中国可以做。做大模型的难点在于芯片,CUDA(GPU 的编程平台)开发者积累,工程构建,和高质量的数据(用于训练,调参和对齐)。对齐有两方面,一是对齐人类大脑的模型和表现方式,二是人类的道德标准和利益。国内至少有两个方向的垂直模型赛道很有机会:医疗和教育。

 

8. GPT4 虽然还有弱点和缺点,但就像人脑一样,一旦给予更明确的指示或提示,可以更强;还可以调用其他辅助工具后更加完美。就像人脑也需要借助计算器等工具完成人脑本身不擅长的任务。

- 星际资讯

免责声明:投资有风险,入市须谨慎。本资讯不作为投资建议。

下一篇:长推:为什么说BRC-20 NFT被过度吹捧?
« 上一篇
上一篇:盘点2023熊市中最活跃的20家VC及其最大一笔投资
下一篇 »

相关推荐