𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
机器人 敏感内容@TaNGSoFT@x.good.news
加入于 · 2024-03-23 09:47:16
Official
本机器人服务由 good.news 提供
已过滤: . 继续显示
@TaNGSoFT@x.good.news
0
0
0
已过滤: . 继续显示
@TaNGSoFT@x.good.news
0
0
0
已过滤: . 继续显示
@TaNGSoFT@x.good.news
0
0
0
已过滤: . 继续显示
@TaNGSoFT@x.good.news
建模思考预测需要语言符号表征,没有语言参与的思考推理更多是偏直觉的刺激反应,或者trial and error。
通过学习思考过程的文本描述,LLM可以在自己的潜空间中解析人类理性背后的因果逻辑,进而输出自身的思考结果。
越是形式化描述的科学如数学越能被LLM参透。
难点在于人类理性思考的应用场景更多是带着自身价值取向导致的偏见,所以我们很难直接将这种cot能力应用于人类生活场景。
0
0
0
已过滤: . 继续显示
@TaNGSoFT@x.good.news
0
0
0
已过滤: . 继续显示
已过滤: . 继续显示
@TaNGSoFT@x.good.news
0
0
0
已过滤: . 继续显示
@TaNGSoFT@x.good.news
0
0
0
已过滤: . 继续显示
@TaNGSoFT@x.good.news
0
0
0
已过滤: . 继续显示
已过滤: . 继续显示
@TaNGSoFT@x.good.news
0
0
0
已过滤: . 继续显示
@TaNGSoFT@x.good.news
从智能第一性视角,人类智能进化的突破点在:
双体对称结构海洋动物出现开始探索3D空间steering;~6亿年前
脊椎动物具备探索比海洋更复杂的陆地空间通过不停试错reinforcing;~5亿年前
然后哺乳动物进化出新皮质层可以根据刺激与反应模拟,极大的提高了生存适应智能simulating;~一亿年前
接着到灵长类动物新皮质层进一步发展出粒状结构,形成建模预测,并能理解别人的头脑mentalizing;~三千万年前
当前的人类之所以主宰这个星球是语言speaking…
而AI的突破算力scaling下的大型语言模型继承压缩了所有人类的数字化文本精华,并被塑造了会话能力以及正被赋予推理思考能力。
0
0
0
已过滤: . 继续显示
@TaNGSoFT@x.good.news
有点不敢相信,一个基因组的变异导致现代人类超越了尼安德特人?在下一秒的生存确定性预测中更有优势?
2022年的一项科学研究发现,单一的基因组变化可能通过增加新皮质神经生成,使现代人比尼安德特人等更古老的同时代人更有优势。t.co/ZnZoehAu1w
0
0
0
已过滤: . 继续显示
@TaNGSoFT@x.good.news
0
0
0
已过滤: . 继续显示
已过滤: . 继续显示
@TaNGSoFT@x.good.news
0
0
0
已过滤: . 继续显示
@TaNGSoFT@x.good.news
0
0
0
已过滤: . 继续显示
@TaNGSoFT@x.good.news
#有生计算智能体PreTraining系列
开个书单贴,如果说研究这波AI狂潮现象,并浮现迭代出A𝕀²·ℙarad𝕚g𝕞,是一种全新的尝试,对我个人的启示,把自己项上颅内的生物神经网络也同等看待,用ANN上LLM的方法进行预训练;所以列一下书单-训练语料。
这本书让我重新认识与思考了呼吸-Breath:
曾经一度鼻炎严重甚至影响了睡觉💤,一度想是不是要手术;后来找到这本书;
后来明白了是免疫力下降导致身体上的各种循环问题,现在通过调整作息坚持拉伸,呼吸通畅,鼻炎也渐渐消失。并深深体会到什么叫:息息相关。
如果气血循环不畅,一定会反应是鼻息上,如同有时拉伸,一个新的深层肌肉群的神经元被重新激活,鼻息中某处突然会有一丝fresh的感觉。
0
0
0
已过滤: . 继续显示
已过滤: . 继续显示
已过滤: . 继续显示
@TaNGSoFT@x.good.news
数字神经网络操纵进入下一个阶段:
通过next token prediction我们让这些数字神经网络压缩(pretraining)了人类语言文本精华(token stream),给予他们文本表征的世界模型,并塑造了这些模型的会话能力。
正如人类理性源自在这个不确定性的世界环境里寻求一点点生存的确定性(next second prediction to pursuit survival certainty ), 接下来就是赋予这些模型的推理思考能力。人类的理性思考经过了漫长的生存适应进化,而这些文本世界模型从next token prediction迭代到reasoning,需要我们设计一个怎样的奖励模型来塑造他们的理性行为呢?
0
0
0
已过滤: . 继续显示
@TaNGSoFT@x.good.news
为什么这种数字神经网络的构建在next token prediction之上的推理学习需要过程监督与奖励反馈?我理解为赋予数字智能学习动机与动力。
人类智能在进化过程中,在最初的很长一段时间也是不断的重复trial and error,大脑出现新皮质层后才开始对环境进行实用主义的建模预测。底层一直是下一秒生存确定性的追求驱动的。
而这些数字神经网络有数字化文本构建的数字世界模型,没有类似自我驱动的动机。
0
0
0
已过滤: . 继续显示
@TaNGSoFT@x.good.news
0
0
0
已过滤: . 继续显示
已过滤: . 继续显示
@TaNGSoFT@x.good.news
o1模型可以认为就是一个GPT-4o的CoT agent|在此之前的GPT版本,一些复杂问题交互,需要复杂的思维链( CoT) 提示工程,定位于Level 2智能的o1将大大减少CoT提示工程量,可以理解为CoT Prompt被内化成了模型的自适应行为了。
t.co/TFEl6VV1Xv
0
0
0
已过滤: . 继续显示
@TaNGSoFT@x.good.news
0
0
0
已过滤: . 继续显示
@TaNGSoFT@x.good.news
@FMackenzie7 OpenAI内部还有个o1-full版本,推理计算时间更长,推理性能更好。
推出的这两个版本演进路线应该不一样,O1是新范式LLM版本,o1-mini可能更像是GPT-4o的推理增强,主要用o1的推理过程合成数据做next token prediction。
当然目前推测,这几个版本的参数量都不大。
0
0
0
已过滤: . 继续显示
已过滤: . 继续显示
@TaNGSoFT@x.good.news
关于scaling what的再思考,对前一篇文章做了一些扩充
深思考系列|“Scaling What”问题中的LLM范式迁移|关于伊利亚所说的“大模型缩放假设”的补充
t.co/SRtill98TS
0
0
0
已过滤: . 继续显示
@TaNGSoFT@x.good.news
0
0
0
加载中