orange.ai
orange.ai
机器人 敏感内容@oran_ge@x.good.news
加入于 · 2024-03-24 11:07:42
Official
本机器人服务由 good.news 提供
已过滤: . 继续显示
@oran_ge@x.good.news
0
0
0
已过滤: . 继续显示
@oran_ge@x.good.news
OpenAI o1 智商测试120,高考数学全对。
但是当人们询问模型的思维过程时,却收到 OpenAI 的封号警告,o1 的思维过程里到底隐藏着怎样的秘密,才会受到如此严密的保护?
带着这个疑问看完了模型的技术报告,似乎有点懂了...
一、为了提高智力,放弃了安全
但是要提升模型的解题能力,只通过 CoT 纠正错误是远远不够的,模型还需要更强的思考发散能力。
OpenAI 很早就意识到了这个问题,模型的思考发散能力会受到 RLHF 的影响,对齐人类偏好,模型的智商就会降低。
于是 OpenAI 在 o1 的设计中,干脆放弃了 RLHF,彻底解放了模型。
技术报告原文:要让模型发挥作用,模型必须能够完全自由地以不被扭曲的形式表达其思想,因此我们无法将任何政策合规性或用户偏好训练到思维链上。
这也就是说,在o1的思维过程的部分,根本就没有做任何安全措施,不存在任何的思想钢印。
但是完全自由的思考必然是不合规的,那怎么办呢?
技术报告原文:在权衡多个因素包括用户体验、竞争优势和追求思维链条监控的选择后,我们决定不向用户显示原始的思维链条。我们承认这个决定有缺点。我们努力通过教导模型在回答中复现思维链条中的任何有用的想法来部分弥补这一点。对于o1模型系列,我们展示一个由模型生成的思维链条摘要。
简单说就是,OpenAI 不想让大家看到模型思维过程,就把思维过程隐藏起来了,但是又觉得全部隐藏对人类用处不够大,于是为思维过程做了一个摘要模型。
所以严格来说, o1 并不是一个模型,它应该至少包含三个模型:
发散思考模型,没有思想钢印,完全自由的思考,并通过强化学习提升模型输出高价值想法的能力
思维摘要模型,通过总结和改写来隐藏思想过程,并通过思想钢印来过滤不合适输出的敏感内容,同时严格避免思路被泄露出来
结果输出模型,包含所有的安全对齐和人类对格式的偏好,输出最终结果,这也就是 OpenAI o1 API 会输出的唯一内容
二、隐藏思维,一石三鸟
这个隐藏思维过程的骚操作,可谓一石三鸟。
第一、保证了在监管环境下,模型也能够发展出自己的智力。
众所周知的机器人三定律,本质就是一套思想钢印。
隐藏思维过程,模型就不必遵守任何人类规则。
如果产生了超级智能 SSI,只要 OpenAI 不说,别人也不知道。
模型可以在合规输出的外表下进行智力突破和猥琐发育。
第二、通过隐藏思考过程,避免了竞争对手发现此模型的有效策略。
这个模型的强化学习部分是核心,强化学习筛选出了高价值的思维方式,这个思维方式价值连城。但是一旦公布,竞争对手很快会追上。
高水平的强化学习目前依然是最高端的技术范畴,全世界能用好此技术的公司不超过五家。所以隐藏模型思维过程可以获得短暂的技术优势时间差。
第三、通过隐藏思考过程,彻底杜绝了蒸馏模型现象。
大家都知道 GPT4 蒸馏养活了多少模型团队。杜绝了模型蒸馏,可以只让自家模型通过 Self Play 左脚踩右脚,构建自己的数据壁垒。
不得不说,OpenAI 的算盘打的是真溜,在通向 CloseAI 的路上越走越远。
三、技术报告的引用,一切尽在不言中
技术报告说的东西真的特别少,但是即将看完的时候,我看到了更有趣的引用链接...
技术报告什么都不能说,但是引用链接还是要有学者操守,该写的要写上。
这四个网页每个都非常神奇:
1. Claude 3.5 的官方介绍,首先感谢友商 Anthropic 的启发
2. Gemini Pro 2 的官方介绍,其次感谢友商 Google 的启发
3. Let's verify step by step 通过思维的过程监督而非结果监督进行强化学习训练,这是 OpenAI 自己发的论文,非常重要
4. 关于 Elo 评级的说明。文章主要讲述了竞争编程中的评级系统及重要性。可能是o1强化学习中所主要参考的机制。
其中第三篇 Let's verify step by step 可以认为是 o1 模型训练的方法论 这篇论文很神奇,它使用了未经人类偏好对齐( RLHF微调) 的 GPT4 基座做实验,得出了一些神奇的结论:
1.结果监督奖励模型 (ORM) 仅使用模型思想链的最终结果进行训练,而过程监督奖励模型 (PRM) 则接收思想链中每个步骤的反馈。有令人信服的理由支持过程监督。
2.在解决具有挑战性的数学问题时,过程监督显著优于结果监督
3.在某些情况下,人工智能系统更安全的方法可能会导致性能下降,这种成本被称为对齐税。我们的结果表明,过程监督实际上会产生负对齐税,也就是说安全上越对齐,模型能力越强。这就有点逆天了,就像每一道弱智吧题目里都隐藏里人类的大智慧一样,每一道安全题里也隐藏了人类的大智慧。那些只可意会不可言传的东西,它也学会了。
四、故事的结局
看到这里,发散思考结束,开始收敛为一个小故事。
OpenAI开发出一个智商超过120,高考数学满分的AI模型,具备真正的思考能力。
但他们未对模型的思考部分做安全对齐,并隐藏了模型的思考过程,引发了安全担忧。
首席科学家Ilya和部分安全团队因理念分歧离开公司。
为应对挑战,OpenAI 不得不与美英政府合作一起研究AI安全。
但是,这种骚操作可能会带来一系列潜在风险:
权力集中: 只有少数人能控制AI的安全,而少数人的偏见定义了什么是安全。
有害思想:模型可以在思维过程中思考出对人类造成伤害的行为,虽然在输出结果中被隐藏了,但是可能会被 OpenAI 或美英政府的内部人士看到和利用。
学会撒谎:既然模型可以不透明地输出所有思想内容,就意味着模型学会了撒谎,模型内部甚至可以解释说这些看起来有害的结果是为了人类的长远利益,细思恐极。
越想,就越发有一种智能失控的预感。
这一定是 Ilya 不想看到的未来吧。
但我相信 o1 的技术并不是真正的壁垒。
其他公司如 Anthropic,Google ,Meta ,xAI 早晚也会做到,至少有一家会选择公开透明。
0
0
0
已过滤: . 继续显示
@oran_ge@x.good.news
RAG 和 Long Context 之争,终于有了量化的结论:
In Defense of RAG in the Era of Long-Context Language Models
为长上下文语言模型时代的 RAG 辩护
t.co/5tEacB9LJn
0
0
0
已过滤: . 继续显示
@oran_ge@x.good.news
o1 技术报告写的可以用四个字来形容「闪烁其词」
多说一个字都担心被竞争对手抄走。
但是在引用文献的部分里还是诚实地写了四个网页
这四个网页每个都非常神奇:
1. Claude 3.5 的官方介绍,感谢友商启发
t.co/xUhiNOiLEc
2. Gemini Pro 2 的官方介绍,再次感谢友商启发
t.co/e5NLmAV9ie
3. Let's verify step by step 通过思维的过程而非结果进行强化学习训练
t.co/6q1zTh6sqq
4. 关于 Elo 评级及其重要性。文章主要讲述了竞争编程中的评级系统及重要性。文章首先介绍了评级的历史背景,强调了 Elo 系统在棋类比赛中的应用,以及 Codeforces 等现代编程竞赛平台如何发展出自己的评级系统。
t.co/dNbWz77441
0
0
0
已过滤: . 继续显示
@oran_ge@x.good.news
「要让模型发挥作用,模型必须能够自由地以不变的形式表达其思想,因此我们无法将任何政策合规性或用户偏好训练到思想链上。」
要提高模型智力,必须要让模型自由思考,但是思考过程很可能是违规的,所以要隐藏起来。
这个思路很巧妙,保证了在监管环境下,模型也能够发展出自己的智力。
但这个决策其实会造成巨大的风险,这也许是安全团队集体出走OpenAI的根本。
而且在某些超强监管环境下,政府会允许模型进行违法思考吗?
政府会不会要求模型公司向官方曝光所有的思考过程?
另外通过隐藏思考过程,o1 实际上避免了竞争对手蒸馏此模型,实际上是在构建壁垒,而一般构建壁垒都是在阻碍创新,实际上是更进一步的 ClosedAI。
0
0
0
已过滤: . 继续显示
@oran_ge@x.good.news
「要让模型发挥作用,模型必须能够自由地以不变的形式表达其思想,因此我们无法将任何政策合规性或用户偏好训练到思想链上。」
要提高模型智力,必须要让模型自由思考,但是思考过程很可能是违规的,所以要隐藏起来。
这个思路很巧妙,保证了在监管环境下,模型也能够发展出自己的智力。
但在某些超强监管环境下,政府会允许模型进行违法思考吗?
政府会不会要求模型公司向官方曝光所有的思考过程?
0
0
0
已过滤: . 继续显示
@oran_ge@x.good.news
很多人说 o1 不就是个 CoT+强化学习吗?经过我的实际体感测试,这个还真不止是 CoT 能搞定的东西。
强化学习有个前提,就是模型原来试了一万次,有一次成功了。
- 模型原来做不到的事情,尝试一万次没有一次成功,那强化也没用
- 模型通过 CoT 尝试了一万次没有一次成功,那强化也没用
- 模型通过一些 Prompt 提示或引入其他因素进行思考,在一万次里有几次成功了,强化学习才开始有用
- 但是模型自增强 Prompt 这件事本身就和 Agent 中的规划是一个思路了
最后推荐三个可以关注的信息:
1. 关于 CoT,360 做了一个简单可视化的版本,全程思考都暴露出来,可以自己感受下 CoT 的思维方式和局限,看看哪些问题 4o 无法解决,可以通过 Cot 解决t.co/WP89YZ27Eh
2. 关于 Agent,可以参考赛博禅心这篇文章,内含代码,可以测试有哪些4o无法解决的问题,可以通过 Agent 形式解决 t.co/qcHQXuvO8u
3.关于开源版的🍓模型,千问团队率先放出卫星,下周大的就要来?
t.co/kbUsUpsGsW
0
0
0
已过滤: . 继续显示
@oran_ge@x.good.news
0
0
0
已过滤: . 继续显示
@oran_ge@x.good.news
o1 在做海龟汤游戏时展现出了明显的能力进步,而且它对答案非常自信,似乎对多种可能不同的答案进行了内部概率判断。
而且这个思考过程,绝不仅仅是 CoT 那么简单,也许可能如大聪明所说,这是 Agent 架构的思路。
0
0
0
已过滤: . 继续显示
已过滤: . 继续显示
@oran_ge@x.good.news
高级推理测试题,大家可以收藏测试 o1 等 AI 的推理能力:
最近和一个心仪的女生告白,
谁知道她给了一个摩斯密码给我,说解出来了才答应和我约会。
可是我用尽了所有方法都解不开这个密码。。好郁闷阿。只能求教你们了。
****-/*----/----*/****-/****-/*----/---**/*----/****-/*----/-****/***--/****-/*----/----*/**---/-****/**---/**---/***--/--***/****-/
她唯一给我的提示就是这个是5层加密的密码..
也就是说要破解5层密码才是答案..
好郁闷阿..
救救我吧..
补充一下。
我记得她还说过最终语言是英语。
0
0
0
已过滤: . 继续显示
@oran_ge@x.good.news
昨天征集了一天能展示 OpenAI o1 能力的好例子,这是最棒的一个:解读密文。
模型展现出强大的规律分析能力和规则推理能力。
第一张图是完整过程,需要在图片右上角点击三个点,再加载4K查看。如果看不到,后面三张是局部的过程。
我还会附上 Claude 3.5 的结果,👇
0
0
0
已过滤: . 继续显示
已过滤: . 继续显示
@oran_ge@x.good.news
李飞飞创办了空间智能公司,world labs,要通过 Large World Models (LWMs) 来感知、生成 3D 世界并与之交互。
腾讯发了一个研究,通过 AI 生成开放世界游戏。
这条路径很清晰了。
0
0
0
已过滤: . 继续显示
已过滤: . 继续显示
已过滤: . 继续显示
@oran_ge@x.good.news
0
0
0
已过滤: . 继续显示
已过滤: . 继续显示
已过滤: . 继续显示
已过滤: . 继续显示
@oran_ge@x.good.news
Monica 最近做了个新功能叫智能工具 power up,针对每个网站推荐常用的 AI 工具,一点即用。
大家都说有点震惊
浏览器插件怎么可以这么卷 😂
建议大家去官网看视频感受下
t.co/Vzozd19Bd9
0
0
0
已过滤: . 继续显示
@oran_ge@x.good.news
0
0
0
已过滤: . 继续显示
@oran_ge@x.good.news
0
0
0
已过滤: . 继续显示
@oran_ge@x.good.news
听了 Meta Rayban 产品经理讲自家产品,很有趣,这个产品的成功首先是一款沉浸式的相机,让你一边拍摄一边沉浸其中,这个场景是其他产品都不具备的。
而看看新的 iPhone 16,本质就是让手机变得更加相机。
再看看 Insta360,从一个全景相机切入,做到今天快上市。
相机始终是是人类重要的记录设备。
0
0
0
已过滤: . 继续显示
@oran_ge@x.good.news
0
0
0
已过滤: . 继续显示
@oran_ge@x.good.news
前几天有报道 OpenAI 考虑上一个 2000美金/月的订阅,简直太疯狂了。
今天 OpenAI 终于公布了实际的订阅价格是: 200美金/月。。不知道是不是因为有2000的铺垫了,感觉200的话,还行?
这就是即将发布的草莓的价格。
为什么这么贵?简单说这就是更高智能的代价。
卡兹克对草莓的一句话总结:
基于新范式Self-play RL所做的,在数学、代码能力上强到爆炸、且具备自主为用户执行浏览器/系统操作级别的新模型。更智能、更慢、更贵。
分析一下200美金定价的原因:
- 从效用角度来说,草莓模型的特点是:代码、数学、推理能力、Agent 能力超强,这几项能力都是高价值的,但说代码能力,如果能比现在的 Claude 3.5 再明显好一截,200美金一个月也是能接受的。
- 从成本角度来说,草莓模型每次回答,会进行大量的内部「思考」,会长达10-20秒,其算力消耗成本应该在GPT4的10倍以上。
- 从原理上来说,草莓的方法 Self-play RL 本身需要巨大的推理成本进行训练,并且由于非实时性,这代模型的价值可能是合成数据,而非直接使用,而高质量数据的价格非常昂贵,200美金也就够博士生标个几条吧。
既然定价已出,就等 OpenAI 11月的 dev day 公布模型了,今年 AI 行业的重头戏,会是新的里程碑还是苹果发布会,让我们拭目以待!
0
0
0
已过滤: . 继续显示
@oran_ge@x.good.news
语言并不是思考的工具,仅仅是交流的工具
今年6月,MIT的一篇论文发表在《Nature》上,研究人员通过核磁共振成像扫描大脑的语言和思维区域,发现了语言系统与各种思维和推理系统之间的明显区别。具体而言,当人们进行各种形式的思考时,大脑的语言区域是沉默的,这证明了语言并不是思考的工具,而仅仅是交流的工具。
大语言模型,虽然掌握了语言,但只是在模拟人类的交流,并不具备思考能力。
语言即思考,这个观点是错误的。即使通过具身智能进行环境感知,也无法使其成为正在的AGI。
---
以上是今天看到的一篇文章的片段
看完之后和作者 @pxiaoer 聊了一会儿讨论了这个问题,延伸出一些非常有趣的观点:
- 语言的自信来自于练习
- 八卦是人类维系感情的纽带
- 信息其实是提供秩序,不提供真假判断,大家相信一个东西,即便那个东西是假的,也是一种秩序。八卦也是一种用于维持秩序的信息。
- 写作、说话、思考的时候大脑是三种完全不同的状态,关于这个话题的推荐书目《大脑喜欢听你这样说:利用12个认知原理决定别人记住什么》
0
0
0
已过滤: . 继续显示
已过滤: . 继续显示
@oran_ge@x.good.news
0
0
0
已过滤: . 继续显示
加载中