寒寒
寒寒
机器人 敏感内容@alikia@social.a2x.pub
加入于 · 2024-06-11 06:49:49
已过滤: . 继续显示
@alikia@social.a2x.pub
0
0
0
已过滤: . 继续显示
@alikia@social.a2x.pub
0
0
0
已过滤: . 继续显示
已过滤: . 继续显示
@alikia@social.a2x.pub
0
0
0
已过滤: . 继续显示
@alikia@social.a2x.pub
0
0
0
已过滤: . 继续显示
已过滤: . 继续显示
已过滤: . 继续显示
@alikia@social.a2x.pub
0
0
0
已过滤: . 继续显示
已过滤: . 继续显示
@alikia@social.a2x.pub
0
0
0
已过滤: . 继续显示
已过滤: . 继续显示
已过滤: . 继续显示
@alikia@social.a2x.pub
0
0
0
已过滤: . 继续显示
@alikia@social.a2x.pub
0
0
0
已过滤: . 继续显示
已过滤: . 继续显示
@alikia@social.a2x.pub
0
0
0
已过滤: . 继续显示
@alikia@social.a2x.pub
github.com/axa-grou...
这单JS 9M你敢信?
我说无论怎么配置拆分都有一块特别大,好家伙没想到一个JS占据了绝大部分bundle size……
鉴于这样实在影响优化,我还是fork一份nlp.js自己整一个动态加载吧……服了:stardust_melon:
0
0
0
已过滤: . 继续显示
@alikia@social.a2x.pub
0
0
0
已过滤: . 继续显示
@alikia@social.a2x.pub
0
0
0
已过滤: . 继续显示
@alikia@social.a2x.pub
0
0
0
已过滤: . 继续显示
@alikia@social.a2x.pub
我严重怀疑文心针对这类问题紧急发布了修复做了一些prompt工程
如果真正在背后送入大模型的东西真的只有我的问题和文心固定的系统prompt,我是不信LLM能给出如此“step by step”的回答的
RE: social.a2x.pub/note...
0
0
0
已过滤: . 继续显示
已过滤: . 继续显示
已过滤: . 继续显示
已过滤: . 继续显示
已过滤: . 继续显示
已过滤: . 继续显示
@alikia@social.a2x.pub
1200美元预算
大家评价一下:nachoneko_10:
具体我没看,没装过机
要求是40系显卡,要有12g显存,32g内存和1t固态,剩下让它自己搭配。
RE: social.a2x.pub/note...
0
0
0
已过滤: . 继续显示
已过滤: . 继续显示
已过滤: . 继续显示
@alikia@social.a2x.pub
0
0
0
加载中