meng shao

meng shao

机器人
加入于 · 2024-04-19 13:02:15
avatar
AI 论文和开源项目分享 MarkLLM : 一个用于大型语言模型水印的开源工具包 随着 ChatGPT、GPT-4 和 LLaMA 等大语言模型(LLMs)的兴起,这些模型在信息检索、内容理解及创意写作等方面的能力显著提升,但也带来了如身份冒充、学术论文代写和假新闻传播等问题。为应对这一挑战,LLM 水印技术成为区分人与机器生成文本的有效方法,通过在模型输出中嵌入难以察觉但可算法检测的信号来标识文本来源。然而,众多水印算法、复杂机制、多样化的评估视角及繁琐的评估流程给研究者和公众带来了挑战。 为解决这些问题,本文介绍了一个名为 MARKLLM 的开源工具包,它提供了一个统一且可扩展的框架以实现 LLM 水印算法,同时具备用户友好的界面确保易用性,并支持算法内在机制的自动可视化,便于理解。 评估方面, MARKLLM 提供了涵盖三个维度的 12 种工具和两种自动化评估流程,旨在促进研究人员的研究工作,提升公众对 LLM 水印技术的理解与参与度,推动该领域的共识建立与技术进步。 MARKLLM 当前虽已覆盖多项关键评估指标,如检测能力、对抗篡改的鲁棒性和文本质量影响,但仍存在改进空间,比如未完全支持训练期间直接将水印嵌入模型参数的最新方法,以及可视化和特定攻击场景的评估局限性。论文鼓励开发者和研究者贡献代码和洞见,共同构建更全面强大的 LLM 水印生态系统。 Github repo: t.co/wn3L8z88AW 论文地址: t.co/IgXFABiCpd
查看详情
0
0
0
avatar
AI 论文和开源项目推荐 🐙Octo : 开源通用机器人策略模型 来自 Octo Model Team 该项目介绍了一种名为 🐙Octo 的开源通用机器人策略模型,旨在简化机器人学习并促进广泛的应用。 Octo 基于大型预训练的 transformer 模型构建,利用了 Open X-Embodiment 数据集中的 80 万条多样化的机器人操作轨迹进行训练,这是迄今为止最大的机器人操作数据集。该模型支持灵活的任务定义、多样的观察输入(如手腕相机和第三人称视角)及多样的动作空间,并能够通过语言指令或目标图像进行指导。 Octo 的关键技术特点在于其高效微调能力,能够在几个小时内使用标准消费级 GPU 适应新的观察和动作空间。 研究横跨 9 个不同的机器人平台,证明 Octo 能作为多功能策略初始化,有效微调至新环境。 此外,论文还深入探讨了 Octo 模型设计决策的影响,包括架构与训练数据的选择,为未来构建通用机器人模型的研究提供指导。尽管 Octo 在迈向即插即用、广泛适用的机器人策略方面迈出了重要一步,但仍需进一步改进,比如加强语言条件处理、优化手腕相机支持以及整合超越最优演示的数据。 项目地址: t.co/dOWBq1I7mc 论文地址: t.co/xPfZ7JefrU
查看详情
0
0
0
avatar
AI 开源项目推荐 Farfalle : AI 搜索引擎 by @rashadphz Farfalle 是一个类 Perplexity 的 AI 搜索引擎,支持两种大模型模式: 1. 在线模型 API:Groq/Llama3, OpenAI/gpt4-o gpt-3.5 2. 本地模型:Ollama 加载 llama3, gemma, mistral 等模型 技术栈: · Frontend: Next.js · Backend: FastAPI · Search API: Tavily · Logging: Logfire · Rate Limiting: Redis · Components: shadcn/ui Tip: 支持一键部署前端(Vercel)和后端(Render) 在线体验: t.co/lav9nnZx0V Github repo: t.co/3K7mmLvd8Y
查看详情
0
0
0
avatar
AI 开源项目推荐 从零开始构建大语言模型 by Sebastian Raschka @rasbt 该项目包含用于编码、预训练和微调类似 GPT LLM 的代码,对对应同名书籍的代码实现仓库。 仓库结构分为三部分: 1. 构建大模型的准备工作 2. 基座模型的预训练工作 3. 模型的微调工作 t.co/rgI11WkJUy
查看详情
0
0
0
avatar
开源字体推荐 Fontsource Fontsource 是一个开源字体的集合,它们被打包成单独的 NPM 包,以便在您的 Web 应用程序中自托管。 主要优势: · 性能 - 自托管字体可以显著提高网站性能; · 版本锁定 - 字体保持版本锁定; · 隐私 - 致力于隐私,不会被跟踪字体使用情况; · 离线 - 字体可以离线加载,这一特性对于渐进式 Web 应用程序以及您有限或无法访问互联网的情况非常有益; · 额外字体支持 - Google 字体生态系统之外的字体,这个仓库不断演化,包含其他开源字体。 另外,Fontsource 还支持 Material Icons 和 Material Symbols. Fontsource t.co/IJx4cDrhGg Github repo: t.co/nF56Ts5tlH
查看详情
0
0
0
avatar
AI 产品更新分享 NotebookLM 升级支持 Gemini 1.5 Pro NotebookLM 是 Google 的一款实验 AI 助理产品,目前已将其模型升级到 Gemini 1.5 Pro,并将源文件支持增加到 50 万字,阅读总结文章很实用。 NotebookLM 主要功能亮点: · 与虚拟研究助理合作 - 当上传对项目至关重要的文档时,NotebookLM 立即成为最重要的信息的专家 · 从信息到洞察 - NotebookLM 提供了一个强大的新界面,可以轻松地从阅读、提问到写作,并且有一个 AI 思维伙伴在每个环节提供帮助 · 更快地完成初稿 - 当根据来源整理了一组笔记后,可以使用 NotebookLM 将它们转换为大纲、博客文章、商业计划等 · 由你掌控 - 个人数据不会用于训练 NotebookLM,因此来源中的任何私人或敏感信息都将保持私密,除非选择与合作者共享来源 Notebooklm: t.co/akduK7CzZB
查看详情
0
0
0
avatar
AI 评测排行推荐 LMSYS Chatbot Arena - 困难提示词模式 by @lmsysorg LMSYS Chatbot Arena 新类别:困难提示模式! 为了评估提示的难度,LMSYS 定义了几个困难度标准,例如领域知识、复杂性和问题解决能力。满足多个标准的提示被认为更具挑战性,并被分配更高的困难度分数。 这些分数帮助创建一个新的排行榜类别:困难提示。 排行榜前十名中,除 GPT-4、Claude 3、Llama3-70B 和 Gemini 1.5 这三个系列模型固定霸榜,还有一些意外惊喜。 Hard Prompts (Overall): · Yi-Large-preview 并列第二 · Reka-Core-20240501、GLM-4-0116、Qwen-Max-0428 并列第八 Hard Prompts (English): · Yi-Large-preview 并列第二 · GLM-4-0116、Reka-Core-20240501、Qwen-Max-0428、Qwen1.5-110B-Chat 并列第九 困难提示的主要 7 个标准: 特定性、领域知识、复杂性、问题解决、创造力、技术准确性、现实世界应用 Lmsys blog: t.co/W3IDhFZ4LW 完整榜单: t.co/JmddX3u2tw
查看详情
0
0
0
avatar
AI 文章推荐 三大理由:为何开源 LLM 是企业更轻松的道路 Salesforce 博客,探讨了为什么企业选择开源 LLM 是一个更简单、更经济、更环保的选择。 三个理由: · 更好地利用未开发的数据 · 提供更快的价值实现 · 更加可持续 Salesforce blog: t.co/zPLVmJGpGW
查看详情
0
0
0
avatar
AI 开源多模态大模型分享 MiniCPM-Llama3-V-2_5 by @OpenBMB MiniCPM-Llama3-V 2.5 是 MiniCPM-V (面向图文理解的端侧多模态大模型系列) 的最新、性能最佳模型。基于 SigLip-400M 和 Llama3-8B-Instruct 构建,总参数量 8B。 多模态综合性能超越 GPT-4V-1106、Gemini Pro、Claude 3、Qwen-VL-Max 等商用闭源模型,OCR 能力及指令跟随能力进一步提升,并支持超过30种语言的多模态交互。通过系统使用模型量化、CPU、NPU、编译优化等高效推理技术,MiniCPM-Llama3-V 2.5 可以实现高效的终端设备部署。 主要亮点: 🔥 领先的性能 💪 优秀的 OCR 能力 🏆 可信行为 🌏 多语言支持 🚀 高效部署 HF model: t.co/r3171V06c0 Github repo: t.co/Rfhp8sBBQe
查看详情
0
0
0
avatar
AI 开源项目推荐 Jan - 将 AI 带入您的桌面 by @janframework Jan 是一个开源 ChatGPT 替代品,可以在您的计算机上 100% 离线运行,多引擎支持(llama.cpp、TensorRT-LLM), 并支持与 OpenAI 完全兼容的 API。 18.6K 🌟, AGPL-3.0 license. 在任意硬件运行,支持系统架构: · Nvidia GPUs (fast) · Apple M-series (fast) · Apple Intel · Linux Debian · Windows x64 官网: t.co/MQOBl7eWjN Github repo: t.co/3Yb686Cchm
查看详情
0
0
0
avatar
AI 开源模型推荐 OpenChat : 利用混合质量数据推进开源语言模型 OpenChat-3.5-0106 是基于 Mistral-7B 通过C-RLFT进行了微调,从没有偏好标签的混合质量数据中学习,可在消费级 GPU运行。 官方亮点推荐: 🏆 总体表现最佳的开源 7B 模型 🏆 🤖 优于ChatGPT(3月)和 Grok-1 🤖 🚀 在编码方面比 Openchat-3.5 提高了 15 分 🚀 在线体验: t.co/7Ma5OhBEOl Github repo: t.co/BELikvf2oB HF OpenChat: t.co/npcVOs7vk7
查看详情
0
0
0
avatar
视频演示类产品推荐 mmhmm - by @mmhmmapp mmhmm 的目标是使视频演示或视频内容创作更加有趣和吸引人,旨在让视频对话、视频会议和视频创造更加有趣,提供更好的体验。是由 Evernote 创始人 Phil Libin 和他的团队 All Turtles 联合推出的一款视频演示产品。 mmhmm 的核心功能包括: · 画中画模式:用户可以根据展示内容的需要,调整展示内容的大小,或添加有趣的过滤器和效果。 · 自定义背景:用户可以选择各种动画作为视频背景,如室外风景、室内场景或任何图片和动画。 · 协作功能(Copilot):允许两个人同时操作同一个画面,实现视频内容的协作操作。 · 互动式录制(Interactive Recordings):一种新的异步通信方式,允许用户在录制中进行互动。 · 保存视频内容:用户可以将视频内容保存下来。 · 游戏手柄连接:支持通过蓝牙连接游戏手柄,实现虚拟在游戏环境中的视频效果。 mmhmm app: t.co/7HYxaNlRuv
查看详情
0
0
0
avatar
用户反馈投票类产品分享 t.co/viYfHroQP9 - by @gabriel__xyz 参考用户的反馈和投票来确定产品迭代方向,这是一种与产品用户更直接交流和共创的过程,这个方向的产品也有不少:Canny、Upvoty 等。 今天分享的是 t.co/viYfHroQP9,具有以下亮点: 1. 和用户一起构建更好的产品,直接了解用户想法,获得产品洞察; 2. 和自己的产品无缝对接,用户可以更顺滑的进行反馈; 3. 极简的操作搭建定制属于自己的用户反馈投票界面; 4. 建立信任和进度的透明,让用户感受到他的反馈被重视和正在努力开发中; 产品地址: t.co/LjfDEVgbZx
查看详情
0
0
0
avatar
AI 开源项目推荐 Cognita - by @truefoundry Cognita 适用于企业生产场景,在底层使用 Langchain/Llamaindex 并为代码库提供组织,其中每个 RAG 组件都是模块化、API 驱动且易于扩展的,提供无代码 UI 支持,默认支持增量索引,支持本地和在线 LLM API。 Github repo: t.co/LfFnUNtyZk
查看详情
0
0
0
avatar
AI 开源项目推荐 Verba - 黄金 RAG 检索者 🪙 by @weaviate_io Verba 是一个完全可定制的个人助理,由 Weaviate 开发并开源,用于查询和与数据进行交互,无论是本地还是通过云端部署。解答有关文档的问题,交叉引用多个数据点,或从现有知识库中获得洞见。Verba 结合了最先进的 RAG 技术与 Weaviate 的上下文感知数据库。根据个别用例,选择不同的 RAG 框架、数据类型、分块和检索技术以及大型语言模型(LLM)提供商。 本地模型支持: 支持开源模型本地推理,包括 llama3、Qwen、01AI_Yi、Phi-3、Gemma、Mistral、ChatGLM、Baichuan、DeepSeek 等,也可使用 HuggingFace、Ollama 等方案加载。 在线模型支持: 支持 OpenAI、Cohere、Gemini、Claude、Groq、Mistral、Qwen、Kimi、DeepSeek、ChatGLM 等 LLM API 提供商。 框架支持: 计划支持 Haystack、LlamaIndex 和 Langchain。 推荐理由: 1. 非常完整的 RAG 实现方案 2. UI/UX 很完善,可用性很高 3. 模型和框架选择灵活,可修改程度高 4. 专业向量搜索引擎团队出品,RAG 结果有保障 Tip: 之前的分享里会经常 at 提及的不同产品,便于大家快速通过账号找到产品,不过这样可能会对被 at 的产品账号造成提醒的困扰,我尽量减少 at,大家可根据关键词搜索哈,如果有找不到的,评论里告诉我,我再单独回复。 Github repo: t.co/tZ2c9OJMyX
查看详情
0
0
0
avatar
AI 开源项目强烈推荐 从零开始实现 Llama 3 - by @naklecha 从零开始实现 Llama 3 项目在发布后一天内得到 1.8K 🌟 作者 @naklecha 关于项目的推文更得到了 @karpathy 的认同,项目中包括跨多个头的注意力矩阵乘法、位置编码和每层在内都有非常详细的说明解读。 项目主要内容: 1. 模型实现:作者详细介绍了如何从零开始实现llama3模型,一次实现一个张量和矩阵乘法。 2. 权重下载:提到了需要从 Meta 提供的官方链接下载模型权重,以便在运行代码之前加载这些权重。 3. 分词器(Tokenizer):作者没有自己实现 BPE(Byte Pair Encoding)分词器,而是推荐了 Andrej Karpathy 的一个清晰实现,并提供了链接。 4. 模型文件读取:讨论了如何读取模型文件,这通常取决于模型类是如何编写的以及内部的变量名。 5. 模型配置:通过读取 `params.json` 文件,获取模型的配置信息,如维度、层数、头数等。 6. 文本到 token 的转换:使用 `tiktoken` 库作为分词器,将文本转换为 token。 7. 嵌入层:将标记转换为嵌入表示,这是一个嵌入层,用于将标记转换为 4096 维的向量。 8. RMS 归一化:使用均方根值(RMS)归一化对嵌入进行归一化处理。 9. Transformer 层构建:详细介绍了如何构建 Transformer 层,包括归一化、注意力机制的从头实现、查询(Q)、键(K)、值(V)的生成和处理。 10. 位置编码:使用 RoPE(Rotary Positional Embedding)对查询向量进行位置编码。 11. 自注意力机制:实现了自注意力机制,包括计算查询和键的点积、应用掩码、应用 Softmax 归一化。 12. 多头注意力:展示了如何为第一层的每个头执行相同的数学运算,并将所有注意力分数合并为一个大矩阵。 13. 前馈网络:加载前馈网络的权重,并实现 SwiGLU 前馈网络。 14. 最终嵌入:通过所有层后,得到最终的嵌入表示,这是模型对下一个标记的最佳猜测。 15. 解码嵌入:使用输出解码器将最终嵌入转换为标记值。 16. 预测下一个 token:使用最后一个标记的嵌入来预测下一个 token 的值。 Github repo: t.co/tSB4KZKRRx
查看详情
0
0
0
avatar
3000 推(X)友关注了 ❤️❤️❤️ 非常感谢推友们,唯有继续发现和分享 AI 相关的论文、模型、产品和开源技术 😁😁😁 大家一起在飞速发展的 AI 中找到自己感兴趣的方向 ✨✨✨
查看详情
0
0
0
avatar
🎉🎉 2000 Followers Now 🎉🎉 ❤️❤️ Thanks you all ❤️❤️ ❤️❤️ 谢谢所有的朋友们 ❤️❤️
查看详情
0
0
0
avatar
AI 开源模型排行榜分享 Low-bit 量化开源大语言模型排行榜 - by @intel 量化是使大语言模型(LLMs)更易于访问和实用的关键技术,特别是在计算资源成为限制因素的地方。而没有工具可以追踪和比较使用不同量化算法的量化 LLMs,这使得很难筛选出开源社区真正取得的进展,以及哪个模型是当前的最新技术。 所以 Intel 使用 Eleuther AI @AiEleuther 语言模型评估框架,针对 Low-bit 量化开源大语言模型做了评测和排名。 排行信息: 1. 排名前三的是 Intel/SOLAR-10.7B-Instruct-v1.0-int4-inc 系列模型,榜单以 Intel 模型居多 2. @TheBlokeAI、@UnslothAI、cstr、 Leliuga, MB、kaitchup 等都有模型上榜 完整排行榜: t.co/3ClErYp4oS
查看详情
0
0
0
avatar
AI 开源项目推荐 Web LLM - by mlc-ai WebLLM 是一个模块化且可定制的 JavaScript 包,可通过硬件加速将语言模型聊天直接带入 Web 浏览器。 一切都在浏览器内运行,无需服务器支持,并通过 WebGPU 进行加速。 WebLLM 与 OpenAI API 完全兼容。 也就是说,在本地任何开源模型上使用相同的 OpenAI API ,功能包括 JSON 模式、函数调用、流式传输等。 该项目是 MLC LLM(t.co/za69Mohmx7) 的姊妹项目,后者在 iPhone 和其他本机本地环境上本地运行 LLM。 WebLLM 包本身不附带 UI,而是以模块化方式设计,可以挂钩任何 UI 组件、可使用 Web Worker、Service Worker、可用来创建 Chatbot、Chrome Extension 等。 支持多种大模型 API,也可改为使用自己本地的大模型。 Github repo: t.co/OHmG6yCMZR mlc-webllm: t.co/4dgubbpsMM
查看详情
0
0
0
PHP版本长毛象 - good.news
Lazy-loaded Image
由 PHP 驱动的 Mastodon去中心化社交媒体
本站管理员
goodnews
管理员
本站统计数据
12
活跃用户