Skip to the content.

From 131 items, 17 important content pieces were selected


  1. NVIDIA 发布 cuda-oxide:实验性 Rust 到 CUDA 编译器 ⭐️ 8.0/10
  2. llama.cpp b9095 发布 NCCL 无关的内部 AllReduce 用于张量并行 ⭐️ 7.0/10
  3. Open WebUI v0.9.5 新增 SSRF 防护和 iframe 内容安全策略 ⭐️ 7.0/10
  4. 硬件认证如何成为欧盟数字垄断工具 ⭐️ 7.0/10
  5. 本地 AI 将在消费设备上成为常态 ⭐️ 7.0/10
  6. 1e4.ai:用神经网络打造拟人化象棋引擎 ⭐️ 7.0/10
  7. Rossmann 承诺为 OrcaSlicer 开发者提供 1 万美元的法律费用 ⭐️ 7.0/10
  8. 软件开发中的任务瘫痪与 AI ⭐️ 7.0/10
  9. MachinaCheck:基于 AMD MI300X 的多智能体 CNC 制造 AI 系统 ⭐️ 7.0/10
  10. 2026 年向量数据库对比:定价、规模与架构指南 ⭐️ 7.0/10
  11. Hermes Agent 超越 OpenClaw 成为 OpenRouter 顶级 AI 代理 ⭐️ 7.0/10
  12. 纽约时报承认发表 AI 生成的虚假政治引语 ⭐️ 7.0/10
  13. Gemini API 文件搜索现已支持多模态 ⭐️ 7.0/10
  14. 为 LLM 训练优化 Swift 矩阵乘法性能 ⭐️ 7.0/10
  15. GitHub 利用 eBPF 消除部署风险,防止循环依赖导致故障失控 ⭐️ 7.0/10
  16. 报告揭秘中国 Claude API 灰产:一折低价背后的欺诈行为 ⭐️ 7.0/10
  17. xAI Grok Build 工具泄露,计划推出 10 万亿参数模型对标 Claude Code ⭐️ 7.0/10

NVIDIA 发布 cuda-oxide:实验性 Rust 到 CUDA 编译器 ⭐️ 8.0/10

NVlabs 发布了 cuda-oxide v0.1.0,这是一个定制的 rustc 代码生成后端,通过多阶段编译管道(Rust → 稳定 MIR → Pliron IR → LLVM IR → PTX)将带有#[kernel]注解的 Rust 函数直接编译为 PTX(并行线程执行),通过单一的 cargo oxide build 命令实现单源代码主机+设备编译。 该编译器使用 Pliron IR,这是一种用 Rust 编写的可扩展编译器中间表示框架,灵感来自 MLIR。编译管道首先将 Rust 转换为稳定 MIR,然后转换为 Pliron IR,接着转换为 LLVM IR,最后转换为 PTX 以进行 SIMT(单指令多线程)GPU 执行。

rss · MarkTechPost · May 10, 06:01

背景: PTX(并行线程执行)是 NVIDIA 的中间表示,作为 CUDA 兼容 GPU 的汇编语言,类似于 CPU 的汇编语言。SIMT 是 CUDA 中使用的执行模型,多个线程同时执行相同的指令,但可以根据条件逻辑采取不同的路径。GPU Ocelot 项目以前提供 PTX 模块注册功能,但不再积极维护。

参考链接

标签: #GPU computing, #Rust, #CUDA, #compiler, #PTX


llama.cpp b9095 发布 NCCL 无关的内部 AllReduce 用于张量并行 ⭐️ 7.0/10

llama.cpp 的 b9095 版本引入了一种不依赖 NCCL 的内部 AllReduce 实现,用于张量并行。该实现采用单阶段 CUDA 内核,将 D2H(设备到主机)复制、跨 GPU 握手(通过固定内存易失标志)和归约操作流水线化,在每个 GPU 上一次内核启动完成。 当前实现范围限于 2 个 GPU、FP32 精度和最大 256KB 的张量。可通过 GGML_CUDA_ALLREDUCE 环境变量(”nccl”或”internal”)配置提供程序。对于不支持的大小或超过 2 个 GPU 的情况,实现会回退到元后端 CPU 归约。

github · github-actions[bot] · May 10, 09:43

背景: llama.cpp 是一个基于 GGML 张量库的高效大型语言模型(LLM)推理 C++库。AllReduce 是一种集合操作,将来自多个 GPU 的数据合并后并将结果分回给所有参与者,这是分布式模型训练/推理中张量并行的关键操作。NCCL(NVIDIA 集合通信库)是 NVIDIA 专有的 GPU 间通信库。此内部实现使用固定内存(页锁定内存)实现跨 GPU 数据快速交换,无需 NCCL。

参考链接

标签: #llama.cpp, #CUDA, #GPU, #tensor-parallelism, #AllReduce


Open WebUI v0.9.5 新增 SSRF 防护和 iframe 内容安全策略 ⭐️ 7.0/10

SSRF 防护覆盖多个调用点,包括网页获取、图像加载、OAuth 发现、工具服务器执行和代码解释器登录。RFC 1918 地址、环回地址和云元数据端点的重定向都会被阻止。用户可通过将 AIOHTTP_CLIENT_ALLOW_REDIRECTS 设置为 true 来在特定部署需要时禁用重定向。 此版本解决了关键的 SSRF 漏洞问题,该漏洞可能允许攻击者通过恶意重定向访问内部服务、云元数据端点和私有网络。iframe 内容安全策略控制还可防止 LLM 生成或用户上传的 HTML 在预览中执行潜在的恶意代码。 SSRF 防护覆盖多个调用点,包括网页获取、图像加载、OAuth 发现、工具服务器执行和代码解释器登录。系统会阻止重定向到 RFC 1918 地址、环回地址和云元数据端点。用户如需特定部署可设置 AIOHTTP_CLIENT_ALLOW_REDIRECTS=true 来禁用重定向。

github · github-actions[bot] · May 10, 18:14

背景: SSRF(服务器端请求伪造)是一种 Web 安全漏洞,允许攻击者使服务器执行非预期的网络请求,可能访问内部服务、数据库或云元数据端点。RFC 1918 地址(10.0.0.0/8、172.16.0.0/12、192.168.0.0/16)和云元数据服务(169.254.169.254)是常见的 SSRF 攻击目标。Content-Security-Policy(CSP)是一种浏览器安全头部,用于控制可以加载和执行的资源。

参考链接

标签: #security, #ssrf, #open-webui, #server-security, #release-update


硬件认证如何成为欧盟数字垄断工具 ⭐️ 7.0/10

欧盟数字身份钱包(EUDI)现在要求使用谷歌或苹果的硬件认证才能运行,实际上强制所有欧盟公民只能使用两家经批准的美国供应商的设备进行数字身份验证。 这项政策创造了数字垄断锁定,将欧盟数字主权与美国科技巨头绑在一起,同时还引入了通过设备链接的认证数据包进行用户行为跟踪的隐私风险。 EUDI 不使用零知识证明或盲签名,意味着每次认证都会留下可追踪的数据包,将操作与特定设备链接起来。硬件认证依赖于 TPM(可信平台模块)芯片,这些芯片在制造过程中包含唯一的、不可更改的加密密钥。

hackernews · ChuckMcM · May 10, 17:54

背景: 可信计算是由 TCG(可信计算组)开发的技术标准,使用专用 TPM 芯片提供设备状态的加密认证。硬件认证创建设备启动过程和配置的加密可验证指纹。该技术有历史争议,可以追溯到 1999 年英特尔 CPU 序列号提案,该提案遭到强烈反对并被放弃,随后继续推动 TPM 和相关技术的发展,促成了移动围墙花园的出现。

参考链接

社区讨论: 评论强调了欧盟数字身份被绑定到美国双头垄断的讽刺,用户注意到缺乏像零知识证明这样的隐私保护技术。一位评论者追溯了可信计算从英特尔被放弃的序列号到 Windows 11 TPM 要求的歷史,稱之為「持續推向圍牆花園」。另一個警告說,這種方法將「保護兒童 > 主權」作為優先事項。

标签: #digital-sovereignty, #hardware-attestation, #privacy, #monopoly, #trusted-computing


本地 AI 将在消费设备上成为常态 ⭐️ 7.0/10

硬件发展时间表显示,这种模式将在未来一年内成为主流。目前,Phi-3、Gemma 或量化 LLaMA 等模型可以使用 INT4 量化在边缘设备上运行,模型大小缩减 2.5-4 倍,而双 RTX 5090 可以在 70B 模型上以 25%的成本匹配 H100 性能。

hackernews · cylo · May 10, 17:19

背景: 本地 AI 是指直接在个人设备上运行大型语言模型,而不是将数据发送到远程云服务器。这种方法提供隐私优势,因为数据保留在设备上。开放权重模型(如 LLaMA)可以通过量化等模型压缩技术在本地运行,量化是通过使用较低精度权重来减小模型大小。消费级 GPU 历来难以运行大型模型,但硬件改进正在改变这一局面。

参考链接

社区讨论: 社区情绪强烈支持这一预测,评论者提供了本地模型的具体用例(语音转文本、RAG 文档搜索、代码执行)和硬件发展时间表。一些人将其与开源软件历史进行类比,指出最初对开源的怀疑最终让位于主流采用。另一些人则区分了私有 AI 和本地 AI,认为具有良好租户隔离的自我托管解决方案可以在不要求本地部署的情况下解决隐私问题。

标签: #local-ai, #edge-ai, #llm, #hardware-trends, #ai-infrastructure


1e4.ai:用神经网络打造拟人化象棋引擎 ⭐️ 7.0/10

这代表了游戏人工智能领域的一种新颖方法,即优先考虑拟人化行为而非纯粹的超强实力。该系统表明小型神经网络(约 900 万参数)可以有效模拟人类决策模式,可用于训练工具、测试和研究人类如何思考棋局。 该网络将棋盘状态、近期步历史、玩家等级和剩余时间作为输入。每个等级段使用三个独立模型:走法预测、时钟使用和胜率预测。该架构完全在 CPU 上运行,无需 GPU。性能基准显示第一步预测准确率为 56.7%,对比 Maia-2 的 52.7%,但由于模型较小,在 1700 等级以上会变弱。

rss · Hacker News - Show HN · May 10, 22:31

背景: 该项目基于 Maia-2(一种模拟人类行为的象棋 AI)和 DeepMind 的”无需搜索的大师级象棋”研究。Lichess 是一个流行的免费开源棋类平台,存储着数百万局带有 Elo 等级评价的对局,是训练拟人化 AI 的理想数据来源。象棋中的 Transformer 网络因其优越的棋局评估能力已基本取代了传统的 CNN。

参考链接

标签: #chess, #machine-learning, #transformers, #neural-networks, #game-ai


Rossmann 承诺为 OrcaSlicer 开发者提供 1 万美元的法律费用 ⭐️ 7.0/10

这代表了 3D 打印社区持续维修权斗争的重大升级,可能为开源软件如何与专有打印机生态系统和云服务交互开创先例。 争议围绕一个 OrcaSlicer 分支展开,该分支据称连接到 Bambu Lab 的私有云 API 以模拟 Bambu Studio。原始 OrcaSlicer 通过直接打印机通信支持 Bambu 打印机,但据报道受威胁的分支访问了非公共云接口。

hackernews · iancmceachern · May 10, 14:47

背景: OrcaSlicer 是一款开源的 3D 打印机 G 码生成器和切片软件,支持多个品牌,包括 Bambu Lab、Prusa 和 Voron 系统。切片软件将 3D 模型转换为打印机可读的代码(G 码)来控制打印运动。Bambu Lab 因要求云认证和限制离线功能而受到批评,引发社区对用户所有权的感知限制的强烈反对。

参考链接

社区讨论: 评论者对 Louis Rossmann 的资金承诺表示强力支持,许多人批评 Bambu Lab 限制用户控制,并感到作为客户被”背叛”。一些用户指出直接连接打印机与访问私有云 API 之间的区别。用户强调,Bambu Lab 此前曾在公众抗议前试图完全取消离线访问。

标签: #right-to-repair, #3d-printing, #open-source, #legal, #community


软件开发中的任务瘫痪与 AI ⭐️ 7.0/10

开发者报告称,AI 编码助手导致了“任务瘫痪”,让人更难开始工作,并消耗了编程的乐趣。现在开发者不再亲手编码,而是主要审查 AI 生成的输出并管理 AI 代理。 这关乎开发者的身心健康和软件开发工作的本质。随着 AI 工具日益普及,开发者可能会失去深度技术参与的乐趣,可能导致职业倦怠,并引发整个编程职业的深刻变革。 开发者描述了工作模式从“由下而上”(从理解到实现的完整过程,自己做主)转变为“由上而下”(接收代理输出并仅需审查)。一些人报告迅速订阅更高级别的 AI 服务(从 Max 5 升至 Max 20),快速耗尽配额并担心 AI 成瘾,尤其是那些有多动症、难以抗拒快速多巴胺来源的开发者。

hackernews · MrGilbert · May 10, 06:20

背景: 任务瘫痪指的是 AI 辅助选项过多反而使开发者更难开始工作的状态,他们等待 AI 生成解决方案而不是自己动手。像 Claude Code 这样的 AI 编码助手已成为热门工具,可以从自然语言生成整个代码库,使开发者的工作从编写代码转变为管理代理和审查输出。

社区讨论: 108 条评论显示对文章观点的高度认同。开发者分享了失去编程乐趣的个人经历,将从深度技术工作转变为代理管理描述为“无聊”和“令人沮丧”。主要担忧包括 AI 成瘾、技能退化,以及开发者是否会成为无用的“猴子”——只是给 AI 添加上下文并审查输出。一些人特别担心那些容易对快速多巴胺上瘾的多动症患者。

标签: #AI, #software development, #task paralysis, #developer experience, #productivity, #addiction


MachinaCheck:基于 AMD MI300X 的多智能体 CNC 制造 AI 系统 ⭐️ 7.0/10

MachinaCheck 是在 AMD 开发者黑客松上开发的多智能体 AI 系统,可自动化 CNC 制造可行性分析。它接收 STEP 格式的 CAD 文件以及材料、公差和螺纹规格,然后通过四智能体流水线来判断设计是否可制造。 该项目展示了多智能体 AI 框架在专业制造领域的实际应用。通过自动化制造可行性检查,企业可以显著减少与设计错误相关的时间和成本,可能会改变机械加工车间评估生产可行性的方式。 该系统运行在 AMD MI300X 加速器上,具有 304 个 GPU 计算单元和 192 GB HBM3 内存,带宽达 5.3 TB/s。四智能体流水线包括通过 cadquery 进行 STEP 几何解析、操作分类和刀具库存匹配。该系统仅需 30 秒即可生成详细的可行性报告。

rss · Hugging Face Blog · May 10, 18:44

背景: CNC(计算机数控)制造涉及使用计算机控制的切割工具从金属和塑料等材料创建定制零件。一个关键挑战是确定设计的零件是否可以在不产生昂贵试错成本的情况下制造。多智能体 AI 系统使用多个 AI 智能体协同工作,比单个 AI 模型更有效地解决复杂任务。

参考链接

标签: #multi-agent-systems, #CNC-manufacturing, #AMD-MI300X, #AI-accelerators, #hardware-hackathon


2026 年向量数据库对比:定价、规模与架构指南 ⭐️ 7.0/10

向量数据库已成为 RAG 和代理 AI 系统的核心检索基础设施。本指南帮助从业者在选择向量数据库时了解成本、性能和可扩展性之间的权衡,从而做出明智的决策。 该对比涵盖九大主流系统的架构方案、定价模型和规模限制,特别关注每个系统如何处理大规模向量存储、索引和检索。

rss · MarkTechPost · May 10, 23:56

背景: 向量数据库存储数据嵌入并支持近似最近邻搜索,这对于 AI 应用中的语义检索至关重要。RAG(检索增强生成)将信息检索与文本生成相结合,以增强 LLM 的输出。代理 AI 涉及多个 AI 代理协同完成任务,需要可扩展且可靠的检索基础设施。

参考链接

标签: #vector-databases, #AI-infrastructure, #RAG, #database-comparison, #2026-trends


Hermes Agent 超越 OpenClaw 成为 OpenRouter 顶级 AI 代理 ⭐️ 7.0/10

2026 年 5 月 10 日,来自 Nous Research 的开源自改进 AI 代理 Hermes Agent 超越 OpenClaw,成为 OpenRouter 全球每日令牌排名的第一名,每日生成 2240 亿令牌,而 OpenClaw 为 1860 亿。 这一成就使 Nous Research 的项目在实际每日推理量上超越了 OpenAI 赞助的平台,展示了自改进 AI 代理在发布仅三个月后的快速采用。 Hermes Agent 是唯一具有内置学习循环的代理——它从经验中创建技能,在使用过程中不断改进,保存知识并搜索过去的对话,在多轮交互中建立更深入的用户模型。

rss · MarkTechPost · May 10, 16:20

背景: OpenRouter 是一个统一的网关平台,允许开发者通过单一 API 和统一积分系统访问多个 AI 模型。自改进 AI 代理代表了 AI 架构的转变,采用内部学习循环来反思行动、识别成功和失败,并在无需重新训练的情况下动态调整策略。Nous Research 是一家 AI 安全和能力研究组织,创建了 Hermes Agent 作为生产级自主代理。

参考链接

标签: #AI Agents, #Nous Research, #OpenRouter, #OpenClaw, #Self-Improving AI


纽约时报承认发表 AI 生成的虚假政治引语 ⭐️ 7.0/10

纽约时报发表编辑说明,承认一篇关于加拿大选举的报道中归因于保守党领袖皮埃尔·波利耶夫的引语实际上是 AI 生成的摘要被伪装成了直接引语。报道原本声称波利耶夫将改变党派的政客称为“变节者”,但这是 AI 工具编造的,其 4 月实际演讲中从未说过这番话。 这一事件是 AI 幻觉在主流新闻业中被发表的重大案例,展示了未经核实直接信任 AI 生成内容的具体风险。这凸显了新闻业在使用 AI 工具时标准需要更新的迫切性,因为即使是可信的 AI 输出也可能产生令人信服的捏造内容。 时报指出,记者在发表前本应核实 AI 工具返回内容的准确性。更正后的文章现在准确引用了波利耶夫先生 2026 年 4 月演讲中的原话。此事涉及加拿大联邦选举,涉及马克·卡尼和自由党。

rss · Simon Willison · May 10, 23:58

背景: AI 幻觉是指大型语言模型生成看起来真实但实际上错误的虚构信息。这是生成式 AI 系统的已知局限性,模型可以产生听起来连贯但完全虚假的陈述。新闻业越来越多地采用 AI 工具协助报道,但此案例表明将 AI 输出视为经核实的事实而不经过人工核查是危险的。

参考链接

标签: #ai-ethics, #hallucinations, #journalism, #generative-ai, #new-york-times


Gemini API 文件搜索现已支持多模态 ⭐️ 7.0/10

Google 宣布 Gemini API 现已支持 RAG 应用的多模态文件搜索功能。使用 gemini-embedding-2 模型,开发者现在可以处理和检索包括图像在内的不同文件类型的信息,而无需依赖传统的 OCR 技术。 这一功能实现了真正的视觉检索,大大简化了高效多模态文件检索系统的构建。开发者现在可以创建跨不同文档类型(包括图像、PDF 和文本文件)进行搜索的 RAG 应用,这对企业知识管理和文档搜索非常有价值。 gemini-embedding-2 模型直接将图像嵌入而不是依赖 OCR,实现了原生图像搜索。对于多模态存储,引用还包括可下载的图像参考。这代表了文本文件搜索功能的重大扩展。

rss · Hacker News - OpenAI / Anthropic / Gemini / DeepSeek · May 10, 03:22

背景: RAG(检索增强生成)是一种通过在生成响应前从外部来源检索相关信息来提高 AI 模型准确性的技术。多模态文件搜索允许在单一搜索系统中处理不同文件类型(图像、文档、PDF)。此前,文件搜索通常依赖 OCR 从图像中提取文本——此项更新实现了直接的图像嵌入和检索。

参考链接

社区讨论: Hacker News 讨论显示了一定的关注度,获得 145 分和 39 条评论。开发者对实际应用和性能感到好奇。一些问题仍关于这与其他多模态搜索解决方案的比较,以及新嵌入模型的成本/性能权衡。

标签: #Google Gemini, #Multimodal AI, #RAG, #API Development, #Retrieval Augmented Generation


为 LLM 训练优化 Swift 矩阵乘法性能 ⭐️ 7.0/10

一份实践指南展示了在 Swift 中为 LLM 训练优化矩阵乘法时如何实现 1000 倍的性能提升,通过底层优化技术将性能从 Gflop/s 提升到 Tflop/s。 这个优化对在 Apple Silicon 上构建 LLM 的开发者非常重要,因为矩阵乘法是神经网络训练的基础操作,达到 Tflop/s 级别的性能才能实现实用的设备端 LLM 训练。 作者的迭代优化方法从基本的 Swift 实现逐步推进到 Accelerate 框架中的 BLAS,再到最后直接使用 AMX(Apple 矩阵协处理器),利用 Apple Silicon 的专用矩阵加速器达到 Tflop/s 级别的吞吐量。

rss · Lobsters - AI · May 10, 15:49

背景: Apple Silicon 集成了专用的 Apple 矩阵协处理器(AMX)来高速执行矩阵运算,尽管其编程模型在很大程度上隐藏在 Accelerate 框架之后。Accelerate 中的 BLAS(基本线性代数子程序)库为常见的线性代数操作(如矩阵乘法)提供了 Swift 友好的 API。性能以 FLOPS(每秒浮点运算数)衡量,Gflop/s 表示数十亿,Tflop/s 表示每秒数万亿次运算。

参考链接

社区讨论: 在 Lobsters 上的讨论重点是这份优化指南对在 Apple Silicon 上从事 ML 开发的 Swift 开发者的实用价值,开发者们对作者在 Swift 性能调优方面的深厚专业知识表示赞赏。

标签: #swift, #matrix-multiplication, #llm-training, #performance-optimization, #apple-silicon


GitHub 利用 eBPF 消除部署风险,防止循环依赖导致故障失控 ⭐️ 7.0/10

GitHub 已在生产环境中实施 eBPF 技术,以消除部署风险并防止服务之间循环依赖导致的级联故障。 这是 eBPF 在大型科技公司中的实际应用案例,解决了真实的 DevOps 挑战。部署管道中的循环依赖如果未能及早发现可能导致系统级服务中断,使这种方法对维护基础设施可靠性具有重要价值。 eBPF(扩展伯克利数据包过滤器)允许以最小开销和沙箱安全的方式在内核中运行自定义程序。GitHub 的实现可能使用 eBPF 实时监控服务交互和部署序列,在导致级联故障之前检测有问题的依赖关系图。

rss · InfoQ 中文站 · May 10, 15:11

背景: eBPF 起源于经典的伯克利数据包过滤器,但已发展成为一个强大的框架,无需修改内核即可在内核空间运行程序。循环依赖发生在服务 A 依赖服务 B 而服务 B 又依赖服务 A 的情况下,在部署时造成死锁并可能引发级联故障。这是大型微服务架构中的常见挑战。

参考链接

标签: #eBPF, #DevOps, #系统 reliability, #部署风险控制, #GitHub, #故障预防


报告揭秘中国 Claude API 灰产:一折低价背后的欺诈行为 ⭐️ 7.0/10

安全报告显示,中国灰色市场服务通过代理网络以高达一折的折扣价销售 Claude API 访问权限。这些服务通过盗刷信用卡、滥用免费试用账户或雇佣身份验证等方式获取访问权限,同时使用廉价模型掉包并窃取用户提示词用于模型蒸馏。 这影响了那些以为获得优惠但实际上代码和商业机密被盗的开发者。模型掉包欺诈还意味着用户可能无法获得他们付费的 AI 能力,这可能导致应用程序出现安全漏洞。 主要欺诈手段包括使用盗刷信用卡支付 API 费用、创建多个免费试用账户、拆分订阅套餐共享访问权限,以及雇佣低收入国家人员绕过身份验证。服务提供商还经常在用户请求 Claude Opus 时用廉价国产模型替代,并收集用户提示词和输出用于模型蒸馏训练出售。

telegram · zaihuapd · May 10, 01:48

背景: API 代理服务(中转站)充当将用户请求路由到官方 AI 提供商的中介。模型蒸馏是一种让较小模型学习模仿较大模型行为的技术。Anthropic 的 Claude 是领先的专业 LLM 之一,而在中国,直接访问外国 AI API 经常面临网络限制和高昂费用。

参考链接

社区讨论: 中国开发者论坛上关于识别可靠 API 代理的讨论很多,有些用户分享了付费高级模型却收到劣质结果的经历。更广泛的 AI 社区也对模型蒸馏作为知识产权盗窃形式表示担忧,Anthropic 和 OpenAI 等公司正在积极采取法律行动。

标签: #AI安全, #API欺诈, #数据隐私, #Claude, #灰色产业


xAI Grok Build 工具泄露,计划推出 10 万亿参数模型对标 Claude Code ⭐️ 7.0/10

xAI 桌面编程工具”Grok Build”泄露,显示为跨平台 AI Agent 工作流应用,可自主执行多步开发任务,默认搭载 Grok 4.3 Early Access,支持本地文件、Git 权限、MCP、官方技能和插件。 此次泄露直接挑战 Anthropic 的 Claude Code 在 AI 编程工具领域的地位。泄露文件显示 xAI 正在训练高达 10 万亿参数的大规模模型,表明马斯克挑战 Claude Code Opus 级别编程能力的雄心。 根据泄露资料,对标 Claude Code Opus 级别需要至少 6 万亿参数。文件还显示计划推出 1 万亿、1.5 万亿和 10 万亿参数模型,以及名为 Imagine V2 的图像/视频模型。

telegram · zaihuapd · May 10, 13:34

背景: Claude Code 是 Anthropic 的 AI 编程助手,Opus 是其最强大的模型层级。MCP(Model Context Protocol)是 Anthropic 于 2024 年 11 月推出的开放标准,用于规范 AI 系统与外部工具的集成方式。马斯克此前曾表示 xAI 将在 6 月发布编程能力超越 Claude 的新模型。

参考链接

标签: #xAI, #Grok, #AI coding tools, #Claude Code, #large language models