From 202 items, 40 important content pieces were selected
- Ghostty 终端模拟器离开 GitHub ⭐️ 8.0/10
- OpenAI 模型入驻 AWS Bedrock ⭐️ 8.0/10
- GitHub 企业服务器远程代码执行漏洞 CVE-2026-3854 ⭐️ 8.0/10
- Claude.ai 和 API 服务重大宕机 ⭐️ 8.0/10
- NVIDIA 发布 Nemotron 3 Nano Omni 开源多模态 AI 模型 ⭐️ 8.0/10
- 谷歌扩大五角大楼 AI 访问权限 此前 Anthropic 拒绝合作 ⭐️ 8.0/10
- Cordon:支持人工审核的 MCP 安全网关 ⭐️ 8.0/10
- Qwen 开源 FlashQLA:线性注意力内核速度提升 2-3 倍 ⭐️ 8.0/10
- Hugging Face Transformers v5.7.0 新增 Laguna MoE 和 DEIMv2 模型 ⭐️ 7.0/10
- llama.cpp b8964 修复推理预算重新启用错误 ⭐️ 7.0/10
- GitHub 之前的版本控制时代回顾 ⭐️ 7.0/10
- 谷歌 2026 年安卓侧载限制引发争议 ⭐️ 7.0/10
- 谁拥有 Claude Code 编写的代码 ⭐️ 7.0/10
- Warp 终端模拟器现已开源 ⭐️ 7.0/10
- Localsend:开源跨平台 AirDrop 替代品 ⭐️ 7.0/10
- Waymo 拓展至波特兰 正值公共交通预算危机 ⭐️ 7.0/10
- Into the Omniverse: Manufacturing’s Simulation-First Era Has Arrived ⭐️ 7.0/10
- Anthropic 将 Claude 接入 Photoshop、Blender 和 Ableton ⭐️ 7.0/10
- 马斯克与 Altman 对簿公堂:OpenAI 审判正式开启 ⭐️ 7.0/10
- 谷歌与五角大楼达成协议 允许”任何合法”军事用途 ⭐️ 7.0/10
- Talkie-1930: 基于 1931 年前英语文本训练的 130 亿参数语言模型 ⭐️ 7.0/10
- FIDO 联盟与谷歌、万事达共同制定 AI 代理安全标准 ⭐️ 7.0/10
- 彭博终端引入 AI 聊天机器人功能 ⭐️ 7.0/10
- Talkie:来自 1930 年代的 13B 复古语言模型 ⭐️ 7.0/10
- 神经账本系统:跨会话的 AI 上下文持久化 ⭐️ 7.0/10
- HIC:同环隔离操作系统内核实现 4 纳秒进程间通信 ⭐️ 7.0/10
- 英伟达高管:AI 成本高于人工成本 ⭐️ 7.0/10
- OpenAI 模型、Codex 和托管代理登陆 AWS ⭐️ 7.0/10
- Anthropic 加入 Blender 发展基金成为企业赞助商 ⭐️ 7.0/10
- 大型语言模型自我改进的局限性:没有符号模型综合就不会有奇点 ⭐️ 7.0/10
- 使用 Snowflake Cortex Agents 释放结构化数据的最大价值 ⭐️ 7.0/10
- Grafana 利用 Kafka 重构 Loki,发布 CLI 工具支持 AI 代理 ⭐️ 7.0/10
- ClickHouse 重构全文索引:对象存储上跑出高性能 Full-Text Search ⭐️ 7.0/10
- Cloudflare Sandboxes 正式发布:为 AI 代理提供持久化隔离环境 ⭐️ 7.0/10
- 教育部新增 38 种本科专业 交叉学科首次列入具身智能 ⭐️ 7.0/10
- 网信办点名”剪映”“即梦 AI”:AI 生成内容标识不合规被查处 ⭐️ 7.0/10
- 谷歌与美国国防部签署价值 2 亿美元的人工智能机密协议 ⭐️ 7.0/10
- LiteLLM SQL 注入漏洞可无认证窃取 API 密钥 ⭐️ 7.0/10
- Warp 开源客户端代码库,打造基于终端的智能开发环境 ⭐️ 7.0/10
- NVIDIA 发布 Nemotron 3 Super:1200 亿参数开源 MoE 模型专为多智能体 AI ⭐️ 7.0/10
Ghostty 终端模拟器离开 GitHub ⭐️ 8.0/10
这一离开引发了关于 GitHub 平台退化的热烈讨论,以及专有代码托管的道德问题。讨论突显了开源软件开发中平台忠诚与伦理关怀的更广泛主题,引起了许多注意到 GitHub 服务质量的开发者的共鸣。 Ghostty 是一款快速、功能丰富、跨平台的终端模拟器,采用平台原生 UI 和 GPU 加速。该项目在开发者社区中获得了显著关注,在此次离开之前一直托管在 GitHub 上。
hackernews · WadeGrimridge · Apr 28, 19:44
背景: Ghostty 是由 Mitchell Hashimoto 创建的终端模拟器,他还以 Packer 和 Terraform 等开发者工具而闻名。GitHub 是最大的代码托管平台,于 2018 年被微软收购。关于 GitHub 退化的讨论包括资源分配给 Copilot 而非核心服务的问题、组织变化,以及追踪持续问题的非官方状态页面。
参考链接
社区讨论: 社区的反应混合了对 Hashimoto 真诚情感的同情与对其在专有软件问题上迟来立场的批评——有些人将其比作理查德·斯托曼式的态度。还有人玩笑地建议聘请 Hashimoto 担任 GitHub 的 CEO 来扭转平台颓势,认可他的坚定信念和愿景。总体而言,大家普遍认为 GitHub 正面临严重的组织问题。
标签: #open-source, #GitHub, #dev-tools, #terminal-emulator, #platform-governance
OpenAI 模型入驻 AWS Bedrock ⭐️ 8.0/10
OpenAI 与 AWS 合作,将其 GPT 模型引入 Amazon Bedrock,标志着其与微软 Azure 独家合作的重要多元化转变。这些模型现已通过 Amazon Bedrock 完全托管服务提供。 此次合作代表了企业 AI 云市场的重大竞争变革。由于隐私问题或缺乏可信的部署选项而迟迟未采用 OpenAI 的组织,现在可以通过它们已经信任且已有合同的 AWS 来访问 GPT 模型。这可能会显著扩大 OpenAI 在金融和医疗等受监管行业的覆盖范围。 Amazon Bedrock 提供无服务器体验,可快速部署,允许企业在不管理基础设施的情况下试验基础模型。该服务已经托管了 Anthropic、Cohere 和 AI21 Labs 的模型,现在又将 OpenAI 纳入其产品组合。不过,由于量化、自定义芯片、批处理和其他推理优化,不同推理平台上的模型性能可能会有所不同。
hackernews · Hacker News - OpenAI / Anthropic / Gemini / DeepSeek · Apr 28, 19:24
背景: Amazon Bedrock 是 AWS 提供的完全托管服务,为企业提供来自领先 AI 公司的高性能基础模型。基础模型是在海量数据集上训练的人工智能模型,可以应用于广泛的应用场景,作为生成式 AI 应用的构建基础。Bedrock 的无服务器特性使组织能够快速试验不同的模型,而无需担心基础设施管理问题。
社区讨论: 讨论显示,许多注重隐私的组织早期通过 Bedrock 采用 Anthropic 的模型,因为它们信任 AWS 作为中介,而 OpenAI 因信任问题在某些企业中被禁用。评论者指出,OpenAI 似乎处于追赶位置,并质疑不同推理平台上的模型是否可能产生不确定的结果,从而可能影响开发一致性。
标签: #openai, #aws, #bedrock, #cloud-ai, #partnership
GitHub 企业服务器远程代码执行漏洞 CVE-2026-3854 ⭐️ 8.0/10
此漏洞代表了 AI 驱动安全研究的一个转折点,展示了 LLM 代理如何能够显著加速漏洞发现。令人担忧的缓慢补丁采用率——7 周后仍有 88%的实例存在漏洞——引发了对企业安全状况和本地软件维护实际挑战的严重关切。 该漏洞影响 3.19.3 版本之前的 GitHub 企业服务器。补丁于 2026 年 3 月 10 日发布,但 Wiz 的数据显示,截至 2026 年 4 月下旬,88%的本地 GHES 实例仍未打补丁——距离修复发布已过去 7 周。
hackernews · bo0tzz · Apr 28, 16:15
背景: GitHub 企业服务器(GHES)是 GitHub 代码托管平台的本地版本,专为需要数据主权或自定义部署选项的企业设计。CVE(通用漏洞披露)是一个公开披露的安全漏洞数据库。远程代码执行(RCE)是最严重的一类漏洞,因为它允许攻击者在受影响的系统上运行任意命令。AI 增强的安全研究使用经过代码训练的大型语言模型来加速理解复杂的系统内部结构和漏洞发现。
参考链接
社区讨论: 安全研究人员赞扬 Wiz 的 AI 增强方法,展示了 LLM 在代码分析中的核心优势——能够快速理解复杂的系统内部机制,这通常需要人类花费更长时间。一些评论者对 88%的客户在 7 周后仍未安装补丁表示担忧,认为这令人担忧,而另一些人则质疑鉴于企业软件安全的复杂性,GitHub 的替代方案能否更好。
标签: #security-vulnerability, #remote-code-execution, #github-enterprise, #ai-security-research, #cve-2026-3854
Claude.ai 和 API 服务重大宕机 ⭐️ 8.0/10
Anthropic 的 Claude.ai 网站和 API 发生了持续数小时的重大宕机,导致用户无法访问 AI 助手或进行 API 调用。这次事故给个人开发者和企业客户都带来了广泛的影响。 这次宕机之所以重要,是因为每月支付超过 20 万美元的企业用户在过去的 90 天里经历了仅仅约 90% 的可用性(一个九)。频繁的宕机加上糟糕的支持响应让高管团队非常愤怒,对 Claude 作为主要编码工具的可行性产生了严重担忧。 根据社区报告,Claude 服务在过去几个月里一直面临可靠性问题。长期用户报告称,模型经常产生细微错误的、不完整的或无法工作的输出,需要不断重新学习最佳提示技巧。
hackernews · shorsher · Apr 28, 18:01
背景: Anthropic Claude 是由 Anthropic 开发的一系列 AI 助手。Anthropic 是一家重要的 AI 安全公司,主要投资者包括亚马逊和谷歌等科技巨头。Claude.ai 是访问 Claude 的网络界面,而 API 允许开发者将 Claude 集成到他们的应用程序中。
社区讨论: 企业用户表达了强烈的不满,一位每月消费 20 万美元的客户报告称,他们的高管团队对宕机和糟糕支持的反应非常愤怒。一些用户建议采用多模型策略(同时使用 Anthropic、Codex 和 Gemini)来降低任何单一 LLM 宕机时的供应商锁定风险。
标签: #anthropic, #claude, #llm-services, #infrastructure, #reliability, #developer-tools
NVIDIA 发布 Nemotron 3 Nano Omni 开源多模态 AI 模型 ⭐️ 8.0/10
AI 代理系统是以大型语言模型(LLM)为核心,基于用户提示自主推理、规划和执行动作的系统。传统的 AI 代理系统通常为不同模态使用独立模型——一个用于图像识别,另一个用于语音处理,第三个用于语言理解——这会造成延迟并在模型之间传递数据时丢失上下文。代理循环概念是指感知、推理、动作和反馈的持续循环,使 AI 系统能够实时调整决策。
rss · NVIDIA Blog · Apr 28, 16:00
背景: AI agents are systems that use large language models (LLMs) as their core to autonomously reason, plan, and take actions based on user prompts. Traditional AI agent systems often juggle separate models for different modalities - one for image recognition, another for speech processing, and a third for language understanding - which creates latency and loses context as data passes between models. The agent loop concept refers to the continuous cycle of perception, reasoning, action and feedback that enables AI systems to adapt their decisions in real time.
参考链接
标签: #multimodal AI, #NVIDIA, #AI agents, #LLMs, #machine learning
谷歌扩大五角大楼 AI 访问权限 此前 Anthropic 拒绝合作 ⭐️ 8.0/10
该合同是在 Anthropic 明确拒绝允许国防部将其 AI 技术用于国内大规模监控和自主武器之后签署的,为谷歌创造了市场机会。这标志着主要科技公司之间军事 AI 合同竞争格局的重大转变。 这一发展引发了关于 AI 伦理和军事 AI 领域企业责任的关键问题。它凸显了科技公司在道德义务与政府国防需求之间日益加剧的紧张关系,可能为哪些公司响应军事 AI 请求、哪些公司拒绝树立先例。
rss · TechCrunch AI · Apr 28, 18:15
背景: 这一新闻发生在关于军事应用 AI 伦理持续争论的更广泛背景中。主要科技公司面临越来越多关于其 AI 技术是否应该用于监控和自主武器系统的审查。谷歌此前曾面临与军事 AI 项目 Project Maven 相关的员工抗议,而 Anthropic 对军事 AI 应用采取了更为限制性的立场。
标签: #AI ethics, #military AI, #Google, #Anthropic, #Pentagon
Cordon:支持人工审核的 MCP 安全网关 ⭐️ 8.0/10
Cordon 是一个开源的 MCP 网关,充当 LLM 客户端和 MCP 服务器之间的透明代理,为每个工具调用添加细粒度的安全策略(允许、阻止、审批、只读、仅日志记录),并支持同步人工审核功能,可实时暂停代理直到用户批准或拒绝特定的工具调用。 这一点非常重要,因为 MCP 目前没有安全模型——一个代理要么拥有完全的未授权访问权限,要么被完全阻止,没有中间地带。Cordon 提供了关键的缺失部分:一种在实际可行的方式下对敏感工具调用执行人工监督,而不必完全禁用代理,从而防止代理对生产系统、数据库和 API 进行无限制的访问。 Cordon 通过npx cordon-cli init命令安装,约两分钟即可完成,并自动修补 Claude Desktop 配置。它适用于 Claude Desktop、Claude Code、Cursor、Windsurf 以及任何 stdio MCP 客户端。人工审核可以通过终端提示符或 Slack Block Kit 消息触发,显示确切的参数以供决策。所有决策都会被记录,网关在本地运行,完全离线 CLI,还提供可选的托管仪表板用于集中审计日志。
rss · Hacker News - Show HN · Apr 28, 22:39
背景: MCP(模型上下文协议)是 Anthropic 于 2024 年 11 月推出的开放标准,使 LLM 能够与外部工具、数据库、文件系统和 API 集成。目前,MCP 没有内置的安全模型——该规范假设信任,开发者只能做出全有或全无的选择,即代理要么拥有完全的管理员访问权限,要么根本没有访问权限。
参考链接
社区讨论: HN 上的讨论非常少,只有 1 个评论点,表明参与度有限。该方法似乎作为解决 MCP 生态系统中真实安全问题的实用解决方案而受到了好评,尽管在可用的评论中看不到具体的社区担忧或反驳论点。
标签: #ai-safety, #mcp, #security, #llm-agents, #human-in-the-loop
Qwen 开源 FlashQLA:线性注意力内核速度提升 2-3 倍 ⭐️ 8.0/10
Qwen 团队开源了 FlashQLA,这是一个基于 TileLang 构建的高性能线性注意力内核库,专为 Gated Delta Network 打造。通过算子融合与代数优化,在 NVIDIA Hopper GPU 上实现了 forward 2-3 倍、backward 2 倍的速度提升。 FlashQLA 利用 Gated Delta Network 的门控衰减特性引入自动卡内上下文并行,针对长序列与小批量场景进行了专门优化。它采用 warpgroup 特化内核来重叠计算与数据搬运,有效提高 SM 利用率。该库特别适合预训练与端侧智能体推理场景。
telegram · zaihuapd · Apr 28, 14:11
背景: 线性注意力是 Transformer 中标准 softmax 注意力的高效替代方案,将计算复杂度从 O(N²)降低到 O(N)。Gated Delta Network (Gated DeltaNet) 是 Qwen3-Next 和 Kimi Linear 系列采用的线性注意力变体,通过门控实现自适应内存控制,通过 delta 更新实现精确内存修改。TileLang 是一种领域特定语言,专为简化高性能 GPU 内核开发而设计。NVIDIA Hopper 是最新一代 GPU 架构,具有先进的 AI 计算能力。
参考链接
标签: #linear-attention, #llm-efficiency, #qwen, #nvidia-hopper, #tilelang, #inference-optimization
Hugging Face Transformers v5.7.0 新增 Laguna MoE 和 DEIMv2 模型 ⭐️ 7.0/10
Laguna 引入每层头计数,允许不同解码层具有不同的查询头数量同时共享相同的 KV 缓存形状,并使用带 sigmoid 路由器配合每专家偏置学习实现无辅助损失的负载均衡。DEIMv2 提供八种模型尺寸(X 到 Atto),其中 DEIMv2-X 仅用 5030 万参数达到 57.8 AP,而 DEIMv2-S 成为首个在 COCO 上超过 50 AP 的亚 1000 万参数模型。
github · vasqu · Apr 28, 18:32
背景: 混合专家(MoE)是一种动态将输入路由到专业子网络以提高模型质量同时控制计算成本的技术。SwiGLU 是一种结合 Swish 和门控线性单元的激活函数,在零附近提供更平滑的过渡以实现更好的优化。DEIMv2 在 DETR(检测 Transformer)基础上改进了匹配并融合 DINOv3 特性以实现实时目标检测。
参考链接
标签: #huggingface, #transformers, #machine-learning, #mixture-of-experts, #NLP
llama.cpp b8964 修复推理预算重新启用错误 ⭐️ 7.0/10
DONE 状态会吸收包括新的开始标签在内的所有 token,导致预算无法正确重新启用。修复方法是在 DONE 分支中推进 start_matcher 并在匹配时重新设为 COUNTING 状态并分配新的预算。已添加回归测试(test-reasoning-budget: test 6)。 这个修复对使用多块思考模型进行扩展推理的用户很重要,因为它确保每个思考块都能获得正确的预算分配。没有这个修复,模型会消耗超出预期推理预算的无限 token。 错误发生的原因是 DONE 状态会吸收包括新开始标签在内的所有 token,导致预算无法正确重新启用。修复方法是在 DONE 分支中推进 start_matcher,并在匹配时用新预算重新设为 COUNTING 状态。已添加回归测试(test-reasoning-budget: test 6)。
github · github-actions[bot] · Apr 28, 20:07
背景: 推理预算(reasoning budget)是一种限制模型在生成最终答案之前可以产生多少「思考」token 的功能。GGUF(GPT 生成统一格式)是由 llama.cpp 项目创建的一种文件格式,用于在消费级硬件上高效存储和运行大型语言模型。Qwen3 是一个支持在单个响应中交错多个思考块的模型系列,每个块都需要正确重新启用预算。
参考链接
标签: #llama.cpp, #GGUF, #bug-fix, #reasoning-budget, #Qwen3
GitHub 之前的版本控制时代回顾 ⭐️ 7.0/10
这次讨论凸显了 GitHub 如何从根本上改变开源开发,使仓库创建变成个人化而非项目绑定,同时引发了对集中式档案保存可能削弱我们集体保存软件历史能力的担忧。 关键观点包括在个人名下创建仓库相比在 SourceForge 上严肃项目命名的解放感,Fossil 在一个文件中集成 wiki/论坛/问题单的便利性,Trac 的巨大阻力(Django 使用 20 多年后仍在使用),以及集中式档案保存削弱分布式保存技能的担忧。
hackernews · mlex · Apr 28, 21:17
背景: 在 GitHub 之前,SourceForge 需要严肃的项目注册,包括名称预留、CVS/SVN 设置、网站、邮件列表和问题跟踪。Trac 很受欢迎但需要大量设置工作。Git 创建于 2005 年,GitHub 于 2008 年推出,引入了更简单的以人为中心的模型,使仓库创建变得轻松自如。
社区讨论: 评论者称赞 GitHub 以人为中心的模型相比 SourceForge 的繁琐过程是一种解放,遗憾 Git 胜过 Fossil 尽管 Fossil 有有用的集成工具,担忧集中式档案保存削弱技能,并怀念 Trac 的阻力以及 Django 作为持久例子的事例。
标签: #version-control, #git, #github, #software-history, #developer-tools
谷歌 2026 年安卓侧载限制引发争议 ⭐️ 7.0/10
这代表安卓传统开放性的重大转变,使该平台更接近苹果的封闭花园模式,影响了重视在个人设备上运行自己代码的用户以及在谷歌 Play 之外分发应用的开发者。 验证流程要求开发者提供政府身份证明、上传应用签名密钥并支付 25 美元费用。存在一个名为”高级流程”的退出选项,允许用户通过额外的安全警告进行侧载。这些限制适用于全球认证的安卓设备。
hackernews · doener · Apr 28, 15:21
背景: 侧载是指直接从 APK 文件在谷歌 Play 之外安装应用,这是安卓区别于 iOS 的核心功能。安卓的开放性一直是关键差异化因素,允许用户运行自定义应用,让开发者无需经过谷歌的集中审批即可分发软件。这项政策变化是安卓开放生态系统历史上最重大的限制。
参考链接
社区讨论: 评论显示观点分歧:一些用户认为这背叛了安卓的创始承诺,正在考虑转向苹果;而另一些人指出”高级流程”提供了退出选项。批评者认为这代表了供应商锁定,甚至在台式电脑上也不可接受,而支持者则注意到其他类似的安全措施同样存在。
标签: #android, #google, #open-source, #user-rights, #ecosystem
谁拥有 Claude Code 编写的代码 ⭐️ 7.0/10
本文探讨了 Claude Code(Anthropic 的 AI 编程助手)编写的 AI 生成代码的法律所有权问题,分析了美国版权局 2025 年 1 月的裁决——没有实质性人类作者身份的 AI 生成作品不符合版权保护条件,以及最高法院 2026 年 3 月拒绝审理 Thaler 案上诉的决定。 这很重要,因为它影响了成千上万使用 AI 编程助手的开发者和公司,决定了 AI 生成的代码是否可以受版权保护、是否可以用开源条款授权,或是否属于公共领域——直接影响开源许可证的有效性和软件开发中的知识产权。 关键细节包括美国版权局要求有人类作者身份才能获得版权资格(即使详细的文本提示也不足够),最高法院拒绝调取令状并不能在全国范围内最终解决这一问题,部分社区成员认为 AI 代理基于“被盗知识产权”构建作品,可能在开源中助长版权“洗白”。
hackernews · senaevren · Apr 28, 11:24
背景: 人类作者身份是美国版权法的基石——版权法假定存在一个可以签署文件、继承财产和转让权利的人类作者。copyleft 许可证是一种开源许可证形式,要求衍生作品以与原作品相同的许可证分发。Thaler 案涉及研究员 Stephen Thaler 尝试在没有人类作者的情况下注册 AI 生成的作品。
参考链接
社区讨论: 评论显示不同观点:一位用户认为最高法院的驳回不能解决问题(拒绝调取令状有许多与案件实质无关的原因),另一位表达了对开源中版权“洗白”的担忧,并建议使用最强力的 copyleft 许可证,而一个怀疑的声音声称如果案件诉诸法院,所有权最终会落入“有钱人”手中。
标签: #AI-copyright, #legal-tech, #Claude-Code, #open-source-licensing, #IP-law
Warp 终端模拟器现已开源 ⭐️ 7.0/10
Warp,一款受欢迎的 AI 驱动终端模拟器,现已宣布开源。这家风险投资支持的公司表示,开源代码库将使社区能够贡献改进并加速产品开发。 这标志着风险投资支持的开发者工具竞争方式发生了重大转变。通过开源,Warp 希望利用社区贡献来超越资金充裕的闭源竞争对手,同时通过提供最优秀的产品来建立可持续的业务。 Warp 是一款基于 Rust 的终端模拟器,内置 AI 功能,包括 AI 命令补全和代码编辑功能。公司承认无法在价格上竞争或大幅补贴使用,因此开源作为一种战略性加速机制。
hackernews · meetpateltech · Apr 28, 15:58
背景: Warp 是一款 AI 驱动的终端模拟器,与 iTerm2 和 Windows Terminal 等传统终端不同,它将 AI 辅助功能直接集成到终端体验中。它是一家风险投资支持的公司,被定位为下一代开发者工具。
社区讨论: 社区反应不一。一些人支持这一商业策略,认为开源能够促进社区参与。另一些人则请求一个没有 AI 功能的轻量级版本,理由是担心 850 MB 的安装大小和与现有工具(如 Claude Code)的重复。一位开发者提到正在构建一个类似的带有嵌入式代理的 Rust 终端。
标签: #open-source, #developer-tools, #terminal, #startups, #AI-tools
Localsend:开源跨平台 AirDrop 替代品 ⭐️ 7.0/10
Localsend 是一款开源的跨平台文件传输应用,允许用户在同一个本地网络内的设备之间传输文件,无需互联网连接或云服务。 这很重要,因为它提供了一个免费的、注重隐私的跨平台替代方案来替代苹果的 AirDrop,但它要求设备必须在同一个本地网络这一限制与 AirDrop 能够创建临时网络的能力相比是一个明显的不足。 Localsend 需要所有设备连接到同一个本地网络才能发现和传输文件。像 Sendme 这样的替代方案使用 Iroh 协议库来实现真正的点对点文件传输,支持 NAT 穿透和互联网传输,无需中央服务器或现有的局域网连接。
hackernews · bilsbie · Apr 28, 11:54
背景: AirDrop 是苹果公司的专用文件共享功能,可以在苹果设备之间工作,并且可以创建临时本地网络进行临时文件传输,即使在户外或没有现有 Wi-Fi 网络的情况下也能使用。Localsend 作为开源替代方案,依赖传统的本地网络发现,这意味着设备必须首先连接到同一个 Wi-Fi 网络。Iroh 协议库提供了模块化的点对点连接工具,可以通过打洞技术和中继回退来绕过这些限制。
参考链接
社区讨论: 用户赞赏 Localsend 比 AirDrop 更可靠,但强调了一个关键限制:它要求设备必须在同一个局域网内,而 AirDrop 可以创建自己的网络。一位用户推荐 Sendme 和 AltSendme(基于 Iroh 构建)作为真正的点对点解决方案,不受地理限制。另一位建议 Pairdrop 作为基于浏览器的替代方案,可以使用公共房间连接本地网络之外的设备。总体情绪是现有解决方案无法满足”不需要现有 Wi-Fi 网络”这一标准。
标签: #open-source, #file-sharing, #AirDrop, #cross-platform, #local-network
Waymo 拓展至波特兰 正值公共交通预算危机 ⭐️ 7.0/10
Waymo 宣布拓展至俄勒冈州波特兰,此时当地交通管理机构 TriMet 正面临 3 亿美元预算缺口,正进行裁员、减少服务频率并取消公交线路。 这一拓展凸显了自动驾驶汽车与美国传统公共交通的不同发展轨迹——传统交通服务因资金危机面临严重削减,而自动驾驶公司却在持续拓展新市场。
hackernews · xnx · Apr 28, 18:08
背景: Waymo 是 Alphabet(谷歌母公司)旗下的自动驾驶汽车公司。TriMet 为波特兰大都市区提供公交车、轻轨(MAX)和有轨电车服务。波特兰市中心拥有密集的有轨电车和轨道公交网络。
社区讨论: 评论讨论了自动驾驶扩张与交通削减并行的讽刺现象,用户分享了试用 Waymo 后的正面体验。其他人梦想将 Rivian 车辆与 Waymo 技术结合,也有人担心 Waymo 车辆可能被困在波特兰的轨道上。
标签: #autonomous-vehicles, #waymo, #public-transit, #portland, #urban-mobility
Into the Omniverse: Manufacturing’s Simulation-First Era Has Arrived ⭐️ 7.0/10
NVIDIA announces manufacturing’s transition from traditional design-build-test cycles to simulation-first approaches through their Omniverse platform.
rss · NVIDIA Blog · Apr 28, 13:00
标签: #manufacturing, #simulation, #NVIDIA Omniverse, #industrial tech, #digital twin
Anthropic 将 Claude 接入 Photoshop、Blender 和 Ableton ⭐️ 7.0/10
这些连接器继 Claude Design 于 2026 年 4 月 17 日发布之后推出,Claude Design 定位为用于创建视觉设计、原型、幻灯片和单一页面的协作工作空间。新连接器使 Claude 能够接入实际创意应用,而不仅作为独立设计工具运行。 这一集成显著扩展了 Claude 对创意专业人士的实用性,使 AI 助手能够直接融入主流桌面创意工作流程,可能改变设计师、3D 艺术家和音乐人与 Photoshop、Blender 及 Ableton 等工具的交互方式。
rss · The Verge AI · Apr 28, 16:49
背景: Claude Design 是 Anthropic 于 2026 年 4 月推出的专用 AI 设计产品,旨在实现视觉工作的快速原型设计和协作。新的创意连接器代表了 Anthropic 从独立 AI 工具向专业日常使用的成熟创意软件生态系统的直接集成的扩展。
参考链接
标签: #AI integration, #Anthropic Claude, #creative tools, #product launch, #workflow automation
马斯克与 Altman 对簿公堂:OpenAI 审判正式开启 ⭐️ 7.0/10
埃隆·马斯克与 OpenAI 之间的高调法律审判正式拉开帷幕。此案聚焦于人工智能早期开发过程中的争议,涉及谁应为 OpenAI 的创立获得荣誉和经济补偿。 此次审判可能会揭露 OpenAI 创立和治理决策中此前鲜为人知的机密细节。此案结果可能为人工智能公司未来如何处理知识产权、资金安排和治理结构设定重要先例。
rss · The Verge AI · Apr 28, 14:47
背景: 埃隆·马斯克是 OpenAI 2015 年的原始联合创始人之一,但于 2018 年离开该组织。诉讼称 OpenAI 转型为营利公司,特别是与微软的合作,违背了其为人类利益开发人工智能的创始使命。马斯克指控该公司当前的方向背离了创始人之间的最初协议。
标签: #AI Industry, #OpenAI, #Elon Musk, #Legal, #Tech Governance
谷歌与五角大楼达成协议 允许”任何合法”军事用途 ⭐️ 7.0/10
据《信息报》报道,谷歌已与美国国防部签署了一项秘密协议,允许五角大楼将谷歌的 AI 模型用于”任何合法的政府目的”。该协议是在谷歌员工要求首席执行官桑达尔·皮查伊阻止五角大楼使用其 AI 技术后不到一天内报道的。 该协议属于机密,意味着所涉及的具体 AI 模型及其预期应用细节尚未披露。”任何合法政府目的”这一宽泛措辞可能涵盖广泛的军事和国防应用,从情报分析到自主武器系统。
rss · The Verge AI · Apr 28, 11:09
背景: 这笔交易并非谷歌首次与五角大楼合作;此前,该公司参与了 Project Maven 项目,这是一项 AI 无人机瞄准项目,在 2018 年引发了员工抗议,导致该公司未续签合同。尽管员工过去担心 AI 被用于致命目的,但当前协议似乎扩大了与军队的 AI 合作。谷歌员工历来反对将他们的工作用于军事目的,认为 AI 不应该被武器化。
社区讨论: 鉴于报道时间恰好在员工抗议要求谷歌阻止五角大楼使用其 AI 之后,这一消息引发了重大争议。公众可能会认为这是对员工道德关切的漠视,是将政府合同置于负责任 AI 开发之上的做法。
标签: #AI ethics, #Google, #Pentagon, #tech industry, #military AI
Talkie-1930: 基于 1931 年前英语文本训练的 130 亿参数语言模型 ⭐️ 7.0/10
由 Nick Levine、David Duvenaud 和 Alec Radford 领导的研究人员开发了 Talkie-1930,这是一款 130 亿参数的开源语言模型,仅使用 1931 年前出版的英语文本进行训练。该模型对互联网、智能手机或二战等现代事件一无所知。 这是一个独特的’时间胶囊’模型,使研究人员能够在不受现代知识干扰的受控条件下研究历史推理和模型泛化。它为理解大型语言模型如何进行历史推理和跨时间分布漂移泛化提供了新颖的测试平台。 该模型仅基于 1931 年前的英语文本语料库进行训练,形成 1931 年的知识截止点。作为开源权重模型,研究人员可以自由访问其权重进行学习和实验。130 亿参数的规模使其足以进行有意义的研究,同时便于分析。
rss · MarkTechPost · Apr 28, 02:24
背景: 知识截止点是 LLM 开发中的基本概念——它标志着模型训练数据的时间截止点。现代大型语言模型的截止点通常在 2021-2024 年之间,意味着它们缺乏该日期之后发生的知识。训练数据和测试数据之间的分布漂移是机器学习研究中的关键挑战,在历史数据上学习的模式可能不适用于未来场景。Talkie-1930 通过创建可以系统研究的极端时间截止点来形式化这一问题。
标签: #large language models, #historical AI research, #model generalization, #train-test gap, #AI interpretability
FIDO 联盟与谷歌、万事达共同制定 AI 代理安全标准 ⭐️ 7.0/10
FIDO 联盟已与谷歌和万事达合作开发 AI 代理的安全标准,这些 AI 代理将很快代表用户进行购买,以解决对不受控制的自主消费的担忧。 这很重要,因为 AI 代理正从简单的助手演变为能够进行真实购买的自主系统,为消费者和企业带来新的安全风险。如果没有适当的标准,用户可能因 AI 代理超越其意图消费而面临重大财务损失。
rss · WIRED AI · Apr 28, 13:00
背景: FIDO 联盟是一个成立于 2013 年的开放行业组织,开发认证标准以减少对密码的依赖,以 2018 年推出的 FIDO2 标准而闻名。AI 代理是使用机器学习自主执行任务的软件程序,在过去十八个月中,自主 AI 消费已成为现实,代理可以购买 API 积分、云资源和 SaaS 工具。
参考链接
标签: #AI agents, #cybersecurity, #FIDO Alliance, #digital payments, #AI safety
彭博终端引入 AI 聊天机器人功能 ⭐️ 7.0/10
彭博终端是一款专业计算机终端,为金融专业人士提供实时金融数据、新闻和分析服务。自 1980 年代以来,它一直是金融行业的标准设备,以独特的橙色键盘和密集的信息显示著称。该终端由彭博有限合伙公司(Bloomberg L.P.)运营,是一家主要的金融数据公司。 AI 聊天机器人功能将允许用户使用自然语言查询与终端进行交互,可能取代传统的键盘快捷键和菜单导航方式。这次改造标志着彭博终端历史上最重大的平台转型之一。
rss · WIRED AI · Apr 28, 08:30
标签: #fintech, #AI, #Bloomberg Terminal, #trading, #finance
Talkie:来自 1930 年代的 13B 复古语言模型 ⭐️ 7.0/10
此项目是一个独特的「复古」AI 助手,使用 20 世纪初的语言模式,为研究人员提供了一个新颖的工具来探索历史语言用法,并测试基于旧数据训练的模型是否能够预测未来事件,甚至重新发现像广义相对论这样的 past 科学发现。 基础模型(53.1 GB)完全基于 1931 年前公有领域文本训练,而聊天模型(26.6 GB)需要使用 Claude Sonnet 4.6 和 Claude Opus 4.6 生成合成数据来提高指令_following 能力,这可能会引入时代错位的污染。
rss · Simon Willison · Apr 28, 02:47
背景: 训练数据使用 1931 年前的文本,因为美国版权保护期截止到 1931 年 1 月 1 日,使这些数据在法律上可以自由使用,无需授权许可。这与「纯素模型」概念相关——完全基于授权或公有领域数据训练的 LLM。该项目还探索了引人入胜的研究问题,比如一个训练到 1911 年的模型是否能够独立发现广义相对论。
标签: #language-models, #historical-nlp, #ai-experiments, #huggingface, #vintage-english
神经账本系统:跨会话的 AI 上下文持久化 ⭐️ 7.0/10
开发者 Umbecanessa 构建了神经账本系统(NLS),该系统在每轮交互后将模型的 K/V 状态(包括 Qwen3.5-MoE 等混合模型的循环状态)持久化到磁盘,在下一会话时重新注入缓存——解决了上下文丢失问题,且无需重新发送对话历史。已提交临时专利申请(US 64/050,345)。 这解决了 AI 编码代理(Cursor、OpenCode、Aider、Claude Code 等)在跨会话时丢失上下文的主要痛点——遗忘 SSH 地址、重新询问数据库密码。它还解决了长时运行代理的经济低效问题,因为目前每轮都重新发送完整对话历史,导致成本随对话长度叠加。NLS 在测试中实现了 99.3%的提示符令牌节省。 NLS 在三种设置下进行了验证:标准对话回忆(5/5)、LongMemEval 基准测试(8/18,与基于文本的提示符相同)、以及使用 OpenCode 的真实代理循环,在回忆路径上实现了 99.3%的令牌节省。注意事项:仅完成单 GPU 验证,插件源代码为专有(专利申请中),已提交临时专利,计划在 12 个月内提交正式专利和国际专利。
rss · Hacker News - Show HN · Apr 28, 20:22
背景: 由 Transformer 模型驱动的 AI 编码代理依靠注意力机制中的 Key/Value(K/V)状态来维持上下文。传统架构在每轮交互中重新发送完整对话,导致成本随长度累积,并在会话重启时造成上下文丢失。神经账本方法将这些计算出的状态跨会话持久化,使模型能够在无需重新计算或重新传输的情况下表现出拥有完整上下文的样态。
参考链接
社区讨论: 暂无评论。该 HN 帖子在处理时仅有 1 点,0 条评论。
标签: #AI coding agents, #context management, #developer tools, #attention states, #software architecture
HIC:同环隔离操作系统内核实现 4 纳秒进程间通信 ⭐️ 7.0/10
HIC 是一个能力安全的操作系统内核,它使用同环隔离技术在 Ring 0 内隔离系统服务,仅用 3 条指令(call、bt、jmp)就实现了 4 纳秒的进程间通信,同时通过 MMU 或 8086 上的段描述符强制实施隔离,且无需任何跨域特权切换。 这种设计消除了内核介导的进程间通信和特权切换的性能开销,这是传统微内核设计中的基本瓶颈。它证明了强大的安全隔离可以在不牺牲性能的情况下实现,可能影响嵌入式和安全关键系统的操作系统内核架构研究。
rss · Hacker News - Show HN · Apr 28, 18:56
背景: 能力安全是一种通过不可伪造的令牌(称为能力)来授予对象访问权限的模型,而不是直接引用对象。在 x86 架构中,Ring 0 是执行内核代码的最高特权级。MMU(内存管理单元)在地址空间之间强制执行内存边界。在 8086 上,LDT(本地描述符表)中的段描述符替代页表来定义内存访问权限。
标签: #operating-systems, #capability-security, #kernel-design, #low-level, #security
英伟达高管:AI 成本高于人工成本 ⭐️ 7.0/10
这一表态意义重大,因为许多公司正大力投资 AI,期望以此降低人工成本并提高效率。如果 AI 实际上比人工成本更高,这可能会从根本上改变企业对待 AI 采用和劳动力规划的方式。 这一观点来自英伟达高管,该公司是 AI 芯片和硬件的主要提供商。鉴于英伟达在 AI 生态系统中的核心地位,其对 AI 经济的分析在行业内具有重要影响力。
rss · Hacker News - AI / LLM / Agent · Apr 28, 22:15
背景: 传统上,企业采用 AI 是为了降低人工成本和提高效率,假设自动化系统随着时间推移会比人工更便宜。作为领先的 AI 硬件提供商,英伟达对大规模运行 AI 系统的实际成本有独特的洞察,包括计算资源、能源消耗和维护费用。
社区讨论: 该新闻获得的关注度相对较低(10 分,6 条评论),表明社区兴趣有限,或者认为这一表态考虑到现有的 AI 成本担忧并不完全令人意外。较低的关注度可能表明业内人士早已质疑 AI 是否真的能带来成本节约。
标签: #AI economics, #Nvidia, #labor costs, #AI adoption, #industry perspective
OpenAI 模型、Codex 和托管代理登陆 AWS ⭐️ 7.0/10
OpenAI 宣布其 AI 模型、Codex 编码代理和托管代理现已通过 Amazon Bedrock 在 AWS 上可用。客户可以使用 AWS 现有的基础设施、安全控制、身份系统和采购流程来构建 OpenAI 模型应用。 这项合作使已经使用 AWS 的企业客户能够更容易地访问 OpenAI 的先进 AI 能力。它允许企业在现有的 AWS 生态系统内使用 OpenAI 的技术,可能会加速企业环境中的 AI 采用。 OpenAI Codex 是一个于 2025 年 4 月发布的 AI 编码代理,能够编写代码、修复错误、处理功能开发和管理拉取请求。它可通过 ChatGPT 网络应用、Codex CLI、Windows 和 macOS 桌面应用以及 IDE 集成来访问。Amazon Bedrock 托管代理由 OpenAI 提供支持,使客户能够在云中构建生产级别的代理。
rss · Hacker News - OpenAI / Anthropic / Gemini / DeepSeek · Apr 28, 17:13
背景: Amazon Bedrock 是 AWS 用于构建生成式 AI 应用的完全托管服务。OpenAI Codex 是一款自主 AI 编码代理,设计用于在基于云的沙盒中处理软件工程任务。该集成允许 AWS 客户在其现有的 AWS 账户和安全框架内使用 OpenAI 的模型。
参考链接
标签: #OpenAI, #AWS, #Cloud Computing, #AI Services, #Partnership
Anthropic 加入 Blender 发展基金成为企业赞助商 ⭐️ 7.0/10
Anthropic 已加入 Blender 发展基金成为企业赞助商,支持开源 3D 建模软件 Blender。 这一赞助标志着行业发展的重要里程碑,AI 公司直接支持开源 3D 工具,可能预示着未来 AI 辅助 3D 内容创作功能的发展。 作为企业赞助商,Anthropic 提供资金支持以确保 Blender 的持续开发。该合作在 Blender 官方新闻页面上公布,在 Hacker News 上引发热烈讨论(240 分,189 条评论)。
rss · Hacker News - OpenAI / Anthropic / Gemini / DeepSeek · Apr 28, 16:07
背景: Blender 是一款全球数百万用户使用的开源 3D 创作套件,用于建模、动画、渲染和合成。Blender 发展基金通过各种赞助级别提供可持续的资金支持,企业赞助商是其中较高的贡献级别。Anthropic(Claude AI 的创造者)现在与其他企业赞助商一起支持这个开源项目。
参考链接
社区讨论: Hacker News 上的讨论显示出社区的强烈兴趣,人们猜测 Anthropic 对 Blender 感兴趣的原因——从 Claude 可能与 3D 工具集成到 AI 行业对创意开源项目的支持。一些评论者认为这是开源可持续发展的积极信号。
标签: #open-source, #Anthropic, #Blender, #corporate sponsorship, #AI/3D tools
大型语言模型自我改进的局限性:没有符号模型综合就不会有奇点 ⭐️ 7.0/10
该论文特别研究了大型语言模型是否能够在没有外部符号推理的情况下迭代改进自身能力。它认为,仅靠模式识别(这是大型语言模型所做的)不足以实现奇点级别智能所需的递归自我改进。
rss · Lobsters - AI · Apr 28, 16:43
背景: 自我改进 AI 指的是能够不依赖人类干预而增强自身能力的系统。符号模型综合是一种将神经网络与符号 AI 相结合的方法,允许程序使用符号原语。AI 语境中的”奇点”指的是一个假设的未来时刻,届时 AI 将超越人类智能并以指数级速度递归自我改进。该论文认为,当前的大型语言模型缺乏这种递归自我改进所需的符号推理能力。
参考链接
社区讨论: Lobsters 上的讨论显示了浓厚的技术兴趣,评论者就该论文关于符号推理是否真的是 AGI 所必需的论点展开了辩论,并质疑该论文是否充分探讨了自论文最初提交以来出现的新型自我改进方法(如 Constitutional AI)。
标签: #AI safety, #LLM limitations, #singularity, #machine learning, #AGI
使用 Snowflake Cortex Agents 释放结构化数据的最大价值 ⭐️ 7.0/10
一篇技术实践文章,演示了如何使用 Snowflake Cortex Agents 在 Snowflake 数据云平台中释放结构化数据的最大价值。 这对于数据工程师和数据分析从业者来说是一个重要的发展,因为它展示了如何将人工智能代理集成到主流数据平台中,使用自然语言来处理和分析结构化数据。 Cortex Agents 允许用户通过 agent:run API 与数据进行交互,需要拥有 SNOWFLAKE.CORTEX_USER 或 SNOWFLAKE.CORTEX_AGENT_USER 角色。该代理可以从数据中提取信息、回答复杂问题并处理多轮对话。
rss · InfoQ 中文站 · Apr 28, 15:36
背景: Snowflake Cortex 是 Snowflake 的人工智能/机器学习功能,将 AI 功能集成到其数据云平台中。Cortex Agents 是能够理解自然语言查询并与存储在 Snowflake 中的结构化数据进行交互的人工智能代理。这代表了被集成到企业数据平台中的新兴人工智能能力。
参考链接
社区讨论: 这篇技术实践文章对于希望利用 Snowflake 中人工智能能力的数据工程师来说具有重要意义。将人工智能代理与结构化数据集成代表了数据平台中日益增长的趋势,使数据分析更加直观。
标签: #Snowflake, #Cortex Agents, #AI/ML, #Data Engineering, #Cloud Data Platform
Grafana 利用 Kafka 重构 Loki,发布 CLI 工具支持 AI 代理 ⭐️ 7.0/10
Grafana 使用 Apache Kafka 重构了其 Loki 日志聚合系统,并发布了一款新的 CLI 工具,旨在将可观测性能力引入 AI 编码代理。 这一进展表明可观测性领域的数据管道设计正在不断演进,同时也显示出 DevOps 与 AI 代理工作流程的日益融合。该集成使 AI 编码代理能够利用结构化日志和指标来增强调试和系统监控能力。 基于 Kafka 的重构使 Loki 能够更高效地处理高吞吐量日志流,因为 Kafka 是一个分布式事件流平台。新的 CLI 工具为 AI 代理提供了直接访问可观测性数据的命令行接口,使它们能够在代码执行期间查询日志和指标。
rss · InfoQ 中文站 · Apr 28, 15:00
背景: Loki 是 Grafana 的开源日志聚合系统,旨在大规模存储和查询日志,其功能类似于 Prometheus,但专门用于日志。Apache Kafka 是一个广泛使用的分布式事件流平台,用于构建实时数据管道。这种架构变化反映了行业将可观测性更深入地集成到 AI 驱动的开发工作流程中的趋势。
标签: #observability, #Grafana, #Loki, #Kafka, #AI agents, #DevOps
ClickHouse 重构全文索引:对象存储上跑出高性能 Full-Text Search ⭐️ 7.0/10
ClickHouse 重新设计了其全文索引功能,使其能够在对象存储上高效运行,从而无需专用搜索基础设施即可实现高性能全文搜索。 這代表了兩個主要雲原生技術——ClickHouse 的分析數據庫能力和對象存儲——的重要結合,可能為需要大規模全文搜索的組織降低基礎設施的複雜性和成本。 新的索引佈局针对顺序访问模式进行了优化,使系统能够直接通过索引结构响应大量查询,而无需读取实际被索引的文本列,从而显著降低了 I/O 开销。
rss · InfoQ 中文站 · Apr 28, 14:26
背景: ClickHouse 是一款面向大规模分析工作负载的列式存储 OLAP 数据库,以其卓越的查询性能而闻名。对象存储是一种雲端存儲架構,將數據作為對象存儲,與傳統塊存儲相比更具可擴展性和成本效益。全文搜索通常需要專門的搜索引擎如 Elasticsearch,它們維護針對隨機訪問模式優化的倒排索引。
参考链接
标签: #ClickHouse, #Full-Text Search, #Object Storage, #Database, #Search Infrastructure
Cloudflare Sandboxes 正式发布:为 AI 代理提供持久化隔离环境 ⭐️ 7.0/10
Cloudflare 在其 Agents Week 活动上宣布 Sandboxes 和 Cloudflare Containers 正式发布,为 AI 代理提供持久化的隔离 Linux 环境,具备真实的计算机、shell、文件系统和支持后台进程,可按需启动并能从上次中断处恢复。 正式版新增安全凭证注入、PTY 终端支持、持久化代码解释器、文件系统监听、基于快照的会话恢复,以及按实际使用周期计费。技术实现采用 Linux 内核级隔离机制,通过命名空间和资源配额严格限制 CPU、内存、网络及文件系统资源。
rss · InfoQ 中文站 · Apr 28, 11:00
背景: AI 代理通常需要持久化的执行环境来处理复杂的多步任务,但传统云基础设施通常提供无状态的函数即服务。Cloudflare Sandboxes 通过为 AI 代理提供自己的专用计算资源来解决这一问题,这些资源具有完整的 Linux 环境、shell 访问权限和文件系统,而非短暂的函数调用。
标签: #Cloudflare, #AI Agents, #Security, #Sandboxing, #Cloud Infrastructure
教育部新增 38 种本科专业 交叉学科首次列入具身智能 ⭐️ 7.0/10
教育部发布 2026 年本科专业目录,新增 38 个专业,覆盖能源科学与工程、农业机器人、生物制造、脑机科学与技术、数字文旅、数字贸易等领域。支持哈工大等 9 校增设具身智能专业,交叉学科门类首次列入 15 种专业,可纳入今年高考招生。 这体现了国家在人工智能领域的人才培养战略布局。交叉学科门类首次列入 15 种专业,显示了国家推动 AI 与实体经济融合的战略优先。具身智能被视为大模型之后人工智能的下一个浪潮,此举反映了国家为新兴技术建立人才储备的战略方向。 本科专业目录涵盖 13 门类、92 专业类、883 种专业。”十四五”期间高校专业累计调整比例超 30%,今年首次突破 10%。新增的 4 种交叉学科新设专业包括具身智能。
telegram · zaihuapd · Apr 28, 08:52
背景: 具身智能(Embodied AI)是指人工智能系统通过物理身体与真实环境进行感知、推理和交互的能力。它将 AI 的”大脑”与物理实体相结合,使机器能够通过传感器和执行器理解物理环境,通常体现为人形机器人等多种形态的机器人。与仅存在于数字空间的传统 AI 不同,具身智能让机器能够以第一视角自主感知物理世界。这一概念最早由计算机科学之父艾伦·图灵于 1950 年提出,被视为继符号主义、深度学习之后人工智能发展的第三个流派。
参考链接
- 什么是具身智能?看这篇就够了! - 知乎
- 什么是“具身智能”? 和人形机器人有什么关系?-新华网
- 具身智能(智能体通过身体将感知、行动与认知深度融合的智能系统)_... 什么是“具身智能”? 和人形机器人有什么关系?-新华网 具身智能(Embodied AI)的概念、核心要素、难点及突破性进展-CSDN博... 具身智能入门:AI 迈向物理世界的进化之路【2026】 | QubitTool 具身机器人,何为「具身」? - 少数派 什么是 具身智能 ?看这篇就够了! - 知乎 具身 智能 (Embodied AI)的概念、核心要素、难点及突破性进展 具身 机器人,何为「 具身 」? - 少数派 具身 智能 (Embodied AI)的概念、核心要素、难点及突破性进展 写给小白的“具身智能”入门科普 - 36氪
标签: #中国教育政策, #人工智能, #具身智能, #本科专业调整, #交叉学科
网信办点名”剪映”“即梦 AI”:AI 生成内容标识不合规被查处 ⭐️ 7.0/10
2026 年 4 月 28 日,国家互联网信息办公室通报,对剪映、猫箱、即梦 AI 等主流 AI 内容平台进行查处,原因是这些平台未能有效落实人工智能生成合成内容标识规定。 这是中国首次针对 AI 内容标识要求采取的重大监管执法行动,展示了具体的合规预期。涉及的平台拥有数百万用户,向整个行业发出了重要的监管信号。 相关部门对这些平台采取了约谈、责令整改、警告,并从严处理责任人等措施。网信部门强调,平台不得以技术创新为由忽视合规要求。
telegram · zaihuapd · Apr 28, 09:29
背景: 中国一直在完善 AI 治理框架,要求人工智能生成内容必须清晰标识。此次执法行动是对中国 AI 内容标识相关法规的执行,表明监管部门在生成式人工智能应用加速普及的背景下正采取积极监管措施。
社区讨论: 业界人士认为,这明确表明中国对 AI 内容透明度要求是认真的。这一执法行动为其他处理 AI 生成内容的平台树立了先例,它们需要实施适当的标识机制,否则将面临类似的处罚。
标签: #AI regulation, #content moderation, #China tech policy, #AI governance, #platform compliance
谷歌与美国国防部签署价值 2 亿美元的人工智能机密协议 ⭐️ 7.0/10
谷歌已与美国国防部签署机密协议,将其人工智能模型用于包括任务规划与武器目标定位在内的机密军事工作,每份协议价值高达 2 亿美元。 这一协议标志着大型科技公司直接参与军事人工智能应用的重大升级,引发了关于人工智能在武器系统和防御作战中角色的关键伦理问题。这反映了硅谷企业与国防部合作的更广泛趋势,尽管遭到内部员工的反对。 该协议允许人工智能用于任何合法的政府用途,但禁止在缺乏人工监督的情况下用于国内大规模监控或自主武器。谷歌无权否决政府合法的运营决策,而 Anthropic 此前因拒绝放松安全限制被列为供应链风险企业。
telegram · zaihuapd · Apr 28, 11:47
背景: 该协议是继 2025 年国防部与谷歌、OpenAI 和 Anthropic 签署每份最高价值 2 亿美元的合同之后的最新举措。美国国防部一直在将人工智能快速整合到军事作战中,包括目标打击支持和预测后勤。谷歌此前曾因参与 Project Maven 军事人工智能无人机分析项目而面临内部抗议。
参考链接
标签: #AI policy, #military AI, #Google, #Pentagon, #tech ethics
LiteLLM SQL 注入漏洞可无认证窃取 API 密钥 ⭐️ 7.0/10
LiteLLM 的 Proxy 组件中发现了一个严重的 SQL 注入漏洞(CVE-2026-42208),攻击者无需任何认证,通过构造恶意的 Bearer token 在认证失败时的错误日志中注入 payload,即可非授权读取数据库中保存的各厂商大模型 API 密钥。 该漏洞危害极高,因为任何暴露在公网的 LiteLLM 实例都可能受到影响,攻击者无需任何凭证即可窃取 OpenAI、Anthropic、Azure 等大模型提供商的 API 密钥,导致未授权使用和潜在的经济损失。 该漏洞已在 LiteLLM v1.83.7-stable 版本中修复。建议用户立即升级并轮换所有已存储的 API 密钥。作为临时缓解措施,可在配置中设置disable_error_logs: true来阻止注入 payload 被触发。
telegram · zaihuapd · Apr 28, 14:44
背景: LiteLLM 是一个开源库,提供统一的接口来调用 100 多个大模型提供商(OpenAI、Anthropic、Azure、Bedrock 等),使用 OpenAI 格式进行交互。其 Proxy 组件可作为企业级 AI 网关部署。OAuth 2.0 Bearer token 是访问受保护 API 端点的标准认证方式。
标签: #security vulnerability, #SQL injection, #CVE-2026-42208, #LiteLLM, #API key exposure
Warp 开源客户端代码库,打造基于终端的智能开发环境 ⭐️ 7.0/10
Warp 现已开源其基于终端的智能开发环境客户端代码库,UI 框架采用 MIT 许可证,其余代码采用 AGPL v3 许可证。 这次开源发布具有重要意义,因为 OpenAI 创始赞助商的身份和混合许可证模式展示了对开发者工具生态系统的承诺,而支持多种 AI 代理集成为 AI 驱动的开发工作流打造了开放生态。 代理管理工作流由 GPT 模型驱动,支持内置编码代理,也可接入 Claude Code、Codex、Gemini CLI 等自定义 CLI 代理。AGPL v3 许可证特别要求在使用网络时必须将修改后的代码共享回社区。
telegram · zaihuapd · Apr 28, 17:04
背景: AGPL v3(GNU Affero 通用公共许可证)是一种专为网络使用软件设计的左版许可证,要求在服务器上运行程序时的任何修改必须对用户开放。AI 编程代理是一种自主代理,可以接收任务描述、编写代码并在定义的检查点进行人工审查后打开拉取请求。
参考链接
标签: #开发者工具, #终端模拟器, #开源, #AI编程, #Warp
NVIDIA 发布 Nemotron 3 Super:1200 亿参数开源 MoE 模型专为多智能体 AI ⭐️ 7.0/10
NVIDIA 正式发布了 Nemotron 3 Super,这是一款拥有 1200 亿参数的开源大模型,在推理时仅激活 120 亿参数。该模型采用混合专家(MoE)架构融合 Mamba 状态空间层与 Transformer 层,支持 100 万 token 上下文窗口。 该模型采用混合架构,结合 Mamba SSM 层处理长序列的高效性与 Transformer 层强大的语言理解能力。MoE 设计允许路由到专业专家,使得在保持推理计算可控的同时实现海量参数规模,每 token 仅激活部分参数。
telegram · zaihuapd · Apr 29, 00:00
背景: Mamba 是一种状态空间模型(SSM)架构,旨在解决 Transformer 在处理长序列时的局限性,提供次二次方计算复杂度。混合专家(MoE)是 GPT-4 和 DeepSeek 等前沿模型使用的架构技术,将神经网络分割成专业专家,每 token 仅激活少数专家以扩展参数而不成比例增加推理成本。
参考链接
标签: #NVIDIA, #LLM, #MoE architecture, #Multi-agent AI, #Open weights