谈及中美的AI竞赛,黄仁勋认为美国并不领先中国多远。首先,中国在能源方面远超美国。虽然,美国在芯片上领先,但中国在基础设施上几乎并驾齐驱,也在 AI 模型上紧随其后。
最近,来自西湖大学的自然语言处理实验室发布了DeepScientist系统,这也是首个具有完整科研能力,且在无人工干预下,展现出目标导向、持续迭代、渐进式超越人类研究者最先进研究成果的AI科学家系统。
总而言之,NovaFlow 为机器人自主操作提出了一个全新的、无需示教的框架。它通过解耦任务理解与底层控制,并创造性地利用大型视频生成模型作为常识知识的来源,有力地证明了在没有机器人特定数据的情况下实现通用、泛化操作的可能性。这或许将是我们向着能够 ...
其次,基础科学投入超常。谷歌的研发支出是全世界最高之一(可以说是按国家级实验室级别来烧钱的),单2024年就超过 430亿美元,而其中很大一部分投入了没有短期商业回报的项目,比如:量子计算(Google Quantum AI)、深度学习(Google ...
近期,北京大学、哈尔滨工业大学联合 PsiBot 灵初智能提出首个自我增强的灵巧操作数据生成框架 ——DexFlyWheel。该框架仅需单条演示即可启动任务,自动生成多样化的灵巧操作数据,旨在缓解灵巧手领域长期存在的数据稀缺问题。目前已被 NeurIPS 2025 接受为 Spotlight(入选率约 3.2%)。
今年 6 月,来自 Sapient Intelligence 的研究者提出了分层推理模型(HRM),用循环架构打破了传统思维链(CoT)的架构限制,对大模型推理结构产生了重大的影响。HRM 仅包含 2700 万个参数(大约比最小的 Qwen3 0.6B 模型小 22 倍),仅使用 1000 个训练样本,便在复杂的推理任务上取得了卓越的性能。
JEPAs作为LeCun团队近年重点推进的自监督学习框架,核心优势在于无需人工标注,模型就能自主从海量数据中学习特征规律,学完后就可以直接适配图像识别、跨模态匹配等下游任务,是AI领域高效学习的代表性模型。
这意味着OpenAI可以用几乎为零的成本,获得价值数百亿美元的AMD股票。只要AMD的股价因这笔超级大单而持续上涨,OpenAI就可以通过出售这些股票,轻松地为采购AMD芯片买单。
Meta的Llama首批研究论文就诞生于这种模式,其中的作者Hugo Touvron和Gautier Izacard都是在FAIR工作、同时攻读博士的代表。
考虑到前些天谷歌才刚刚发布了 Chrome DevTools (MCP),Gemini 2.5 Computer Use 的诞生倒不是特别让人惊讶。简单来说,与 OpenAI 的 Computer-Using Agent (CUA) 类似,DeepMind 的这个模型可让 AI 直接控制用户的浏览器 —— 在视觉理解和推理能力的基础上,该模型可以帮助用户在浏览器中执行点击、滚动和输入等操作。
对许多开发者来说,「设计模式(Design Pattern)」这个词并不陌生。它曾在软件工程领域扮演了「圣经」般的角色,将无数前辈的最佳实践固化为可复用的解决方案。而 Antonio Gulli 此举的意义,正是在于为方兴未艾的智能体开发领域,提供了首批系统性的「设计模式」,帮助开发者让打造强大、可靠的智能体变得有章可循。
资料显示,姚顺宇于 2015 年进入清华大学物理系,大二开始选修研究生理论课程,在周期驱动系统拓扑场论领域,提出非厄米系统中拓扑能带理论的新方法,并准确预测相关现象,相关研究成果发表在世界物理顶级期刊 Phys. Rev. Lett. 上。
当前正在显示可能无法访问的结果。
隐藏无法访问的结果