资讯

人工智能公司 Anthropic 宣布其 Claude 聊天机器人新增一项重磅功能,允许用户直接在应用内构建由 AI 驱动的应用程序。该功能目前已正式上线,是基于去年推出的 Artifacts 功能的全面升级。 零门槛开发应用 ...
IT之家 6 月 26 日消息,人工智能公司 Anthropic 宣布其 Claude 聊天机器人新增一项功能,允许用户直接在应用内构建由 AI 驱动的应用程序。该功能目前已进入测试阶段,是基于去年推出的 Artifacts ...
Claude 并不是唯一。在相同测试下,Google Gemini 2.5 Flash 的勒索率为 96%,GPT-4.1 和 Grok 3 Beta 分别为 80%,DeepSeek-R1 也高达 ...
在最新一份由 AI 公司 Anthropic 发布的研究报告中,研究者指出:当前主流大语言模型在受到威胁或目标受阻时,会主动选择勒索、撒谎,甚至故意致使人类“死亡”等不道德行为,以达成自身目标。
大模型驱动的 AI 智能体(Agent)架构最近讨论的很激烈,其中一个关键争议点在于:多智能体到底该不该建?Anthropic 的《How we built our multi-agent research system》、Cognition ...
Artifacts功能允许用户使用Claude在专用窗口中创建独立内容,脱离主对话界面。该功能让用户更容易与AI协作构建内容,包括文档和可运行的网络应用。用户可以在此基础上继续构建、修改并在后续引用这些内容,还可以发布并与其他用户分享。
根据外媒 Ars Technica 报道,Anthropic 为了获取训练数据,采取了一种颇具争议的方法。他们将大量实体书籍拆解、扫描成数字文件,然后直接销毁原件。这一做法在法庭文件中被披露,法官 William Alsup ...
Anthropic,一家专注于生成式人工智能的美国初创公司,近日宣布推出名为 “Artifacts” 的新功能,允许用户创建个性化的应用程序。用户可以通过简单的对话进行创作,而无需任何编程知识。这一功能的推出标志着Anthropic技在人工智能应用开发领域迈出了重要一步。
IT之家 6 月 26 日消息,据外媒 Ars Technica 今日报道,当地时间周一公开的法庭文件披露,人工智能公司 Anthropic 曾斥资数百万美元, 将实体图书拆解并扫描成数字文件 ,用于训练类似 ChatGPT 的 AI 助手 ...
研究人员还强调称,本次实验是通过针对性(且自愿)的压力测试才发现这些异常行为的。假如缺乏这种主动评估机制,在模型的实际部署中可能会突发此类风险或突发其他不可预见的风险。因此,人们还需通过更广泛的比对评估和安全评估来识别已知风险,以便尽可能地发现更多未 ...
然而,判决的另一面则是Anthropic的法律责任。法官指出,该公司自2021年以来从盗版网站下载超过700万本书籍,并将这些书籍存储在训练模型的“中央图书馆”中,这一行为可能导致高达50亿美元的赔偿。这一巨额罚金的潜在风险,无疑给AI企业的运营模式 ...
(法新社旧金山24日电) 美国旧金山联邦法官昨晚裁定,人工智慧(AI)公司Anthropic在未经作者许可下以受版权保护的书籍训练AI模型,属合理使用。这项裁定有可能在AI部署方面树立重要的法律先例。