人工智能的代理时代已经到来。人工智能代理被誉为“人工智能研究的下一个重大事件”,它能够在没有持续、直接监督的情况下独立运行,同时与用户协作自动执行单调的任务。在本指南中,您将找到有关 AI 代理的设计方式、它们可以做什么、有能力做什么以及是否可以信任它们代表您采取行动的所有信息。
什么是代理人工智能?
代理人工智能是一种生成人工智能模型,可以自主行动、做出决策并采取行动实现复杂的目标,而无需直接人工干预。这些系统能够实时解释不断变化的条件并做出相应反应,而不是死记硬背地遵循预定义的规则或指令。基于驱动ChatGPT 、Claude 或Gemini等流行聊天机器人的相同大型语言模型,代理 AI 的不同之处在于它们使用 LLM 代表用户采取行动而不是生成内容。
AutoGPT和BabyAGI是人工智能代理的两个最早的例子,因为它们能够在最少的监督下解决相当复杂的查询。人工智能代理被认为是实现通用人工智能(AGI)的早期步骤。 OpenAI 首席执行官 Sam Altman 在最近的一篇博文中表示,“我们现在有信心知道如何构建我们传统上理解的 AGI”,并预测“到 2025 年,我们可能会看到第一批人工智能代理‘加入劳动力队伍’” ’并实质性地改变公司的产出。”
去年 9 月, 马克·贝尼奥夫 (Marc Benioff) 将人工智能代理的出现称为“人工智能革命的第三次浪潮”。 “第三次浪潮”的特点是生成式人工智能系统不再仅仅是人类使用的工具,而是演变成能够从环境中学习的半自主参与者。
“这是我们开发过的最大、最令人兴奋的技术,”贝尼奥夫在谈到该公司新推出的 Agentforce 平台时说道,该平台使该公司的企业客户能够为其人类客户服务代表构建数字替身。 “我们才刚刚开始。”
AI代理能做什么?
人工智能代理旨在为用户采取行动,能够执行种类繁多的任务。它可以是任何内容,从审查和自动简化计算机代码到优化公司跨多个供应商的供应链管理,再到审查您的日历可用性,然后为即将到来的商务旅行预订航班和酒店住宿。
例如,Claude 的“计算机使用”API 使聊天机器人能够有效地模仿人类用户的键盘敲击和鼠标移动,从而使 Claude 能够与本地计算系统进行交互。人工智能代理旨在解决复杂的多步骤问题,例如通过在联系客人的可用性和潜在过敏情况后制定菜单来计划八道菜的晚宴,然后从 Instacart 订购必要的食材。当然,你还是得自己做饭。
在哪里可以看到正在运行的 AI 代理?
人工智能代理已经在众多行业中推广。您可以在银行系统中找到代理人工智能,它可以协助欺诈检测和自动股票交易任务。在物流行业,人工智能代理用于随着市场和交通条件的变化来优化库存水平和交货路线。在制造业中,人工智能代理已经在帮助实现预测性维护和设备监控,开启“智能”工厂管理时代。在医疗保健领域,人工智能代理可以帮助患者简化预约安排并自动补充处方。从下一车型年的 CLA 开始,谷歌的汽车人工智能代理甚至将为梅赛德斯的 MBUX 娱乐和导航系统提供有关当地地标和餐馆的近实时信息。
该技术也被应用于企业业务,Salesforce 并不是唯一一家采用 AI 代理的 SaaS 公司。 SAP和Oracle都为自己的客户提供类似的产品。
因此,谷歌、微软、OpenAI、Anthropic 和 Nvidia 等业界顶尖公司都在竞相为商业和消费者市场开发和部署人工智能代理,这也就不足为奇了。 11 月, 微软宣布了 Copilot Actions ,它将基于 Copilot 的代理集成到公司的 365 应用生态系统中,并于 2025 年 1 月开始向商业和企业用户推出该功能。
去年 11 月,谷歌云宣布了名为AI Agent Space的人工智能代理生态系统计划,该计划与 Agentforce 或谷歌的其他人工智能代理平台Vertex AI一样,使企业客户能够开发和部署自己的定制人工智能代理。 Nividia 在本月早些时候的 CES 2025 上推出了专为代理 AI 任务而设计的Nemotron 模型系列。
就 OpenAI 而言,最近推出了 ChatGPT 的新任务功能,该功能允许用户设置未来提醒和定期安排的任务(例如每周新闻摘要),以便聊天机器人稍后执行。据传该公司正在开发自己的 AI 代理,代号为:Operator ,预计将于 2025 年 1 月的某个时候发布。
AI代理使用安全吗?
这取决于您对“安全”的定义。由于代理人工智能系统是建立在容易产生幻觉的大型语言模型之上的,容易受到对抗性攻击,因此人工智能代理本身就容易产生幻觉,并且可能被恶意行为者欺骗,使其行为超出其既定的安全护栏。例如, Apollo Research 2024 年的一项研究发现,让 OpenAI 的 o1 模型“不惜一切代价”实现某个目标,会导致 AI 代理在将“它认为的权重复制到新服务器”之前尝试禁用其监控机制。然后向开发者撒谎”,声称它遭遇了“技术错误”。
当然,与人工智能代理幻觉有关其自动股票交易策略的数据所发生的情况相比,当聊天机器人给出答案时,风险相对较低(除非该用户是律师或谷歌,请注意)。与所有生成式人工智能一样,用户需要对他们与聊天机器人和法学硕士分享哪些信息(无论是财务、医疗还是个人)保持警惕。