什么是代理型人工智能

想象一下,有一种人工智能(AI)不仅仅遵循你的指令,还能自行决定如何实现你的目标。代理型人工智能(Agentic AI)正是如此:这是人工智能的一个新前沿领域,在这个领域中系统可以独立运行。代理型人工智能有潜力革新诸多行业。但其高度的自主性伴随着重大的责任——以及潜在的伦理困境。确保自主导向系统中的责任性、公平性和安全性是建立对这些技术的信任和可靠性的核心所在。

Keeley Crockett是IEEE会员以及《IEEE计算智能新兴话题杂志》的前任副主编,下文中他将重点探讨什么是代理型人工智能、它正在如何被使用以及在未来几年可能会如何发展。

你会如何向没有技术背景的人解释代理型人工智能呢?

代理型人工智能指的是能够独立行动以实现目标而不需要持续人类控制的人工智能系统。这些系统能够基于其程序设定和所处理的数据来做决策、执行操作并适应各种情况,通常不需要人类输入。一个目标可能包含若干个子目标。

关于这些系统在未来可能的应用有几个例子。想象一下你有一个家庭清洁机器人,你只给它下达“保持房屋清洁”的指令。然后这个机器人就会在适当的时候执行任务,比如当它判定地板脏了就进行吸尘,饭后就去洗碗,以及定时把东西放回原位。这个机器人理解目标并且不需要持续的指令就能自主行动。

另一种情形涉及使用代理型人工智能来运营一个营销项目。你可能会告知该系统要将销售额提高20%。然后,一个代理型人工智能系统能够独立分析特定时间段内的客户数据,以识别趋势和偏好。接着,该人工智能将分析客户数据,基于这一分析开展营销活动,并且如果发现活动未达到预期效果就进行调整。

代理型人工智能与传统人工智能模型或自动化系统有何区别?

传统人工智能模型遵循通常从数据中发现的预定义规则。如果没有某种形式的重新训练、测试和验证,这类模型无法自动适应意外的变化。而且还需要人类的监督和干预。传统模型通常是为一项特定任务而构建的,例如分类任务,即构建一个模型来判定一个人是否有可能拖欠贷款还款。

代理型人工智能系统能够独立行动以实现特定目标,不需要持续的人类干预。它们可以从数据中学习、适应新情况并动态调整自身的行动。它们的行为是目标驱动的,并且必须弄清楚如何实现主要目标和子目标,这就要求它们独立于人类对任务进行优先级排序和解决问题。

代理型人工智能有哪些伦理影响?

代理型人工智能的使用引发了几个关键问题。在如此复杂的系统中,如果出现问题,谁来负责?需要哪些数据和隐私保护措施?当代理型人工智能系统要做出具有现实世界影响的“道德”决策时,它应该如何应对?

这些问题对于传统人工智能系统也是一样的。尽管有伦理原则以及现行/新兴的立法作为指导,但我们仍在努力理解并剖析这在实际运作的系统中意味着什么。最大的伦理问题是,人类处于何种位置?

当今是否有正在使用的代理型人工智能模型?它们具备何种程度的自主性?

如今,代理型人工智能被应用于自动驾驶汽车中,基于对车辆周边环境的持续分析来做出驾驶决策。每一次出行都是一次学习体验。

一些网络安全公司使用代理型人工智能通过对网络活动的实时分析来检测组织内的威胁并进行关联。然后,人工智能会自动自主地对潜在的入侵做出响应。

我个人的观点是,随着研究的进展以及数据获取量的增加,代理型人工智能的应用案例将迅速发展。这些系统的准确性取决于一个人愿意分享多少个人数据。