2023年5月16日:我们站在人工智能(AI)革命的前沿。过去十年,数据与算力的碰撞催生了深度学习,让许多令人刮目相看的AI能力成为现实。然而,这也让我们面临好似潘多拉盒子那样的矛盾性挑战:自动化居然是劳动密集型的工作。听起来似乎好笑,但任何试图用AI来解决业务问题的人可能都知道,这是事实。
传统的AI工具虽然功能强大,但可能昂贵且耗时难用。必须费力地收集、整理数据并使用特定任务的注释来标记数据,以训练 AI 模型;而构建模型还需要专门但却难找的技能,更不要说每个新任务都需要重复这个过程。因此,企业不得不将主要注意力放在自动化那些有丰富数据和高业务价值的任务之上,而把其它的一切先放在一边。然而,这种情况正在开始改变。
Transfomers算法架构和自监督学习方法的出现,使我们能够利用大量未标记的数据,为大型预训练模型铺平了道路,我们有时将其称为”基础模型”。这些大模型降低了自动化背后所需的成本和劳力。
基础模型为各种 AI 应用提供了强大而多样的基础。我们可以使用基础模型以有限的注释数据和最少的工作量快速执行任务;在某些情况下,我们只需要描述手头的任务就可以驱使模型去完成任务。
但这些强大的技术也给企业带来了新的风险和挑战。今天的许多模型都是在质量和来源未知的数据集上进行训练的,导致会产生攻击性、有偏见或与事实不符的响应。那些最大型的模型不仅成本高昂,而且训练和运行的耗能庞大,部署起来也很复杂。
IBM 一直在开发一种方法,解决企业使用基础模型所面临的核心挑战。IBM日前在Think大会上宣布推出 watsonx.ai,这是IBM提供的市场上最新的 AI 工具和技术门户。当然,这个领域发展极快,有些工具只有几周时间长,而IBM也在不断为市场提供更新的工具。
watsonx.ai 是IBM刚刚宣布的watsonx产品集的一部分,包含的内容多样且将不断演进,但IBM总体的承诺不变——就是要提供安全的企业就绪的自动化产品。
这是 IBM 正在进行的一项工作,旨在加速客户从AI 新范式中获取价值的旅程。在此,介绍一下IBM构建一套由 IBM 训练的企业级基础模型的工作,包括IBM采用的数据与模型架构的方法。同时还将概述IBM新的平台和工具,如何帮助企业基于广泛的开源模型目录和IBM的模型,来构建和部署基于基础模型的解决方案。
数据:基础模型的基础
数据质量 至关重要。在有偏见或不良数据上训练的AI模型,自然会产生有偏见或不良的输出。这个问题在基础模型时代会变得更加复杂,用于训练模型的数据通常来自众多数据源,且异常丰富,以至于人类根本无法合理地梳理所有数据。
由于数据是驱动基础模型的燃料,因此 IBM 一直专注于精心策划模型中的所有内容。我们开发了AI工具,严格过滤数据中存在的仇恨、亵渎、许可限制和偏见等。一旦发现,立即删除,然后重新训练模型,如此循环反复。
数据管理是一项永远都做不完的工作。我们不断开发和完善新方法,以提高数据质量和控制,以满足不断变化的法律和监管要求。我们构建了一个端到端框架来跟踪已经清洗过的原始数据、使用的方法,以及每个数据点接触过的模型。
我们不断收集高质量的数据,以帮助解决金融、法律、网络安全和可持续发展等各个领域的一些最为紧迫的业务挑战。 我们当前的目标是收集超过 1 TB 的精选文本用以训练我们的基础模型,同时添加精选软件代码、卫星数据以及 IT 网络事件的数据与日志。
IBM 研究院还在开发能够在基础模型整个生命周期中注入信任的技术,以减轻偏见并提高模型的安全性。例如FairIJ,它可以识别用于调整模型的数据中的偏差数据点,以便对其进行编辑。其它方法,如fairness reprogramming,允许我们减轻模型中的偏差,即使是已经训练过的模型。
专注于企业价值的高效基础模型
IBM 新的 watsonx.ai 开发平台提供了 一套旨在实现企业价值的基础模型。它们已被整合到一系列 IBM的产品当中,这些产品将在未来几个月内提供给 IBM 客户。
认识到并没有放之四海而皆准的解决方案,因此IBM正在构建一系列有着不同大小和体系结构的语言及代码的基础模型。每个模型家族都以一个地质名称代号——Granite (花岗岩)、砂岩 (Sandstone)、黑曜石 (Obsidian) 和板岩 (Slate)——它们汇集了来自 IBM 研究院和开放研究社区的尖端创新,每个模型都可以针对一系列企业任务进行定制。
Granite 模型是基于仅解码器、类似 GPT 的架构,用于生成任务。 Saadstone模型使用编码器-解码器架构,非常适合对特定任务进行微调,可与 Google 流行的 T5 模型互换。 Obsidian 模型利用 IBM 研究院开发的新模块化架构,为各种任务提供高推理效率和性能水平。 Slate指的是一系列仅编码器(基于RoBERTa)的模型,虽然不是生成式的,但对于许多企业NLP任务来说既快速又有效。所有 watsonx.ai 模型都是在 IBM 精心策划的且聚焦企业的数据湖和IBM定制设计的云原生 AI 超级计算机 Vela 上进行训练。
效率和可持续性是 watsonx.ai 的核心设计原则。 IBM 研究院发明了用于高效模型训练的新技术,包括”LiGO”算法,该算法可回收小模型并让使其”长成”较大的模型。这种方法可以节省训练模型所需的 40% 到 70% 的时间、成本和碳排放量。为了提高推理速度,IBM研究院利用其在量化方面的深厚专业知识,或将模型从 32 点浮点算法缩小到更小的整数位格式。降低 AI 模型精度可以在不牺牲准确性的情况下带来巨大的效率优势。IBM希望很快在其AI优化芯片IBM AIU上运行这些压缩模型。
适用于基础模型的混合云工具
基础模型的最后一道难题是创建一个易用的软件平台来调整和部署模型。IBM 基于红帽OpenShift 构建的混合及云原生的推理堆栈,已针对训练和服务基础模型进行了优化。企业可以利用 OpenShift 的灵活性在任何地点(包括本地)运行模型。
IBM在 watsonx.ai 中创建了一套工具,为客户提供友好的用户界面和开发人员友好的库,用于构建基于基础模型的解决方案。我们的提示实验室 (Prompt Lab) 使用户只需几个标记的示例即可快速执行AI任务。调优开发平台基于IBM 研究院开发的最先进的高效微调技术,让客户可以用自己的数据来实现快速、可靠的模型定制。
除了 IBM 自己的模型之外,watsonx.ai 还提供了对广泛的开源模型目录的无缝访问,供企业进行试验和快速迭代。通过与Hugging Face建立的新合作伙伴关系,IBM将在 watsonx.ai 中提供数千个开源的Hugging Face基础模型,数据集和库。反过来,Hugging Face也将在 watsonx.ai 上提供IBM所有的专有和开放访问的模型与工具。