2023年是人工智能的转折点,ChatGPT的出现推动了从活跃的开源生态到复杂的多模态模型的发展。虽然生成式AI浪潮未退,但随着企业从实验转向实践,2024年的趋势反映AI开发和部署策略日益复杂和谨慎,开始重视伦理、安全和不断变化的监管环境。
以下是2024年值得关注的前十大AI和机器学习趋势:
1、多模态人工智能
多模态人工智能超越了传统的单模态数据处理,涵盖多种输入类型,例如文本、图像和声音,这是模仿人类处理不同感官信息能力的一步。
2023年11月,麻省理工学院 EmTech 会议上,OpenAI 研究主管Mark Chen称,世界的界面是多模态的,希望我们的模型能够看到我们所看到的、听到我们所听到的,生成能够吸引我们多种感官的内容。
多模态人工智能在现实世界中的应用多种多样,并且正在不断扩展。 例如,在医疗保健领域,多模态模型可以根据患者病史和遗传信息分析医学图像,以提高诊断准确性。工作职能层面,多模式模型可以通过将基本设计和编码能力扩展到这些领域没有专业背景的人来扩展各种员工的工作能力。
2、主动式AI(Agentic AI)
主动式AI标志着从被动AI向主动AI的重大转变。AI代理是具有自主性、主动性和独立行动能力的高级系统。不同于主要响应用户输入和遵循预定编程的传统AI系统,AI代理旨在理解环境、设定目标并在无需直接人类干预的情况下采取行动。
例如在环境监测中,AI代理可以被训练收集数据、分析,并针对森林火灾等危险的早期迹象采取预防措施。同样金融AI代理可以使用适应性策略,实时响应市场变化,主动管理投资组合。
计算机科学家Peter Norvig在最近的博客文章中称,2023年是与AI聊天的一年。到2024年,我们将看到代理帮你做事,比如预订、规划旅行等服务。
3、开源AI
构建大语言模型等强大的生成式AI系统是一个烧钱的过程,需要大量的算力和数据。 但用开源模型让开发人员能够在其他人的工作基础上进行构建,从而降低成本并扩大AI访问范围。开源人工智能是公开可用的,通常免费,让企业和研究人员能够为现有代码做出贡献并在现有代码的基础上构建。
过去一年的GitHub数据显示,开发人员对AI(尤其是生成式AI)的参与度显著增加。2023 年,生成式AI项目首次进入代码托管平台最受欢迎的前十名项目,Stable Diffusion和AutoGPT等项目吸引了数千名贡献者。
今年年初,开源生成模型数量有限,而且其性能往往落后于ChatGPT等专有项目。 但2023 年,这一领域有所扩大,并且有了强大的开源竞争者,如Meta的Llama 2 和Mistral AI的Mixtral模型。可能会改变2024年人工智能格局的动态,为规模较小、资源较少的企业机构提供访问以前无法获得的复杂人工智能模型和工具的机会。
4、检索增强生成
虽然2023年生成式AI工具被广泛应用,但问题仍然多,比如听起来合理但对用户查询错误的回应。这一限制成为企业采用的障碍,因为在业务关键或面向客户的场景中出现这种问题就太可怕了。检索增强型生成(Retrieval-Augmented Generation,RAG)作为一种减少错误回应的技术已经出现。
RAG将文本生成与信息检索相结合,以提高AI生成内容的准确性和相关性。它让大型语言模型能够访问外部信息,帮助它们产生更准确和具有上下文意识的回应。绕过直接在大型语言模型中存储所有知识也减小了模型规模,降本增效。
例如,企业可以使用RAG与基础模型一起创建更高效、更具信息性的聊天机器人和虚拟助理。
5、定制化企业的生成式AI模型
Midjourney和ChatGPT 等海量通用工具最受探索生成式AI消费者喜爱。 但对于商业用例来说,为了满足利基需求的人工智能系统需求,小规模、小用途的模型可能是最受欢迎的。
为了构建定制化生成式AI,大多数企业都会修改现有的人工智能模型——例如,调整其架构或对特定领域的数据集进行微调。 这比从头开始构建新模型或依赖对公共大语言模型的 API 调用要便宜。
定制生成式AI模型的主要优势是能够满足利基市场和用户需求,几乎可以为任何场景构建定制的生成式AI工具,从客户支持到供应链管理再到文档审查。这对具有高度专业化术语和实践的行业例如医疗保健、金融和法律尤其重要。
而且构建定制模型而不是使用现成的公共工具通常还可以提高隐私和安全性,因为这能让自身更好地控制其数据。
6、AI和机器学习的人才需求
机器学习模型的设计、训练和测试并不容易,更不用说将其推向生产并在复杂的IT环境中维护。因此,预计对AI和机器学习人才需求将在2024年及以后继续增长。
尤其随着AI和机器学习越来越多地融入商业运营,需要能够将理论与实践相结合的专业人员。这需要部署、监控和维护现实环境中的AI系统能力,通常被称为MLOps,即机器学习运营。
最近的一份报告中显示AI编程、数据分析和统计、以及AI和机器学习的运营是企业进行生成式AI项目所需的前三个技能。
另外,从构建模型的技术团队到董事会各层面的人工智能计划保持多样性也至关重要。人工智能和公共模型的一个大问题是训练数据中存在偏差,除非你的企业内有一个多元化的团队来挑战结果,否则你可能会陷入更糟糕的境地。
7、影子AI
随着不同工作职能的员工对生成式AI产生兴趣,企业面临影子AI的问题,即在没有得到 IT 部门明确批准或监督的情况下在企业内部使用AI。随着AI越来越容易使用,这种趋势变得越来越普遍,甚至非技术工人也能独立使用它。
而当员工需要快速解决问题或希望更快地探索新技术时,影子AI就会出现。这对易用的AI聊天机器人来说尤其常见,员工可以轻松地在网络浏览器中试用这些聊天机器人,而无需经过 IT 审查和批准流程,当然它必定存在安全风险。
到2024年,企业会采取措施,通过平衡支持创新与保护隐私和安全的治理框架来管理影子AI。可能包括制定明确的可接受的人工智能使用政策和提供经过批准的平台等。
8. 生成式AI要接受现实的检验
2024年,生成式AI要面对现实的检验——这一阶段在 Gartner 技术成熟度曲线中通常被称为“理想破灭的低谷”。
随着早期热情的消退,企业正面临生成式AI的局限性,例如输出质量、安全和道德问题,以及与现有系统和工作流程的集成困难。在业务环境中实施和扩展人工智能的复杂性往往会被低估,确保数据质量、训练模型和维护生产中的AI系统等任务可能比最初预期更具挑战性。
9、更关注AI伦理和安全风险
深度造假和复杂的AI生成内容的激增引发了人们对网络环境中可能存在的错误信息和操纵以及身份盗窃和其他类型欺诈的警报。人工智能还可以增强勒索软件和网络钓鱼攻击的功效,使它们更具说服力、适应性更强且更难以检测。
虽然大家在努力开发检测人工智能生成内容的技术,但这仍然具有挑战性。目前的人工智能水印技术相对容易规避,并且现有的人工智能检测软件很容易出现误报。
人工智能系统的日益普及也凸显了确保其透明和公平的重要性——例如,通过仔细审查训练数据和算法是否存在偏见。而安全全和道德也可能是让企业考虑更小、更定制化的模型的另一个原因,因为小模型没能力做太多事。
10、不断发展的人工智能监管
考虑到道德和安全问题,2024 年将成为人工智能监管的关键一年。 除了欧洲政策的连锁反应外,美国行政部门最近的活动也表明人工智能监管将如何在美国发挥作用。 10 月份拜登的行政命令有新任务,例如要求人工智能开发人员与美国政府分享安全测试结果,并实施限制以防范人工智能在设计危险生物材料方面的风险。 各个联邦机构还发布了针对特定行业的指南,例如 NIST 的人工智能风险管理框架和联邦贸易委员会警告企业不要对其产品的人工智能使用做出虚假声明的声明。
更复杂的是,2024 年又到了美国总统大选年,当前的总统名单候选人们在科技政策问题上表现出广泛的立场。理论上,新政府可以通过扭转或修改拜登的行政命令和不具约束力的机构指导意见来改变行政部门对人工智能的监督方式。