在今年的最后一天,吴恩达邀请了沈向洋、李飞飞等人工智能的顶级学者,让大牛们对 2021 年的 AI 技术发展进行了一次展望。在人才不断流向业界、常规架构算力进入瓶颈期的今天,作为一名从业者应该看到什么?他们是这样说的……
新的一年近在咫尺,吴恩达分享了自己对人工智能在接下来一年中发展的三个愿望:
缩短概念证明与生产之间的差距。尽管搭建好的模型很重要,但很多人现在也意识到,从数据管理到部署到跟踪,要想付诸实践,还需要做更多的工作。2021 年,我希望我们能更好地理解机器学习项目的完整周期,构建支持相关工作的 MLOps 工具,以及系统地搭建、生产、维护 AI 模型。
增强 AI 社区的共享价值观。在过去的十年中,Deeplearning.ai 在全球范围内的成员已经从几千人增长到了数百万,我们成功的一部分原因源于对任何想加入我们的人张开双臂。与此同时,这也会带来一些误解。因此,建立一套共同的价值观比以往任何时候都更为重要。
确保我们的工作结果公平公正。人工智能领域的偏见和公平问题已经引起了广泛讨论,在这些领域仍有许多困难和重要的工作要做,我们绝不能松懈。同时,人工智能对贫富差距的贡献受到的关注也较少。许多高科技企业似乎都对应了「赢家通吃」的那一套原则,这个世界是否正在成为财富集中于少数公司的样子?我们如何确保公平分配?
我对 2021 年人工智能及各位在其中扮演的角色感到非常乐观,期待我们共同解决这些具有挑战性的问题!
此外,来自 AI 社区的多名著名学者、企业家也分享了他们对于 2021 年的展望。
佐治亚理工学院 Ayanna Howard:训练有道德的 AI
佐治亚理工学院交互式计算主任Ayanna Howard
作为 AI 工程师,我们拥有设计和搭建基于技术的解决方案的工具。但许多 AI 开发者不认为解决潜在的负面影响也是自己的责任,因此我们也看到医疗服务、教育机会等方面的不平等现象。
在新的一年,我希望 AI 社区可以就如何构建有道德的 AI 达成广泛共识。
我们需要在基于其部署的背景来考虑我们的工作,并对可能造成的潜在危害负责,就像负责识别和修复代码中的错误一样。
这听起来像一场巨变,但它可能很快发生。就像新冠大流行期间,很多公司都实施了以前他们认为不可能的在家办公制度。技术的一个特征是,当头部玩家改变时,其他人就会跟随,以免失去竞争优势。只需要几个领导者设定了新的方向,整个领域也会随之变化。
斯坦福大学教授李飞飞:激活 AI 生态系统,扭转顶级人才流向业界的趋势
美国国家工程院院士、斯坦福大学教授、人工智能著名学者李飞飞
我希望 2021 年,美国政府能够坚定承诺支持 AI 创新。
美国之所以在科技领域一直处于领先地位,是因为其创新生态系统充分利用了来自学界、政府和产业界的贡献。但是,人工智能的出现使之向业界倾斜,这很大程度上是因为用于 AI 研发的三种最重要资源——算力、数据和人才,集中到了少数公司。例如,根据 AI21 Labs 论文《THE COST OF TRAINING NLP MODELS》中的数据,为了训练大规模语言模型 GPT-3,OpenAI 联合微软可能花费了价值 500 万至 1000 万美元的资源。没有一所美国大学可以进行这种规模的计算。
大数据对推动人工智能的发展同样至关重要。但如今,最丰富的数据库却掌握在大型公司的手中。缺乏足够的算力和数据阻碍了学界研究者的科研,并加速了顶级 AI 人才从学界流向私有企业。
2020 年,美国政府为大学院校提供了一些新的支持,但这远远不够。在我与哲学家 John Etchemendy 共同负责的斯坦福以人为本人工智能研究院(HAI),我们提出了一项国家研究云(National Research Cloud)计划。该计划将在未来十年每年投入 10 亿至 100 亿资金,为学界、政府和业界的合作注入新的活力。这项计划将为学界研究者提供前沿研究所需的算力和数据,反过来也将吸引和留住新的教职人员和学生,有可能扭转学界研究者流向业界的局面。
National Research Cloud 的进展令人鼓舞,包括美国国家科学基金会和美国国立卫生研究院在内的多个机构也发出了有关人工智能项目的呼吁,为相关提案提供支持。
AI 是一种工具,而且是一种功能强大的工具。但每个工具都是一把双刃剑,其使用方式不可避免地反映出设计者、开发者和实施者的价值观。确保 AI 安全、公平、保护个人隐私并造福全人类,仍然存在着许多挑战。而激活 AI 研究生态系统是解决这些问题的重要部分。
Matthew Mattina:希望 TinyML 等微型 ML 技术和小型设备发挥更大作用
Arm 机器学习研究实验室的杰出工程师和高级总监 Matthew Mattina
以标准 2 号铅笔的笔尖为例,想象一下在笔尖区域每秒执行万亿次以上的乘法运算。这项任务可以使用现在的 7nm 半导体技术来完成。在小型、低成本的电池供电设备上结合这种强大的计算能力和深度神经网络将有助于解决从 Covid-19 到阿尔茨海默病的种种挑战。
AlphaGo、Alexa、GPT-3 和 AlphaFold 等杰出系统背后的神经网络需要这种计算能力才能充分发挥魔力。这些系统通常运行在数据中心服务器、GPU 和大规模电源上,但很快它们将可以在耗电量比节日灯串上单个 LED 灯泡还要少的设备上运行。
一种叫作 TinyML 的机器学习技术正将这些大型的、侧重数学的神经网络应用在传感器、可穿戴设备和手机上。神经网络严重依赖乘法,而新兴硬件使用低精度数字(8 位或更少)来执行乘法运算。与通常的 32 位单精度浮点乘法器相比,芯片设计者可以在更小的面积和功率范围内构建更多的乘法器。研究表明,在很多现实案例中,在神经网络中使用低精度数字几乎不会对准确率产生影响。这种方法可以在最需要的地方提供超高效的神经网络推断。
举例而言,在应对 Covid-19 大流行的过程中,检测和确认感染者成为主要障碍。最近的研究表明,基于数千个「强制咳嗽」音频片段训练的神经网络集合或许能够检测出咳嗽者是否感染 Covid-19,即使他 / 她并没有出现症状。该案例中使用的神经网络具有非常高的计算成本,需要每秒数万亿次的乘法运算。而 TinyML 可以运行此类咳嗽分析神经网络。
对于即将来临的 2021 年,我希望由小型设备上运行的大规模神经网络赋能的复杂医疗应用可以开创一个新的个性化医疗时代,从而改善数十亿人的生活。
沈向洋博士:期待 AI 帮助人类进行艺术创作
美国工程院外籍院士、小冰公司董事长、清华大学双聘教授沈向洋
2021 年,我希望 AI 社区创造更多工具,帮助人类解放创造力。AI 将帮助全球各地的人们以其独特的方式沟通、表达情绪。
我们已经创造出擅长逻辑任务的机器,它们能执行大规模计算,且速度远超人类。这一成就在近期月球探测任务中得到了极大体现。在日常生活中,我们使用 Microsoft Word 和 Excel 等工具来提升生产效率。但是,在另一些任务中人类仍占绝对优势,尤其是艺术领域。
人类左脑负责逻辑,右脑负责创造性和想象力,二者相互补充。创造性的右脑为许多日常互动点燃火花,我们使用语言来彼此交流,表达抽象的概念和情绪。我们同样用艺术的手法表达自己,创造出音乐、画作、舞蹈和设计。
AI 领域的近期进展,尤其是生成对抗网络和语言模型(如 GPT-3)等深度学习技术,使得从头开始合成逼真图像和合理文本成为可能。小冰聊天机器人已经在作诗、绘画和音乐方面展现出了类似人类的性能。例如小冰帮助微信用户写诗,一周内作诗数量超过中国历史上所有的诗作!
绘画、音乐、诗或舞蹈等艺术领域的顶尖人士必须经过多年的训练。有句话说,要想成为某个领域的专家,需要经过一万小时的锤炼。类似小冰的工具可以大幅降低时间投入,使每个人都能获得更复杂、更有创造力和想象力的表达方式。
我期望,2021 年能看到更多 AI 创造工具,帮助人们表达自己的艺术想法和灵感。AI 已经证明它能够帮助提升生产效率,那么现在让我们期待 AI 帮助人类解放创造力吧。
OpenAI 联合创始人 Ilya Sutskever:期待语言和视觉的融合
OpenAI联合创始人、首席科学家Ilya Sutskever
过去一年,通用模型首次产生了经济价值。GPT-3 的出世表明大型语言模型具备令人惊叹的语言能力,并且能够执行大量有用的任务。我期望接下来诞生的模型能够更强,2021 年的最佳模型或将让 2020 年的最佳模型相形逊色,同时也将解锁今天难以想象的许多应用。
2021 年,语言模型将开始了解视觉世界。文本本身可以表达关于世界的大量信息,但它并不完备,因为我们也生活在视觉世界中。下一代 AI 模型将能够编辑文本输入并生成图像,我们也希望它们能够借由其见过的图像而更好地理解文本。
联合处理文本和图像的能力将使模型变得更聪明。人类接触的不仅是阅读到的内容,还有看到和听到的内容。如果模型可以处理类似的数据,那么它们就能以类似人类的方式学习概念。这个灵感尚未得到证实,我希望 2021 年能够看到这方面的进展。
模型更加聪明的同时,我们也要保证其安全性。GPT-3 能够处理多项任务,但它并不像我们认为的那样可靠。我们希望给模型一项任务后,模型能够返回无需更改或确认的输出。在 OpenAI,我们提出了一种新方法:基于人类反馈的强化学习。该方法允许人类裁判利用强化信号用我们想要的方式指导模型的行为,这样我们就可以强化期望的行为,抑制不想要的行为。
GPT-3 等系统被动地吸收信息。它们吸收数据并内化其相关性,当训练数据集包含我们不希望模型模仿的行为样本时,这是个大问题。而使用基于人类反馈的强化学习后,我们可以让语言模型展示出多种行为,人类裁判就这一行为是否符合期望给出反馈。我们发现 GPT-3 语言模型能够快速从这些反馈中学习,这样我们就可以利用相对少的人类交互快速精确地调整模型行为。
让语言模型处理文本和图像这两种数据模态,并通过与人类的交互进行训练后,我们看到了一条路径,使模型变得更强大、更值得信任,因而对更多人具备更大用途。这条路径将在 2021 年提供更多令人振奋的发展前景。
原文链接:https://blog.deeplearning.ai/blog/the-batch-new-year-wishes-from-fei-fei-li-harry-shum-ayanna-howard-ilya-sutskever-matthew-mattina