OpenAI与美国AI安全研究所合作 20%算力将分配给安全研究

OpenAI首席执行官山姆·奥尔特曼周四(8月1日)重申了该公司在保证人工智能(AI)安全方面所作出的承诺。

奥尔特曼在社交媒体X平台上发文称,“我们致力于将20%的计算资源分配给整个公司的安全工作。”这一点该公司曾在7月初的一则声明中提到过。

image

他还指出,“我们的团队一直在与美国人工智能安全研究所(US AI Safety Institute)合作并达成协议,希望该研究所能尽早访问我们的下一个基础模型,以便我们能够共同努力,推动人工智能安全评估的科学发展。”

image

这家研究所是一个旨在评估和解决人工智能平台风险的联邦政府机构,隶属于美国商务部国家标准与技术研究院(National Institute of Standards and Technology)。该机构为包括Anthropic、谷歌、Microsoft、Meta、苹果、亚马逊和英伟达等大型科技公司在内的公司财团提供咨询。

奥尔特曼的这一声明并没有透露太多细节,但这一举措,连同OpenAI在6月与英国人工智能安全机构达成的类似协议,意在反驳这样一种说法,即OpenAI在追求更有能力、更强大的生成式人工智能技术时,已经把人工智能安全工作放在了次要地位。

今年5月,OpenAI被爆出解散了一个专注于研究人工智能安全的部门,该部门致力于开发人工智能控制措施,以防止“超智能(Superintelligence)”人工智能系统失控。同月,该部门的两位联合负责人Jan Leike和Ilya Sutskever也宣布辞职。

目前,Jan Leike在人工智能初创公司Anthropic的安全研究部门就职,而Ilya Sutskever创办了自己的专注于安全的人工智能公司Safe Superintelligence。

这一事态发展让OpenAI和奥尔特曼遭受到了很多批评声。OpenAI后来回应道,成立安全委员会,将20%的计算资源用于安全研究,并且将取消限制员工揭发的条款。

然而,这些举措并没有安抚一些市场观察人士的质疑声。OpenAI 首席战略官杰森·权(Jason Kwon)最新回应称,OpenAI“致力于在我们流程的每个阶段实施严格的安全协议”。

来源:财联社