Open AI CEO 阿尔特曼全球共同管理人工智能风险

北京日报客户端 记者 袁璐

 

6月10日,OpenAI 首席执行官山姆 · 阿尔特曼(Sam Altman)在2023北京智源大会AI安全与对齐论坛上发表演讲。演讲中,阿尔特曼表示,未来十年,通用人工智能(Artificial General Intelligence,AGI)将在几乎所有领域超越人类的专业知识,但与此同时,中国、美国和世界各地的研究人员必须共同管理AGI的风险,推进AGI安全是大家寻找共同点的最重要领域之一。

“随着日益强大的人工智能系统的出现,全球合作的赌注从未如此之高。”阿尔特曼表示,如果不小心,一个旨在改善公共卫生结果的人工智能系统很可能出现错位,提供毫无根据的建议,从而扰乱整个医疗保健系统。类似地,为优化农业实践而设计的人工智能系统可能会无意中耗尽自然资源或破坏生态系统,从而缺乏对长期可持续性的考虑,影响粮食生产和环境平衡。

“不计后果地进行AGI开发和部署,造成的事故成本会影响到我们所有人。”阿尔特曼认为,首先业内应包容地建立国际规范和标准,并为所有国家平等使用AGI提供保障。其次,应积极开展国际合作,建立全球信任,以可验证的方式安全开发日益强大的人工智能系统。“我不幻想这会很容易,但就像《道德经》所言,千里之行,始于足下。”

在阿尔特曼看来,行业最具建设性的第一步已经迈出:与国际科学和技术界合作。在技术进步方面,行业应该增加透明度和促进知识共享,研究人员如果发现了新的安全问题,应该站在更大利益层面思考,分享他们的成果。同时,行业也应该促进对AGI安全研究方面的投资,并积极开展可扩展的监督。比如可以尝试使用人工智能系统来协助人类监督其他人工智能系统。“这样的好处是它可以随着人工智能发展的步伐而扩展,变得越来越智能和有用。”

“我们看到了美国、中国和世界各地的研究人员合作实现共同目标的巨大潜力,并致力于解决AGI发展中突出的技术挑战。”阿尔特曼相信,人类将能够利用AGI来解决世界上最重要的问题,并显著改善人类的生活质量。