近日,人工智能公司OpenAI的创始人Sam Altman、总裁Greg Brockman和首席科学家Ilya Sutskever在其官网上发布了一篇名为《超级智能的治理》的博文,称人工智能的创新速度如此之快,以至于我们不能指望现有的机构能够充分控制这项技术。
文章指出,虽然人工智能系统将在许多领域超越专家技能水平,带来更加繁荣的未来,但我们必须管理风险,并提出了三个方案以应对风险:
1.在开发工作之间进行一定程度的协调,确保超级智能的安全和与社会的整合;
2.成立“人工智能版国际原子能机构”,即专门的国际监管机构;
3.确保超级智能安全的技术能力。
OpenAI高管认为,重要的是允许低于重要能力阈值的模型的开发,无需具有繁琐的监管机制,而阻止超级智能的产生则需要全球监管制度,即使这样也不能保证有效。
上周,奥特曼在出席美国国会听证会的时候已经表示,OpenAI“非常担心”选举受到人工智能生成的内容的影响。他担忧人工智能行业可能“对世界造成重大伤害”。如果这项技术出了问题,它可能会大错特错。我们希望与政府合作,防止这种情况发生。