斗蟹游戏网

OpenAI 高管在最新博文中提出超级智能的治理计划

近日,人工智能公司OpenAI的创始人Sam Altman、总裁Greg Brockman和首席科学家Ilya Sutskever在其官网上发布了一篇名为《超级智能的治理》的博文,称人工智能的创新速度如此之快,以至于我们不能指望现有的机构能够充分控制这项技术。

文章指出,虽然人工智能系统将在许多领域超越专家技能水平,带来更加繁荣的未来,但我们必须管理风险,并提出了三个方案以应对风险:

1.在开发工作之间进行一定程度的协调,确保超级智能的安全和与社会的整合;

2.成立“人工智能版国际原子能机构”,即专门的国际监管机构;

3.确保超级智能安全的技术能力。

OpenAI高管认为,重要的是允许低于重要能力阈值的模型的开发,无需具有繁琐的监管机制,而阻止超级智能的产生则需要全球监管制度,即使这样也不能保证有效。

上周,奥特曼在出席美国国会听证会的时候已经表示,OpenAI“非常担心”选举受到人工智能生成的内容的影响。他担忧人工智能行业可能“对世界造成重大伤害”。如果这项技术出了问题,它可能会大错特错。我们希望与政府合作,防止这种情况发生。

声明:登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。

如涉及作品内容、版权和其它问题,请在30日内与本网联系,我们将在第一时间删除内容,本网站对此声明具有最终解释权。