10月27日消息,美国当地时间周四,人工智能研究公司OpenAI宣布组建新团队,以评估和减轻与人工智能相关的“灾难性风险”。OpenAI在周四的声明中表示,这个新团队名为Preparedness,其主要任务是“跟踪、评估、预测和保护”人工智能造成的潜在重大问题,包括核威胁
10月27日消息,美国当地时间周四,人工智能研究公司OpenAI宣布组建新团队,以评估和减轻与人工智能相关的“灾难性风险”。
OpenAI在周四的声明中表示,这个新团队名为Preparedness,其主要任务是“跟踪、评估、预测和保护”人工智能造成的潜在重大问题,包括核威胁。
此外,该团队将致力于减轻“化学、生物和放射性威胁”,以及人工智能的“自主复制”行为。Preparedness团队将解决的其他风险包括人工智能欺骗人类的行为,以及网络安全威胁。
OpenAI在更新中写道:“我们相信,前沿人工智能模型的能力将超越目前最先进的模型,有可能造福全人类。不过,它们也构成了越来越严重的风险。”
麻省理工学院可部署机器学习中心主任亚历山大·马德里(Aleksander Madry)将领导Preparedness团队。
OpenAI指出,Preparedness团队还将制定和维护一项“风险知情的开发政策”,该政策将概述公司在评估和监控人工智能模型方面所做的工作。
OpenAI首席执行官萨姆·奥特曼(Sam Altman)曾警告过人工智能可能引发的灾难性事件。今年5月,奥特曼和其他著名人工智能研究人员发表了一份简短声明,称“减轻人工智能带来的灭绝性风险应该是全球的优先事项。”
此前在伦敦接受采访时,奥特曼还建议各国政府应该像对待核武器一样,“认真对待”人工智能。(小小)
标签: OpenAI 建新 团队 评估 人工智能 灾难性风险
声明:本文内容来源自网络,文字、图片等素材版权属于原作者,平台转载素材出于传递更多信息,文章内容仅供参考与学习,切勿作为商业目的使用。如果侵害了您的合法权益,请您及时与我们联系,我们会在第一时间进行处理!我们尊重版权,也致力于保护版权,站搜网感谢您的分享!