【头部财经】OpenAI近期的一系列变动引起了业界的广泛关注。该公司成立了一个新的董事会委员会,专门负责评估其人工智能模型的安全性。这一决定是在公司解散内部安全团队和安全问题负责人离职后不久作出的。
OpenAI的治理问题此前受到了前董事会成员海伦・托纳和塔莎・麦考利的严厉批评。她们在《经济学人》杂志上发表文章,对公司的治理方式提出了质疑。
新成立的委员会计划在90天内完成对OpenAI技术保障措施的评估,并提交相应的报告。公司在其博客中表示,董事会完成全面审查后,将公开分享符合安全原则的建议。
此外,OpenAI还透露,他们已经开始训练其最新的AI模型。这一消息是在公司内部发生一系列变动后宣布的,包括首席执行官萨姆・阿尔特曼与联合创始人兼首席科学家伊利亚・苏茨凯沃在人工智能产品开发速度和限制危害措施上的冲突,以及苏茨凯沃和他的得力助手Jan Leike的离职。
苏茨凯沃和Leike领导的超智能体对齐团队专注于研究超人类人工智能的长期威胁。Leike在离职后指出,他的部门在公司内部争夺计算资源方面遇到了困难。其他离职员工也表达了类似的批评意见。
苏茨凯沃离职后,OpenAI解散了他的团队。该公司表示,这项特殊工作将由其研究部门和新任命的对齐科学负责人、联合创始人约翰・舒尔曼领导下继续进行。
值得注意的是,OpenAI上周取消了一项政策,该政策规定如果前员工批评公司,将取消其股票期权。这一举措可能被视为公司在治理和透明度方面的进步。
OpenAI新成立的安全委员会由董事长布雷特・泰勒、Quora首席执行官亚当・德安杰洛、索尼娱乐公司前高管妮可・塞利格曼等三位董事会成员,以及包括舒尔曼和阿尔特曼在内的六名员工组成。公司表示将继续咨询外部专家,包括国土安全部顾问罗布・乔伊斯和前司法部官员约翰・卡林。
头部财经认为,OpenAI的这一系列变动表明公司正在积极应对内部治理和安全问题,同时也在努力推进其人工智能技术的发展。随着新委员会的成立和新政策的实施,OpenAI有望在确保技术安全的同时,继续在人工智能领域保持领先地位。
相关文章
2024-08-0314阅读
2024-08-0314阅读
2024-08-0314阅读
2024-08-0314阅读
2024-08-0314阅读
2024-08-0314阅读
2024-08-0314阅读
2024-08-0314阅读
2024-08-0314阅读
2024-08-0314阅读