OpenAI高层动态更新:Sam Altman退出安全监督小组
9月17日,OpenAI在官方博客中宣布了一项重要人事变动,公司首席执行官Sam Altman已从今年5月成立的内部安全与保障委员会中卸任。该委员会作为独立的监管机构,承担着OpenAI安全监督的关键职责。领导该委员会的是卡内基梅隆大学的Zico Kolter教授,其他成员包括Quora首席执行官Adam D'Angelo、美国退役陆军将军Paul Nakasone以及前索尼高管Nicole Seligman,他们都是OpenAI董事会的现任成员。在Altman离职后,该委员会已对OpenAI的新模型chatgpt-o1进行了全面的安全性审查,确保了模型发布前的安全。
安全监管持续加强:OpenAI的安全委员会角色不减
Sam Altman的离开并未削弱OpenAI内部安全与保护委员会的作用。该委员会将继续定期听取公司安全团队的最新汇报,并在发现安全隐患时有权推迟AI模型的发布。这一变动发生在美国立法者加强对OpenAI审查的背景下。此前,五位参议员曾致信Altman,对OpenAI的安全策略表示严重担忧。同时,一些关注人工智能长期风险的员工选择离职,部分前研究人员甚至公开指责Altman的人工智能监管立场可能损害公司利益。
监管压力与外界批评:OpenAI面临的双重挑战
这些批评似乎与OpenAI在游说活动上的增加相呼应。2024年上半年,公司的游说预算已增至80万美元,远超2023年全年的26万美元。此外,Altman还被任命为国土安全部人工智能安全与保障委员会的成员,这表明他在人工智能安全领域的影响力。然而,尽管Altman不再担任安全与保障委员会成员,但有人担心委员会的决策可能不会对OpenAI的商业目标产生太大影响。
资金筹集与公司未来:OpenAI的发展方向引发讨论
与此同时,OpenAI正在努力筹集超过65亿美元的资金,预计这将使公司估值超过1500亿美元。这一资金动向引发了外界对于公司未来方向的担忧。有消息称,OpenAI可能考虑放弃其非营利的混合结构,转而采用更传统的公司运营模式,以吸引更多投资。但这种转变可能会使公司偏离其初衷,即开发对全人类有益的人工智能技术。
想了解更多AI行业资讯信息请关注AI人工智能网站--AITOP100平台--AI资讯专区:https://www.aitop100.cn/infomation/index.html