腾讯科技讯 9月4日消息,据外媒报道,OpenAI作为科技行业进军AI的旗手,正在努力转变成一家以利润为导向的公司,并同时满足大家对AI安全性的需要。目前OpenAI正在对管理团队甚至组织方式进行重大变革,希望有助于它从一些富可敌国的公司那里获得投资。
在过去数月中,AI在线聊天工具ChatGPT的开发商OpenAI聘请了一批科技高管、虚假信息甄别专家和AI安全研究人员。此外还增加了七名董事会成员,其中包括一名掌管过美国国家安全局(National Security Agency)的四星陆军上将。同时,该公司也在努力确保其AI技术不会对人类造成严重危害。
OpenAI也在与微软、苹果、英伟达和投资公司Thrive这样的投资者进行谈判,以达成一项对其估值达1000亿美元的交易。OpenAI正在考虑改变其公司结构,以便增大对投资者的吸引力。
OpenAI作为一家位于旧金山的初创公司,其管理层和一些顶级研究人员之间经历了长期的公开冲突,但现在它正在努力把自身形象转变得比较严肃老成,做好引领科技行业向AI进军的准备。去年,围绕公司首席执行官山姆·奥特曼 (Sam Altman)管理方式的斗争非常令人瞩目,现在OpenAI也试图将淡化相关冲突。
但是,媒体对20多名现任和前任OpenAI员工和董事会成员的采访表明,这种过渡相当困难。一边是新员工和新高管在涌入,一边是公司的早期员工仍在流失。快速增长并没有解决 “OpenAI应该是什么”这个根本问题:它究竟是为人类的利益而创建的尖端AI实验室,还是一个致力于利润的抱负远大的行业巨头?
新高管就位,老员工流失
目前OpenAI拥有1700多名员工,其中80%是在2022年11月ChatGPT发布之后入职的。奥特曼和公司其他高层主持了新高管的招聘工作,而新任董事长、前Facebook高管布雷特·泰勒(Bret Taylor)则负责监督董事会的扩张。
“虽然初创企业必须随着其影响力的增长而自然发展和调增,但我们意识到OpenAI正在以前所未有的速度经历这一转型,”泰勒在媒体的一份声明中表示,“我们的董事会和 OpenAI的专业团队仍然专注于安全地构建可以为每个人解决难题的AI。”
一些新高管曾在其他科技公司担任重要职务。OpenAI的新任首席财务官莎拉·法瑞尔 (Sarah Friar)曾是Nextdoor的首席执行官。OpenAI的新任首席产品官凯文·威尔(Kevin Weil)曾担任推特的产品高级副总裁。本·尼莫(Ben Nimmo)曾在Facebook领导过与欺骗性社交媒体活动的斗争。华金·坎德拉(Joaquin Candela)曾负责监督Facebook降低AI风险的努力。现在,这他俩也在OpenAI担任类似的角色。
OpenAI上周五还表示,克林顿担任总统时期的白宫资深人士克里斯·勒汉(Chris Lehane)将成为该公司全球政策负责人。他之前曾在Airbnb担任高级职务,于今年加入了OpenAI。
但是,在2015年底一起创立OpenAI的13人中只剩下了三人,当时他们的使命是创造通用人工智能(AGI),一种可以做人脑能做的任何事情的机器。这三人中有一位是公司总裁格雷格·布罗克曼(Greg Brockman),他已经请假到年底,理由是在工作了近十年后需要休假。
“这样的人员增减是很常见的事情,但我们正处在聚光灯下,一切都被放大了。”OpenAI的首席战略官杰森·权(Jason Kwon) 说。“扩大公司规模真的很难。你必须一直进行权衡。有些人可能不喜欢这些决定。扩大规模会让事情复杂得多。”
从最初的非营利性研究实验室开始,OpenAI的宗旨就一直处于争论之中。2018年,公司主要支持者马斯克(马斯克)在与其他创始人发生争执后离开。2022年初,一群主要研究人员担心商业力量在不成熟的时候就将OpenAI的技术推向市场,于是自己成立了AI公司Anthropic,成为了OpenAI的竞争对手。
出于类似的担忧,OpenAI的董事会在去年年底突然解雇了奥特曼。但五天后又恢复了他的职务。
OpenAI有些员工质疑奥特曼,有些员工不想建立一家常规科技公司更想从事尖端的研究。另外还有一些矛盾,比如OpenAI曾试图从公开发声批评公司的员工手里收回 OpenAI的股票,这些股票可能价值数百万美元。结果导致一名研究人员愤而离职,此后OpenAI撤销了这种做法。
OpenAI 的两大驱动力
OpenAI是由两种力量驱动的,这两种力量并不总是相容。
一方面,该公司是由很多、很多金钱驱动的。一位知情人士表示,该公司的年营收现已超过20亿美元。ChatGPT每周有超过2亿用户,是9个月前的两倍。目前尚不清楚该公司每年的支出是多少,但据估计有70亿美元。微软已经是OpenAI的最大投资者,投资额高达130亿美元。
但OpenAI正在考虑对公司结构进行重大变更,以寻求更多投资。目前,最初的 OpenAI董事会(作为一个非营利组织成立)控制着该公司,投资者没有进行官方干预。三位知情人士透露说,作为新融资讨论的一部分,OpenAI正在考虑做出改变,使公司结构对投资者更具吸引力。目前新的结构尚未确定。
OpenAI的另一股驱动力量是许多AI研究人员(包括一些OpenAI员工)对技术的担忧。他们认为这些技术可能有助于传播虚假信息、推动网络攻击,甚至摧毁人类。这种紧张关系导致了去年11月的一场冲突,当时包括首席科学家兼联合创始人伊利亚·萨茨克弗(Ilya Sutskever)在内的四名董事会成员罢免了奥特曼。
奥特曼重新获得公司的控制权后,公司上空笼罩着一片乌云。萨茨克弗没有再回OpenAI工作。
萨茨克弗博士曾与另一位研究人员延·雷克(Jan Leike)一起在OpenAI建立了的Superalignment团队,旨在探索一些方法来确保公司未来的技术不会造成危害。
今年5月,萨茨克弗博士离开了OpenAI,创办了自己的AI公司。很快雷克博士也离开OpenAI,加入了Anthropic。“安全文化和流程已经让位于亮闪闪的产品了。”他说。
其他一些人也跟随他们走出了OpenAI的大门。
“我仍然担心OpenAI和其他AI公司没有适当的计划来管理他们筹集了百亿美元以构建的尖端AI系统的风险,”最近离开该公司的研究员威廉·桑德斯(William Saunders)说。
萨茨克弗博士和雷克博士的离开后,OpenAI将他们的工作转移给另一位联合创始人约翰·舒尔曼(John Schulman)。之前的Superalignment团队聚焦于多年之后可能发生的危害,新团队探索了近期和长期的风险。
OpenAI聘请了法瑞尔女士担任首席财务官(她之前在Square担任过相同的职位),威尔先生担任首席产品官。
一些前高管因签署了保密协议而要求匿名接受采访,他们认为OpenAI之前的麻烦未必就烟消云散了。其中三人提到了亚历山大·马德利(Aleksander Madry),他曾经在OpenAI领导的Preparedness团队旨在探索灾难性的AI风险。对于他和他的团队如何融入更大的组织出现了一些意见分歧之后,马德利博士转向了另一个研究项目。
随着一些员工离职,他们被要求签署法律文件——如果他们公开批评公司,他们将失去OpenAI的股票。这在员工中引发了新的担忧,即便后来公司撤销了这种做法,担忧也没有消散。
6月初,研究员托多尔·马尔科夫(Todor Markov)在公司的内部消息系统上发布了一条消息,宣布他因为公司的这种做法而辞职。
他说,OpenAI的领导层在这个问题上一再误导员工。正因为如此,他觉得不能相信公司的领导层会建立通用人工智能AGI ——这与公司董事会在解雇奥特曼时所说的话是一致的。
“你经常谈到我们有责任安全地发展AI,并广泛地分配它带来的裨益,”他写道。“我们如何相信你能承担起这个责任?”
几天后,OpenAI宣布美国退役陆军将军保罗·中曾根(Paul M. Nakasone)加入其董事会。近日在一次采访中,有人问他如何看待这个新环境。
“有些人觉得我是刚接触AI,其实我对AI并不陌生,“他在接受电话采访时说。“我管理过美国国家安全局。多年来,我一直在处理相关事情。
上个月,在OpenAI主持新的安全工作的联合创始人舒尔曼博士也从公司辞职,加入了 Anthropic。他表示想重新回到可以“亲自动手”的技术工作上。
免责声明
本文内容(图片、文章)翻译/转载自国内外资讯/自媒体平台。文中内容不代表本站立场,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除。