安全超级智能公司 Safe Superintelligence Inc. 创立于2024年6月,总部位于美国加利福尼亚州帕洛阿尔托 ,Safe Superintelligence 是一家人工智能研究实验室,致力于解决打造超人类智能(Superhuman Intelligence)的技术难题。该公司运营着一个专门的实验室,通过革命性的工程技术提高能力,同时优先考虑安全性。
安全超级智能 Safe Superintelligence Inc. 美股百科
2024 年 9 月 4 日,安全超级智能 (Safe Superintelligence Inc.,SSI) 是由 OpenAI 前首席科学家 Ilya Sutskever 新近联合创立的,该公司高管向路透社透露,该公司已筹集 10 亿美元现金,用于开发远超人类能力的安全人工智能系统。
SSI 目前拥有 10 名员工,计划利用这笔资金获得计算能力并聘请顶尖人才。它将专注于组建一支由研究人员和工程师组成的小型高度可信团队,该团队分布在加利福尼亚州帕洛阿尔托和以色列特拉维夫。
SSI 公司拒绝透露其估值,但知情人士称其估值为 50 亿美元。此次融资凸显出一些投资者仍然愿意对专注于基础人工智能研究的杰出人才进行超额押注。尽管人们对资助这类公司的兴趣普遍减弱,因为这些公司可能在一段时间内无法盈利,这已导致几位初创公司创始人离开职位,转投科技巨头。
投资者包括顶级风险投资公司 Andreessen Horowitz、Sequoia Capital、DST Global 和 SV Angel。由 Nat Friedman 和 SSI 首席执行官 Daniel Gross 经营的投资合伙企业 NFDG 也参与其中。
Daniel Gross 在接受采访时表示:“对我们来说,重要的是要有理解、尊重和支持我们使命的投资者,我们的使命是直接迈向安全超级智能,特别是在将产品推向市场之前花几年时间进行研发。”
人工智能安全是指防止人工智能造成伤害,在人们担心流氓人工智能可能违背人类利益甚至导致人类灭绝之际,人工智能安全是一个热门话题。
加州一项旨在对公司实施安全法规的法案使该行业分裂。OpenAI 和谷歌 (GOOGL.O) 等公司对此表示反对,而 Anthropic 和埃隆·马斯克的 xAI 则对此表示支持。37 岁的 Sutskever 是人工智能领域最具影响力的技术专家之一。他于 6 月与曾在苹果 (AAPL.O) 领导人工智能项目的格罗斯和前 OpenAI 研究员丹尼尔·利维共同创立了 SSI。
苏茨克韦尔 (Sutskever) 是首席科学家,莱维 (Levy) 是首席科学家,而格罗斯 (Gross) 负责计算能力和筹款。
安全超级智能 Safe Superintelligence Inc. 融资百科
2024年9月4日,Safe Superintelligence Inc.获得10亿美金的风险投资,Sequoia Capital、Andreessen Horowitz、SV Angel、DST Global和NFDG Ventures共同投资。
安全超级智能 Safe Superintelligence Inc. 美股投资
非上市公司,公司官网,等待安全超级智能 Safe Superintelligence Inc. IPO上市。
评论