OpenAI 最近要求其投资者不要为五家特定的人工智能初创公司提供资金,其中包括 OpenAI 联合创始人伊利亚-苏茨基弗(Ilya Sutskever)创办的 Safe Superintelligence (SSI)。此前,OpenAI 成功从 Thrive Capital 和 Tiger Global 募集到 66 亿美元资金,估值达到惊人的 1570 亿美元。
OpenAI 请求收购的这些初创公司都是开发大型语言模型(LLM)的紧密竞争对手。名单中包括竞争对手的人工智能公司,如 Anthropic 和埃隆-马斯克(Elon Musk)的 xAI,以及 Perplexity 和 Glean。看起来,OpenAI 希望巩固自己的市场地位,因为它预计收入将增长,从今年的 37 亿美元增长到 2025 年的 116 亿美元。
虽然这一要求不具有法律约束力,但它告诉我们,在资本获取至关重要的激烈竞争领域,OpenAI 是如何不顾一切地利用自己在投资者中的吸引力的。虽然这种做法在风险投资领域并不完全罕见,但列出具体的竞争对手名单则相对不常见。这一并不常见的要求可能会影响到 OpenAI 的投资者,也会影响到作为其竞争对手的这些被列入名单的人工智能初创公司的未来。
值得注意的是,OpenAI 的《宪章》概述了其对确保建立一个安全的、造福全人类的 AGI 的承诺,并承诺如果任何其他组织能够在 OpenAI 之前实现 AGI,将为其提供帮助。该宪章明确指出,OpenAI 将尝试直接构建安全、有益的 AGI,但如果有价值一致、具有安全意识的项目在其之前接近构建 AGI,OpenAI 将停止竞争,转而提供援助。
这种合作的具体条件将视具体情况而定。不过,一个典型的情况可能是,一个项目在 “未来两年内取得成功的几率大于平均值”。
OpenAI 要求投资者不要资助其他人工智能初创公司,这与其章程原则形成了鲜明对比。随着该公司从非营利结构转型为营利性福利公司,这种不寻常的要求让人怀疑它是否真的会坚持其最初的原则,即为人类造福而构建 AGI。
来源:Reuters