昨天早些时候,OpenAI 发布了一款新的文本到视频人工智能(AI)模型 Sora,该模型能够将文字提示转化为分钟长的视频。新模型将与谷歌等公司展开正面交锋,后者最近发布了类似的文本到视频人工智能模型 Lumiere。
根据 OpenAI 的研究论文,新的 Sora 模型是通过 "文本条件扩散模型联合可变持续时间的视频和图像" 来训练的,可以根据基于文本的提示生成超逼真的视频。该公司指出,它正在教人工智能 "理解和模拟运动中的物理世界,目标是训练模型,帮助人们解决需要真实世界交互的问题"。
公司首席执行官山姆-奥特曼(Sam Altman)甚至及时接受了用户的请求,展示了该模型的功能。
该公司还在与政策制定者合作,"了解他们对这项技术的担忧"。虽然该模型尚未向公众开放,但 OpenAI 表示将向部分艺术家开放该模型,以获得他们对该技术的反馈意见。
我们还允许一些视觉艺术家、设计师和电影制片人访问我们的模型,以获得反馈意见,了解如何改进模型,使其对创意专业人士最有帮助。
我们将尽早分享我们的研究进展,以便开始与 OpenAI 以外的人员合作并获得他们的反馈,同时让公众了解人工智能的发展前景。
目前还不知道 OpenAI 将于何时向公众提供新模式,也不知道最终用户需要支付多少费用。据传,OpenAI 的首席执行官山姆-奥特曼(Sam Altman)正在为自己的事业寻求高达 7 万亿美元的投资。