OpenAI发布Sora模型:可根据文本生成多视角视频,电影行业或受冲击
2月18日消息,近日,OpenAI发布了全新的Sora模型,该模型具备根据用户输入的文本描述生成对应视频内容的能力,引发了广大网友的热议。Sora的功能远不止如此,它还拥有更多令人惊叹的潜力。 据OpenAI研究科学家比尔・皮布尔斯(Bill Peebles)在社交媒体上的分享,他展示了由Sora一次性生成的视频样本,该视频呈现了人们在下雪天漫步、玩雪的多个角度,而这些画面均是由Sora一次完成的。这意味着Sora模型支持同时生成多个不同视角的视频,这一功能有可能对短视频和电影行业产生深远的影响。
传统的视频拍摄过程需要人工撰写脚本、使用摄像机进行拍摄,并通过多视角的剪辑来呈现完整的视频片段。然而,Sora的出现可能将彻底改变这一流程。未来,只需要输入相应的脚本信息,Sora就能够生成多角度、多机位的视频,再结合人工的剪辑工作,就能够呈现出一部完整的作品。 据本站了解,Sora模型在生成视频时能够严格遵循用户输入的提示词,并可以制作长达一分钟的高质量视频。这一功能为艺术家、电影制片人以及学生等需要制作视频的人群带来了无限的可能性。无论是制作时尚女性在东京街头漫步的视频,还是呈现雪地里巨型长毛象的画面,甚至是制作太空人冒险电影预告片,Sora都能够准确反映用户的提示并生成相应的视频。 尽管Sora模型的功能强大且备受期待,但目前OpenAI尚未向公众开放该模型。据称,Sora正在接受测试阶段,并且仅与一批精选的研究人员和学者分享。这使得人们对Sora的未来应用前景更加充满期待。 |