共计 637 个字符,预计需要花费 2 分钟才能阅读完成。
中新网2月16日电 最近,美国的人工智能研发机构OpenAI推出了一款名为“Sora”的视频生成模型。
根据OpenAI官网的介绍,借助这款模型,用户可以通过文本生成时长最长可达一分钟的视频,且视频中能够展现多个角色、特定的动作、精确的主题以及丰富的背景细节等复杂场景。
利用视频生成模型“Sora”创造的图像。图片
该公司表示,开发此模型的目的是为了让人工智能更好地理解和模拟物理运动,并训练其应对需要与现实世界互动的问题。
美国有线电视新闻网(CNN)引用市场研究机构ABI Research的高级分析师海登的观点,认为“Sora”可能会在数字娱乐行业带来深远的影响,因为新的个性化内容将会在各个渠道广泛传播。
在对“Sora”的介绍中,OpenAI还提到当前模型存在的不足之处,可能无法准确模拟复杂场景中的物理表现,且对因果关系的具体实例理解也可能存在困难。例如,生成的视频可能会出现一个人咬了一口饼干后,饼干上却没有留下咬痕的情形。
此外,该模型也可能会混淆左与右等空间细节。
OpenAI表示,未来将与专业团队合作,测试这一最新模型,并将密切关注包括错误信息、仇恨内容及偏见等多个领域的问题。
声明:
文章来自网络收集后经过 ai 改写发布,如不小心侵犯了您的权益,请联系本站删除,给您带来困扰,深表歉意!
正文完