今天,Veo 3.1 和 Veo 3.1 Fast 已通过 Gemini API 提供付费预览。这一更新后的模型带来了多项改进,尤其是在从图像生成视频时,输出效果得到了显著提升。这些新模型可以通过 Google AI Studio 和 Vertex AI 中的 Gemini API 访问。同时,Veo 3.1 也已在 Gemini app 和 Flow 中上线。
Veo 3.1:我们改进的视频生成模型
Veo 3.1 和 Veo 3.1 Fast 通过重大升级,赋能开发者创建更具吸引力的内容。这些模型现在能够生成更丰富的原生音频,涵盖从自然对话到同步音效的各种场景;并通过对电影风格的更好理解,提供更强大的叙事控制力。**增强的图像到视频(Image-to-Video)**功能确保了更好的提示遵循度,同时提供卓越的视听质量,并能在多个场景中保持角色一致性。
除了模型更新,我们还引入了新的模型能力,包括使用参考图像指导视频生成、扩展现有 Veo 视频以及在首尾帧之间生成过渡效果。
新模型能力深度解析
使用“图像要素”指导生成(Ingredients to video)
现在,您可以通过提供最多 3 张角色、物体或场景的参考图像来指导视频生成过程。这对于在多个镜头中保持角色一致性,或将特定风格应用于视频非常有帮助。

from google import genai
from google.genai import types
client = genai.Client()
operation = client.models.generate_videos(
model="veo-3.1-generate-preview",
prompt=prompt,
config=types.GenerateVideosConfig(
reference_images=[reference_image1, reference_image2],
),
)
更多信息请参阅文档。
通过“场景扩展”创建更长的视频(Scene extension)
您的故事不再受限于原始生成片段的长度。通过场景扩展(Scene extension)功能,您可以创建更长的视频,甚至长达一分钟或更久,只需生成与前一个视频连接的新片段即可。每个新视频都是基于前一个片段的最后一秒生成,从而保持视觉上的连续性,这使得该功能非常适合延长带有背景音频的镜头。
from google import genai
client = genai.Client()
operation = client.models.generate_videos(
model="veo-3.1-generate-preview",
prompt=prompt,
video=video_to_extend
)
更多信息请参阅文档。
利用“首尾帧控制”掌控视频流程(First and last frame)
创建平滑、自然的场景,以连接两张不同的图像。通过提供起始和结束图像,您可以指导 Veo 3.1 生成它们之间的过渡,并配有相应的音频。

from google import genai
from google.genai import types
client = genai.Client()
operation = client.models.generate_videos(
model="veo-3.1-generate-preview",
prompt=prompt,
image=first_frame,
config=types.GenerateVideosConfig(
last_frame=last_frame,
),
)
更多信息请参阅文档。
Veo 3.1 的实际应用案例
- Promise Studios 是一家 GenAI 电影工作室,正在其 MUSE 平台中使用 Veo 3.1,以增强其生成式故事板和预可视化能力,从而实现导演主导的制作级叙事。
- Latitude 正在其生成式叙事引擎中试验 Veo 3.1,旨在即时将用户创建的故事变为现实。
立即开始使用
Veo 3.1 及其新功能现已通过 Gemini API 提供付费预览。
- 深入查阅文档,了解详细的参数信息和视频长度控制。
- 在我们的新 AI Studio 演示应用 Veo Studio 中开始使用 Veo 3.1 及新功能(需要付费 Gemini API 密钥)。
- 或者直接通过更新的 cookbook 指南进行编码。
Veo 3.1 的定价与 Veo 3 相同。我们非常期待看到您能利用这些新功能创造出怎样的作品!
转载自google 博客
关于
关注我获取更多资讯