首页 > 资讯列表 > 科技资讯 >> 智能设备

StableDiffusion动画版上线!支持文本图像视频多种输入方式

智能设备 2023-05-19 11:52:26 转载来源: 网络整理/侵权必删

英文:The StableDiffusion animated version is online! Support multiple input methods for text, images, and videos

西风 发自 凹非寺量子位 | 公众号 QbitAIStable Diffusion也能生成视频了!你没听错,Stability AI推出了一款新的文本生成动画工具包Stable Animation SDK,可支持文本、文本+初始图像、文本+视频多种输入方式。使用者可以调用包括Stable Diffusion 2.0、Stable Diffusion XL在内的所有Stable Diffusion模型,来生成动画。Stable Animation SDK的强大功能一经展现,网友惊呼:哇哦,等不及想试试了!目前,Stability AI疑似还在对这个新工具进行技术优化,不久后将公开驱动动画API的组件源代码。3D漫画摄影风,不限时长自动生成Stable Animation SDK可支持三种创建动画的方式:1、文本转动画:用户输入文prompt并调整各种参数以生成动画(与Stable Diffusion相似)。2、文本输入+初始图像输入:用户提供一个初始图像,该图像作为动画的起点。图像与文本prompt结合,生成最终的输出动画。3、视频输入+文本输入:用户提供一个初始视频作为动画的基础。通过调整各种参数,根据文本prompt生成最终的输出动画。除此之外,Stable Animation SDK对生成视频的时长没有限制,但是长视频将需要更长的时间来生成。Stability AI发布了Stable Animation SDK后,有很多网友分享了自己测试效果,让我们一起看下吧:Stable Animation SDK可以设置许多参数,例如steps、sampler、scale、seed。还有下面这么多的预设风格可选择:3D模型、仿真胶片、动漫、电影、漫画书、数码艺术、增强幻想艺术、等距投影、线稿、低多边形、造型胶土、霓虹朋克、折纸、摄影、像素艺术。目前,动画功能API的使用是以积分计费的,10美元可抵1000积分。使用Stable Diffusion v1

西风 发自 凹非寺
量子位 | 公众号 QbitAI

Stable Diffusion也能生成视频了!

你没听错,Stability AI推出了一款新的文本生成动画工具包Stable Animation SDK,可支持文本、文本+初始图像、文本+视频多种输入方式。



使用者可以调用包括Stable Diffusion 2.0、Stable Diffusion XL在内的所有Stable Diffusion模型,来生成动画。

Stable Animation SDK的强大功能一经展现,网友惊呼:

哇哦,等不及想试试了!



目前,Stability AI疑似还在对这个新工具进行技术优化,不久后将公开驱动动画API的组件源代码。

3D漫画摄影风,不限时长自动生成

Stable Animation SDK可支持三种创建动画的方式:

1、文本转动画:用户输入文prompt并调整各种参数以生成动画(与Stable Diffusion相似)。

2、文本输入+初始图像输入:用户提供一个初始图像,该图像作为动画的起点。图像与文本prompt结合,生成最终的输出动画。

3、视频输入+文本输入:用户提供一个初始视频作为动画的基础。通过调整各种参数,根据文本prompt生成最终的输出动画。



除此之外,Stable Animation SDK对生成视频的时长没有限制,但是长视频将需要更长的时间来生成。



Stability AI发布了Stable Animation SDK后,有很多网友分享了自己测试效果,让我们一起看下吧:







Stable Animation SDK可以设置许多参数,例如steps、sampler、scale、seed。

还有下面这么多的预设风格可选择:

3D模型、仿真胶片、动漫、电影、漫画书、数码艺术、增强幻想艺术、等距投影、线稿、低多边形、造型胶土、霓虹朋克、折纸、摄影、像素艺术。



目前,动画功能API的使用是以积分计费的,10美元可抵1000积分。

使用Stable Diffusion v1.5模型,在默认设置值(512x512分辨率,30steps)下,生成100帧(大约8秒)视频将消耗37.5积分

默认情况下,每生成1帧,Cadence值设置为1个静止图像,可根据不同的动画模式选择较低或较高的Cadence值。Cadence值的上限是动画中的总帧数,即至少生成一张静止图像。视频转视频的Cadence必须为 1:1。

官方也给出了一个示例,可以看出生成100帧标准动画的标准静止图像(512x512/768x768/1024x1024,30 steps), 随着Cadence值变化,积分的使用情况:



简单来说,受参数、时长等各种因素的影响,生成视频的费用并不固定。

效果和价格我们都了解了,那如何安装并调用API呢?



要创建动画并测试SDK的功能,只需要两个步骤即可运行用户界面:



在开发应用程序时,需要先设置一个Python虚拟环境,并在其中安装Animation SDK:



具体使用说明书放在文末啦!



越发火热的视频生成

最近,视频生成领域变得越来越热闹了。

比如,AI视频生成新秀Gen-2内测作品流出,网友看完作品直呼:太不可思议了!



Gen-2的更新更是一口气带来了八大功能:

文生视频、文本+参考图像生视频、静态图片转视频、视频风格迁移、故事板(Storyboard)、Mask(比如把一只正在走路的小白狗变成斑点狗)、渲染和个性化(比如把甩头小哥秒变海龟人)。

还有一位名叫Ammaar Reshi的湾区设计师用ChatGPT和MidJourney两个生成AI模型,成功做出一部蝙蝠侠的动画小电影,效果也是非常不错。



自Stable Diffusion开源后,一些开发者通过Google Colab等形式分享了各种魔改后的功能,自动生成动画功能一步步被开发出来。

像国外视频特效团队Corridor,他们基于Stable Diffusion,对AI进行训练,最终能让AI把真人视频转换为动画版本……

大家在对新工具的出现兴奋不已的同时,也有网友对Stable Animation SDK生成的视频所展现出的效果发出质疑:

这与 deforum有什么区别?没有时间线都不连贯,只有非常松散的一帧接一帧的图像。



那么你玩过这些工具了吗?感觉效果如何?

传送门:
https://platform.stability.ai/docs/features/animation/using(Stable Animation SDK使用说明书)

参考链接:
[1]https://www.youtube.com/watch?v=xsoMk1EJoAY
[2]https://twitter.com/_akhaliq/status/1656693639085539331
[3]https://stability.ai/blog/stable-animation-sdk

英文:The StableDiffusion animated version is online! Support multiple input methods for text, images, and videos

标签: StableDiffusion 动画 上线 支持 文本 图像 视频 多种 输入


声明:本文内容来源自网络,文字、图片等素材版权属于原作者,平台转载素材出于传递更多信息,文章内容仅供参考与学习,切勿作为商业目的使用。如果侵害了您的合法权益,请您及时与我们联系,我们会在第一时间进行处理!我们尊重版权,也致力于保护版权,站搜网感谢您的分享!

站长搜索

http://www.adminso.com

Copyright @ 2007~2024 All Rights Reserved.

Powered By 站长搜索

打开手机扫描上面的二维码打开手机版


使用手机软件扫描微信二维码

关注我们可获取更多热点资讯

站长搜索目录系统技术支持