按类型寻找AI
按照不同类型和场景,找到最适合您的AI模型
zsxkib/animatediff-illusions
Monster Labs的Controlnet QR Code Monster v2,基于SD-1.5版本,结合AnimateDiff Prompt Travel(动态模块SD 1.5 v2)
hotshot-xl
Hotshot-XL是一款AI文本转GIF模型,专为与Stable Diffusion XL协同工作而训练
video-01-live
专为Live2D和通用动画使用场景训练的图像转视频(I2V)模型
ltx-video
LTX-Video是首个基于DiT架构的实时高质量视频生成模型。该模型能以768x512分辨率生成24帧/秒的视频,生成速度甚至快于视频实际播放速度。
hunyuan-video
一款先进的文本到视频生成模型,能够根据文字描述创造出具有逼真动作的高质量视频。
cogvideox-5b
根据提示生成高质量视频
mochi-1
Mochi 1预览版是一款开源视频生成模型,在初步评估中展现出高保真运动表现与精准的提示词遵循能力
hunyuan-video2video
一款先进的文本到视频生成模型,能够根据文字描述创建具有逼真动作的高质量视频
pyramid-flow
文本转视频+图像转视频:基于流匹配的金字塔流自回归视频生成方法
tooncrafter
根据输入的插图创建视频
pia
个性化图像动画师
videocrafter
VideoCrafter2:文本到视频与图像到视频的生成与编辑
i2vgen-xl
研究/非商业用途专用:基于级联扩散模型的高质量图像转视频合成技术
video-morpher
生成一个在不同主题之间变形的视频,可选择风格
tile-morph
创建可平铺动画,实现无缝过渡
animate-diff
动画化您的个性化文本到图像扩散模型
zeroscope-v2-xl
Zeroscope V2 XL 和 576w
animate-diff
AnimateDiff(搭配平移、缩放等MotionLoRAs使用):无需特定调校即可为您的个性化文本到图像扩散模型添加动画效果
animatediff-prompt-travel
AnimateDiff 提示词旅行 无缝导航与动态生成 在文生图提示词间自由切换 打造动态视觉叙事
stable-diffusion-videos
通过插值稳定扩散的潜在空间生成视频
controlvideo
无需训练的可控文本到视频生成
stable-diffusion-animation
通过在两段提示词之间进行插值来动画化稳定扩散
deforum_stable_diffusion
使用稳定扩散技术制作动画提示
tune-a-video
关于Tune-A-Video:用于文本到视频生成的图像扩散模型一次性调优
stable-diffusion-dance
音频反应式稳定扩散
stable_diffusion_infinite_zoom
使用Runway的Stable-diffusion修复模型来创建一个无限循环视频
text2video-zero
文本到图像扩散模型是零样本视频生成器
damo-text-to-video
多阶段文本到视频生成