
Radiance是一套面向电影级后期制作的专业图像处理套件,内置55个高度模块化节点,覆盖图像输入、调色、胶片模拟、HDR处理到最终输出的全流程,可在ComfyUI中直接实现院线级色彩分级、真实胶片质感与专业HDR后期。

Voxtral-Mini-4B-Realtime-2602是Mistral AI正式开源的实时流式语音识别模型,仅40亿参数,即可在保持高精度的前提下,实现500ms以内超低延迟,并原生支持中文等13种语言。

Ming-omni-tts模型通过统一连续音频Tokenizer与Diffusion Transformer架构,以12.5Hz帧率处理多模态音频,并借助「Patch-by-Patch」压缩策略将LLM推理帧率降至3.1Hz,在保证高音质的同时大幅降低延迟。

Lyria 3是谷歌DeepMind研发的新一代AI音乐生成模型,现已原生集成到Gemini,支持文本、图片/视频多模态输入,30秒快速生成带歌词、伴奏与定制封面的完整原创音乐片段。目前处于测试阶段,面向全球18岁以上用户开放。

DeepGen 1.0是由中国科学技术大学、西湖大学与南加州大学等联合推出的轻量级统一多模态模型,仅50亿参数,却在通用图像生成、编辑及复杂逻辑理解任务中实现超越级表现,多项指标击败参数量为其3–16倍的国际顶级模型。

ComfyUI-Flux2Klein-Enhancer是专为FLUX.2 Klein模型打造的ComfyUI自定义节点,核心是通过深入解析FLUX.2 Klein内部调节架构,精准定位并仅修改有效文本嵌入区域,不触碰模型核心推理逻辑,从而实现对提示词响应的精细化调控,让生成效果更贴合用户预期,解决常规提示词控制精度不足的问题。

ComfyUI_FL-HeartMuLa核心优势是支持5语种完整歌曲生成,且可精细化控制歌曲结构、风格,零样本即可创作;架构轻量化、显存占用低,低配GPU也能运行,同时模块化设计适配不同层级用户需求;提供两种安装方式,新手推荐管理器一键安装,进阶用户可手动克隆仓库部署。

ComfyUI Z-Image I2L核心优势是无需传统训练,仅需少量参考图即可快速生成专属LoRA,大幅降低制作门槛;输出格式标准化,可直接适配ComfyUI现有LoRA节点,集成性强;硬件上建议24GB+显存的GPU,避免运行时内存溢出。

ComfyUI DiffSynth Studio Wrapper是一款轻量级自定义节点封装器,核心目标是将DiffSynth-Studio的Z-Image I2L功能,无缝嵌入ComfyUI可视化工作流。借助该节点,用户无需进行外部模型训练或微调,即可直接从参考图像快速生成临时LoRA,并立即应用于新图像采样,高效实现风格、角色的精准迁移与视觉一致性保持。

ComfyUI VibeVoice ASR是面向ComfyUI打造的专用语音识别节点,将微软VibeVoice ASR高效集成至可视化工作流,支持在ComfyUI内直接完成高精度、长音频转录,同时提供说话人分离、时间戳对齐与SRT字幕导出能力,可满足音频转写、视频字幕、会议纪要等多场景需求。

ComfyUI Content Viewer是一款高性能、高可扩展的ComfyUI自定义节点,它不只是内容预览工具,更是一套模块化内容渲染引擎。借助安全的嵌入式iframe沙盒,它可自动识别并渲染12种以上内容类型,内置完整的无限画布图像合成器,且全程无需修改ComfyUI核心代码,支持动态加载、灵活扩展与深度定制。

ComfyUI Viewer – OpenReel Video Extension把开源视频编辑器OpenReel深度集成到ComfyUI的Content Viewer节点中,让你直接在ComfyUI工作流内完成视频剪辑、特效、转场、文字叠加等全流程后期处理。

BitDance是字节跳动正式开源的140亿参数离散自回归多模态基础模型。凭借创新的二进制Token编码机制与并行扩散预测范式,模型在保持高分辨率、高保真画质的前提下,实现了颠覆性的生成速度,效率较传统自回归模型提升30倍以上,甚至超越多款主流扩散模型。

Capybara一款单一架构、全功能整合的全能型AI系统,它以先进扩散模型与Transformer架构为核心底座,将文本到图像/视频生成、指令式精细编辑、上下文条件生成及关键帧传播等多元能力深度融合,打破传统AI任务需多模型、多接口切换的壁垒——无论是从零启动的创意生成。

Tiny Aya系列是企业级AI独角兽Cohere旗下Cohere Labs正式发布的开源多语言模型,专为真实场景落地打造。该系列支持70余种语言,仅33.5亿参数,即可在笔记本电脑、智能手机等终端设备上流畅运行,且支持完全离线使用。
