Retrieval-based-Voice-Conversion-WebUI是一个基于VITS的变声框架,用户可以轻松训练适用于10分钟以内语音数据的变声模型。                                
                                
                                
                            
                                    diffusers是一个用于生成图像、音频和三维分子结构的预训练扩散模型库,支持简单推理和自定义模型训练,专注于用户体验。                                
                                
                                
                            
                                    这个仓库用于利用Stable Diffusion生成视频,通过在文本提示间进行变换和插值来创建炫酷的视频效果。                                
                                
                                
                            
                                    OmniMotion是一个基于PyTorch的实现,用于跟踪多个物体,并适用于ICC 2023论文研究,提供训练和数据处理功能。                                
                                
                                
                            
                                    Stable-Dreamfusion 是一个基于 PyTorch 的文本到 3D 模型实现,结合了 Stable Diffusion,用于生成 3D 内容和导出网格。                                
                                
                                
                            
                                    StableSR是一个基于扩散先验的图像超分辨率项目,旨在提高真实世界图像的清晰度和细节,还原高质量图像。                                
                                
                                
                            
                                    sd-webui-stablesr 是一个用于Stable Diffusion WebUI的超高质量图像放大工具,采用竞争性超分辨率算法,提升图像细节和质量。                                
                                
                                
                            
                                    DragGAN是一个开源项目,用于实现基于交互点的生成图像操作,支持用户通过简单拖拽来修改图片,适用于各种类型的操作与演示。                                
                                
                                
                            
                                    InternGPT是一个开源演示平台,支持DragGAN、ChatGPT等多种AI模型,使用户能以拖拽和绘图方式与AI互动,提升交流效率与准确性。                                
                                
                                
                            
                                    StyleTalk是一个生成可控说话风格的实时头部视频的工具,支持用户通过指定样式视频来生成相应的虚拟人说话视频。                                
                                
                                
                            

