Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

为什么该项目使用bert vits不会有内存泄漏的问题 #180

Open
Hujiazeng opened this issue Sep 26, 2024 · 1 comment
Open

为什么该项目使用bert vits不会有内存泄漏的问题 #180

Hujiazeng opened this issue Sep 26, 2024 · 1 comment

Comments

@Hujiazeng
Copy link

使用官方提供的bert vits包推理, 内存持续增长; 而本项目不会, 做了哪方面的改进?

另外,如果启动该项目时只想使用bert vits的部分而不加载其他的模块, 我应该怎么做?

感谢作者开源

@Artrajz
Copy link
Owner

Artrajz commented Sep 27, 2024

使用官方提供的bert vits包推理, 内存持续增长; 而本项目不会, 做了哪方面的改进?

torch.cuda.empty_cache()

算不上改进,官方项目也是有的。也可能与torch版本有关。

另外,如果启动该项目时只想使用bert vits的部分而不加载其他的模块, 我应该怎么做?

只有已加载模型的模块有占资源,无需额外操作

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

2 participants