一、大模型 Linly-Dubbing 介绍:
Linly-Dubbing 是一个智能视频多语言 AI 配音和翻译工具,它融合了 YouDub-webui 的灵感,并在此基础上进行了拓展和优化。
我们致力于提供更加多样化和高质量的配音选择,通过集成 Linly-Talker 的数字人对口型技术,为用户带来更加自然的多语言视频体验。
通过整合最新的 AI 技术,Linly-Dubbing 在多语言配音的自然性和准确性方面达到了新的高度,适用于国际教育、全球娱乐内容本地化等多种场景,帮助团队将优质内容传播到全球各地。
主要特点包括:
-
多语言支持 : 支持中文及多种其他语言的配音和字幕翻译,满足国际化需求。
-
AI 智能语音识别 : 使用先进的 AI 技术进行语音识别,提供精确的语音到文本转换和说话者识别。
-
大型语言模型翻译 : 结合领先的本地化大型语言模型(如 GPT),快速且准确地进行翻译,确保专业性和自然性。
-
AI 声音克隆 : 利用尖端的声音克隆技术,生成与原视频配音高度相似的语音,保持情感和语调的连贯性。
-
数字人对口型技术 : 通过对口型技术,使配音与视频画面高度契合,提升真实性和互动性。
-
灵活上传与翻译 : 用户可以上传视频,自主选择翻译语言和标准,确保个性化和灵活性。
-
定期更新 : 持续引入最新模型,保持配音和翻译的领先地位。
我们旨在为用户提供无缝、高质量的多语言视频配音和翻译服务,为内容创作者和企业在全球市场中提供有力支持。
二、大模型 Linly-Dubbing 部署过程:
基础环境最低要求说明:
1. 更新基础软件包
查看系统版本信息
# 查看系统版本信息,包括ID(如ubuntu、centos等)、版本号、名称、版本号ID等
cat /etc/os-release
配置 apt 国内源
# 更新软件包列表
apt-get update
这个命令用于更新本地软件包索引。它会从所有配置的源中检索最新的软件包列表信息,但不会安装或升级任何软件包。这是安装新软件包或进行软件包升级之前的推荐步骤,因为它确保了您获取的是最新版本的软件包。
# 安装 Vim 编辑器
apt-get install -y vim
这个命令用于安装 Vim 文本编辑器。-y
选项表示自动回答所有的提示为“是”,这样在安装过程中就不需要手动确认。Vim 是一个非常强大的文本编辑器,广泛用于编程和配置文件的编辑。
为了安全起见,先备份当前的 sources.list
文件之后,再进行修改:
# 备份现有的软件源列表
cp /etc/apt/sources.list /etc/apt/sources.list.bak
这个命令将当前的 sources.list
文件复制为一个名为 sources.list.bak
的备份文件。这是一个好习惯,因为编辑 sources.list
文件时可能会出错,导致无法安装或更新软件包。有了备份,如果出现问题,您可以轻松地恢复原始的文件。
# 编辑软件源列表文件
vim /etc/apt/sources.list
这个命令使用 Vim 编辑器打开 sources.list
文件,以便您可以编辑它。这个文件包含了 APT(Advanced Package Tool)用于安装和更新软件包的软件源列表。通过编辑这个文件,您可以添加新的软件源、更改现有软件源的优先级或禁用某些软件源。
在 Vim 中,您可以使用方向键来移动光标,i
键进入插入模式(可以开始编辑文本),Esc
键退出插入模式,:wq
命令保存更改并退出 Vim,或 :q!
命令不保存更改并退出 Vim。
编辑 sources.list
文件时,请确保您了解自己在做什么,特别是如果您正在添加新的软件源。错误的源可能会导致软件包安装失败或系统安全问题。如果您不确定,最好先搜索并找到可靠的源信息,或者咨询有经验的 Linux 用户。
使用 Vim 编辑器打开 sources.list
文件,复制以下代码替换 sources.list
里面的全部代码,配置 apt 国内阿里源。
deb http://mirrors.aliyun.com/ubuntu/ jammy main restricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ jammy main restricted universe multiverse
deb http://mirrors.aliyun.com/ubuntu/ jammy-security main restricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ jammy-security main restricted universe multiverse
deb http://mirrors.aliyun.com/ubuntu/ jammy-updates main restricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ jammy-updates main restricted universe multiverse
deb http://mirrors.aliyun.com/ubuntu/ jammy-backports main restricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ jammy-backports main restricted universe multiverse
安装常用软件和工具
# 更新源列表,输入以下命令:
apt-get update
# 更新系统软件包,输入以下命令:
apt-get upgrade
# 安装常用软件和工具,输入以下命令:
apt-get -y install vim wget git git-lfs unzip lsof net-tools gcc cmake build-essential
出现以下页面,说明国内apt源已替换成功,且能正常安装apt软件和工具
2. 安装 NVIDIA CUDA Toolkit 12.1
-
下载 CUDA Keyring :
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-keyring_1.0-1_all.deb
这个命令用于下载 CUDA 的 GPG 密钥环,它用于验证 CUDA 软件包的签名。这是确保软件包安全性的一个重要步骤。
-
安装 CUDA Keyring :
dpkg -i cuda-keyring_1.0-1_all.deb
使用 dpkg
安装下载的密钥环。这是必要的,以便 apt
能够验证从 NVIDIA 仓库下载的软件包的签名。
-
删除旧的 apt 密钥(如果必要) :
apt-key del 7fa2af80
这一步可能不是必需的,除非您知道 7fa2af80
是与 CUDA 相关的旧密钥,并且您想从系统中删除它以避免混淆。通常情况下,如果您只是安装 CUDA 并使用 NVIDIA 提供的最新密钥环,这一步可以跳过。
-
更新 apt 包列表 :
apt-get update
更新 apt 的软件包列表,以便包括刚刚通过 cuda-keyring
添加的 NVIDIA 仓库中的软件包。
-
安装 CUDA Toolkit :
apt-get -y install cuda-toolkit-12-1
出现以下页面,说明 NVIDIA CUDA Toolkit 12.1 安装成功
注意:这里可能有一个问题。NVIDIA 官方 Ubuntu 仓库中可能不包含直接名为 cuda-toolkit-12-1
的包。通常,您会安装一个名为 cuda
或 cuda-12-1
的元包,它会作为依赖项拉入 CUDA Toolkit 的所有组件。请检查 NVIDIA 的官方文档或仓库,以确认正确的包名。
如果您正在寻找安装特定版本的 CUDA Toolkit,您可能需要安装类似 cuda-12-1
的包(如果可用),或者从 NVIDIA 的官方网站下载 CUDA Toolkit 的 .run
安装程序进行手动安装。
请确保您查看 NVIDIA 的官方文档或 Ubuntu 的 NVIDIA CUDA 仓库以获取最准确的包名和安装指令。
-
出现以上情况,需要配置 NVIDIA CUDA Toolkit 12.1 系统环境变量
编辑 ~/.bashrc 文件
# 编辑 ~/.bashrc 文件
vim ~/.bashrc
插入以下环境变量
# 插入以下环境变量
export PATH=/usr/local/cuda/bin:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH
激活 ~/.bashrc 文件
# 激活 ~/.bashrc 文件
source ~/.bashrc
查看cuda系统环境变量
which nvcc
nvcc -V
3. 安装 Miniconda
-
下载 Miniconda 安装脚本 :
-
使用
wget
命令从 Anaconda 的官方仓库下载 Miniconda 的安装脚本。Miniconda 是一个更小的 Anaconda 发行版,包含了 Anaconda 的核心组件,用于安装和管理 Python 包。 -
运行 Miniconda 安装脚本 :
-
使用
bash
命令运行下载的 Miniconda 安装脚本。这将启动 Miniconda 的安装过程。
# 下载 Miniconda 安装脚本
wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh
# 运行 Miniconda 安装脚本
bash Miniconda3-latest-Linux-x86_64.sh
# 初次安装需要激活 base 环境
source ~/.bashrc
按下回车键(enter)
输入yes
输入yes
安装成功如下图所示
pip配置清华源加速
# 编辑 /etc/pip.conf 文件
vim /etc/pip.conf
加入以下代码
[global]
index-url = https://pypi.tuna.tsinghua.edu.cn/simple
注意事项:
-
请确保您的系统是 Linux x86_64 架构,因为下载的 Miniconda 版本是为该架构设计的。
-
在运行安装脚本之前,您可能需要使用
chmod +x Miniconda3-latest-Linux-x86_64.sh
命令给予脚本执行权限。 -
安装过程中,您将被提示是否同意许可协议,以及是否将 Miniconda 初始化。通常选择 “yes” 以完成安装和初始化。
-
安装完成后,您可以使用
conda
命令来管理 Python 环境和包。 -
如果链接无法访问或解析失败,可能是因为网络问题或链接本身的问题。请检查网络连接,并确保链接是最新的和有效的。如果问题依旧,请访问 Anaconda 的官方网站获取最新的下载链接。
4. 从 github 仓库 克隆项目:
-
克隆存储库:
git clone https://github.com/Kedreamix/Linly-Dubbing.git –depth 1
# 克隆项目到本地机器
git clone https://github.com/Kedreamix/Linly-Dubbing.git --depth 1
# 导航到项目目录
cd /Linly-Dubbing
# 初始化并更新子模块
git submodule update --init --recursive
如果 github 无法访问,使用 国内镜像 进行克隆
git clone https://gitee.com/empty-snow/Linly-Dubbing.git
# 克隆 InstantID 项目
git clone https://gitee.com/empty-snow/Linly-Dubbing.git
出现以上页面即是克隆项目成功!
请注意,如果 git clone https://github.com/Kedreamix/Linly-Dubbing.git
这个链接不存在或者无效,git clone
命令将不会成功克隆项目,并且会报错。确保链接是有效的,并且您有足够的权限访问该存储库。
5. 创建虚拟环境
# 创建一个名为'linly_dubbing'的conda环境,并指定Python版本为3.10
conda create -n linly_dubbing python=3.10 -y
# 激活刚刚创建的环境
conda activate linly_dubbing
# 导航到项目目录
cd Linly-Dubbing/
# 安装ffmpeg工具
# 使用conda安装ffmpeg(注意:这里通常不需要同时执行两个ffmpeg安装命令,选择一个即可)
# 使用conda-forge频道安装
ffmpeg conda install ffmpeg==7.0.2 -c conda-forge
# 如果需要,可以选择使用国内的镜像源来安装ffmpeg(但通常不需要重复执行安装) # conda install ffmpeg==7.0.2 -c https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/conda-forge/ (注释掉这行,因为它不是必要的重复操作)
# 升级pip到最新版本
python -m pip install --upgrade pip
# 修改PyPI源以加速包下载
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
6. 安装模型依赖库:
-
CUDA 12.1版本的PyTorch安装
# 使用conda安装PyTorch 2.3.1版本,以及对应的torchvision和torchaudio,支持CUDA 12.1 # 从PyTorch和NVIDIA的conda频道下载
conda install pytorch==2.3.1 torchvision==0.18.1 torchaudio==2.3.1 pytorch-cuda=12.1 -c pytorch -c nvidia
第一次安装可能会报错,重新执行一次PyTorch安装命令即可
-
切换到项目目录、激活虚拟环境、安装安装项目所需的Python包
# 使用conda安装pynini 2.1.5版本,pynini是WeTextProcessing等工具所需的
# 从conda-forge频道下载,或者可以选择使用清华大学镜像源加速下载(已注释)
conda install -y pynini==2.1.5 -c conda-forge # -c https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/conda-forge/
# 这一行是注释,表示如果使用清华大学镜像源可以取消注释
# 使用pip从requirements.txt文件中安装项目所需的其他Python包
pip install -r requirements.txt
# 使用pip从requirements_module.txt文件中安装子模块所需的依赖
pip install -r requirements_module.txt
-
依赖安装成功如下图所示:
7. 下载预训练模型:
-
执行下载模型脚本:
在启动应用程序之前,运行以下命令以自动下载所需的模型(包括 Qwen、XTTSv2 和 faster-whisper-large-v3)
-
Linux 系统
# 使用bash执行scripts目录下的download_models.sh脚本来下载模型 bash scripts/download_models.sh
-
Windows系统
# 使用Python执行scripts目录下的modelscope_download.py脚本来下载模型 python scripts/modelscope_download.py
使用 Linux 系统进行下载:
-
模型下载完成的截图:
8. 运行 app.py 文件
# 运行 webui.py 文件python webui.py
出现以上结果,需要继续修改 webui.py 文件的 IP 和端口,才能进入 gradio 页面
# 编辑 webui.py 文件
vim webui.py
替换为
server_name="0.0.0.0",
server_port=8080,
替换说明:server_name 为 IP 地址, server_port 为端口号,根据访问需求进行替换即可
再次运行 webui.py 文件
# 运行 webui.py 文件
python webui.py
出现以上页面,即可访问 gradio 网页,最后出现以下 gradio 页面,即是模型已搭建完成。
第一次使用需要等待以下参数下载完成