Xin Zhang
commited on
Commit
·
00c9290
1
Parent(s):
2edb707
[fix]: update installation.
Browse files
README.md
CHANGED
@@ -11,40 +11,65 @@ license: mit
|
|
11 |
```bash
|
12 |
brew install portaudio cmake
|
13 |
```
|
|
|
14 |
### Python 基本环境
|
15 |
-
> 1.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
16 |
```bash
|
17 |
-
|
18 |
```
|
19 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
20 |
### WhisperCPP 安装
|
21 |
-
> 1. 克隆 WhisperCPP 仓库并初始化子模块:
|
22 |
```bash
|
23 |
git clone --recurse-submodules https://github.com/absadiki/pywhispercpp.git && cd pywhispercpp/whisper.cpp && git checkout 170b2faf75c2f6173ef947e6ef346961f3368e1b && cd ../..
|
24 |
```
|
25 |
-
> 2. 切换到特定的提交版本:
|
26 |
```bash
|
27 |
-
cd pywhispercpp && git checkout d43237bd75076615349004270a721e3ebe1deabb
|
28 |
```
|
29 |
-
> 3. 安装 WhisperCPP,确保启用 CoreML 支持:
|
30 |
```bash
|
31 |
WHISPER_COREML=1 python setup.py install && cd ..
|
32 |
```
|
33 |
|
34 |
### Llama-cpp-python 安装
|
35 |
-
> 1. 克隆 Llama-cpp-python 仓库并初始化子模块:
|
36 |
```bash
|
37 |
-
git clone --recurse-submodules https://github.com/abetlen/llama-cpp-python.git
|
38 |
```
|
39 |
-
> 2. 切换到特定的提交版本:
|
40 |
```bash
|
41 |
cd llama-cpp-python && git checkout 99f2ebfde18912adeb7f714b49c1ddb624df3087 && cd vendor/llama.cpp && git checkout 80f19b41869728eeb6a26569957b92a773a2b2c6 && cd ../..
|
42 |
```
|
43 |
-
> 3. 使用以下命令安装 Llama-cpp-python,确保启用 Metal 支持:
|
44 |
```bash
|
45 |
CMAKE_ARGS="-DGGML_METAL=on" pip install . && cd ..
|
46 |
```
|
47 |
|
48 |
## 运行
|
49 |
> 1. 运行命令 `python main.py` 启动应用程序。
|
50 |
-
> 2. 打开浏览器并访问 `http://localhost:9191/` 以使用该应用。
|
|
|
11 |
```bash
|
12 |
brew install portaudio cmake
|
13 |
```
|
14 |
+
|
15 |
### Python 基本环境
|
16 |
+
> 1. 创建一个新的 Python 虚拟环境:
|
17 |
+
```bash
|
18 |
+
conda create -n translator python=3.11.9
|
19 |
+
# 如果没有安装 conda,请先安装 conda 或 Miniconda。
|
20 |
+
# 参考 [Miniconda 安装指南](https://docs.conda.io/en/latest/miniconda.html)。
|
21 |
+
```
|
22 |
+
|
23 |
+
> 2. 激活虚拟环境:
|
24 |
```bash
|
25 |
+
conda activate translator
|
26 |
```
|
27 |
|
28 |
+
> 3. 克隆仓库:
|
29 |
+
```bash
|
30 |
+
# 如果没有安装git lfs,请先安装git lfs。
|
31 |
+
# macos系统可以使用brew安装git lfs。用git lfs version命令检查是否安装成功。
|
32 |
+
git lfs install
|
33 |
+
# repo中包含了模型文件,clone时间可能会比较长。
|
34 |
+
git clone https://huggingface.co/MoYoYoTech/Translator.git
|
35 |
+
# 进入项目目录
|
36 |
+
cd Translator
|
37 |
+
```
|
38 |
+
|
39 |
+
> 4. 使用以下命令安装所需的 Python 库:
|
40 |
+
```bash
|
41 |
+
pip install -r requirements.txt
|
42 |
+
```
|
43 |
+
|
44 |
+
|
45 |
### WhisperCPP 安装
|
46 |
+
> 1. 克隆 WhisperCPP 仓库并初始化子模块:
|
47 |
```bash
|
48 |
git clone --recurse-submodules https://github.com/absadiki/pywhispercpp.git && cd pywhispercpp/whisper.cpp && git checkout 170b2faf75c2f6173ef947e6ef346961f3368e1b && cd ../..
|
49 |
```
|
50 |
+
> 2. 切换到特定的提交版本:
|
51 |
```bash
|
52 |
+
cd pywhispercpp && git checkout d43237bd75076615349004270a721e3ebe1deabb
|
53 |
```
|
54 |
+
> 3. 安装 WhisperCPP,确保启用 CoreML 支持:
|
55 |
```bash
|
56 |
WHISPER_COREML=1 python setup.py install && cd ..
|
57 |
```
|
58 |
|
59 |
### Llama-cpp-python 安装
|
60 |
+
> 1. 克隆 Llama-cpp-python 仓库并初始化子模块:
|
61 |
```bash
|
62 |
+
git clone --recurse-submodules https://github.com/abetlen/llama-cpp-python.git
|
63 |
```
|
64 |
+
> 2. 切换到特定的提交版本:
|
65 |
```bash
|
66 |
cd llama-cpp-python && git checkout 99f2ebfde18912adeb7f714b49c1ddb624df3087 && cd vendor/llama.cpp && git checkout 80f19b41869728eeb6a26569957b92a773a2b2c6 && cd ../..
|
67 |
```
|
68 |
+
> 3. 使用以下命令安装 Llama-cpp-python,确保启用 Metal 支持:
|
69 |
```bash
|
70 |
CMAKE_ARGS="-DGGML_METAL=on" pip install . && cd ..
|
71 |
```
|
72 |
|
73 |
## 运行
|
74 |
> 1. 运行命令 `python main.py` 启动应用程序。
|
75 |
+
> 2. 打开浏览器并访问 `http://localhost:9191/` 以使用该应用。
|