af6de128f9d52c1501e3ae19b3e5757d52adcaf1
llm/ollama\343\201\247llm-jp-3\343\202\222\345\213\225\343\201\213\343\201\231.md
... | ... | @@ -1,6 +1,49 @@ |
1 | 1 | 1. `safetensor`形式から`gguf`形式に変換する。 |
2 | 2 | |
3 | - <https://note.com/npaka/n/n3e99d2a45a4b> |
|
3 | + 参考: <https://note.com/npaka/n/n3e99d2a45a4b> |
|
4 | + |
|
5 | + 1. Hugging Faceからモデルをクローンする。 |
|
6 | + |
|
7 | + ``` |
|
8 | + $ cd |
|
9 | + $ git clone https://huggingface.co/llm-jp/llm-jp-3-13b-instruct |
|
10 | + ``` |
|
11 | + |
|
12 | + モデルが大きいので、待ってる間に以下を進める。 |
|
13 | + |
|
14 | + 1. `llama.cpp`のセットアップ |
|
15 | + |
|
16 | + 1. レポジトリをクローンする。 |
|
17 | + |
|
18 | + ``` |
|
19 | + $ cd |
|
20 | + $ git clone https://github.com/ggerganov/llama.cpp.git |
|
21 | + $ cd llama.cpp |
|
22 | + ``` |
|
23 | + |
|
24 | + 1. Python 3.10のセットアップ |
|
25 | + |
|
26 | + ``` |
|
27 | + $ mise use [email protected] |
|
28 | + ``` |
|
29 | + |
|
30 | + 1. venvの構築 |
|
31 | + |
|
32 | + ``` |
|
33 | + $ python3 -m venv .venv |
|
34 | + ``` |
|
35 | + |
|
36 | + 1. 必要なパッケージのインストール |
|
37 | + |
|
38 | + ``` |
|
39 | + $ pip install -r requirements.txt |
|
40 | + ``` |
|
41 | + |
|
42 | + 1. モデルをsafetensor形式からgguf形式に変換する。 |
|
43 | + |
|
44 | + ``` |
|
45 | + $ python3 convert_hf_to_gguf.py ~/llm-jp-3-13b-instruct/ --outfile llm-jp-3-172b-instruct3.gguf |
|
46 | + ``` |
|
4 | 47 | |
5 | 48 | |
6 | 49 | 1. `Modelfile`を以下の内容で作成する。 |