d0c8ac704a0d132f975d3fdb089b2987c7da35f8
llm/ollama\343\201\247llm-jp-3\343\202\222\345\213\225\343\201\213\343\201\231.md
... | ... | @@ -0,0 +1,55 @@ |
1 | +1. `safetensor`形式から`gguf`形式に変換する。 |
|
2 | + |
|
3 | + <https://note.com/npaka/n/n3e99d2a45a4b> |
|
4 | + |
|
5 | + |
|
6 | +1. `Modelfile`を以下の内容で作成する。 |
|
7 | + |
|
8 | + <https://github.com/ollama/ollama/blob/main/docs/modelfile.md>と<https://huggingface.co/llm-jp/llm-jp-3-13b-instruct/blob/main/tokenizer_config.json>を元にChatGPT o1に作らせた。 |
|
9 | + |
|
10 | + ``` |
|
11 | + FROM ./llm-jp-3-13b-instruct.gguf |
|
12 | + |
|
13 | + # 推論時のパラメータを調整 |
|
14 | + PARAMETER num_ctx 4096 |
|
15 | + PARAMETER temperature 1 |
|
16 | + PARAMETER top_k 40 |
|
17 | + PARAMETER top_p 0.9 |
|
18 | + |
|
19 | + # システムメッセージを設定(任意の役割やトーンを指定可能) |
|
20 | + SYSTEM """あなたは日本語で質問に答えるアシスタントです。文体は丁寧かつ簡潔にしてください。""" |
|
21 | + |
|
22 | + # テンプレート例 |
|
23 | + # - .System : 上記の SYSTEM メッセージが入る |
|
24 | + # - .Prompt : ユーザが入力したプロンプトが入る |
|
25 | + # - .Response : モデルが生成する出力が入る |
|
26 | + TEMPLATE """{{ if .System }}以下は、タスクを説明する指示です。要求を適切に満たす応答を書きなさい。 |
|
27 | + |
|
28 | + {{ .System }} |
|
29 | + {{ end }} |
|
30 | + |
|
31 | + {{ if .Prompt }}### 指示: |
|
32 | + {{ .Prompt }} |
|
33 | + {{ end }} |
|
34 | + |
|
35 | + ### 応答: |
|
36 | + {{ .Response }}""" |
|
37 | + |
|
38 | + |
|
39 | + # 追加で会話の履歴を与えたい場合は MESSAGE を使う |
|
40 | + # MESSAGE user "こんにちは、調子はいかがですか?" |
|
41 | + # MESSAGE assistant "はい、快適に動作しています。何をお手伝いできますか?" |
|
42 | + |
|
43 | + ``` |
|
44 | + |
|
45 | +1. ollamaでモデルを構築する |
|
46 | + |
|
47 | + ``` |
|
48 | + $ ollama create llm-jp-3-13b-instruct -f .\Modelfile |
|
49 | + ``` |
|
50 | + |
|
51 | +1. ollamaで実行する。 |
|
52 | + |
|
53 | + ``` |
|
54 | + $ ollama run llm-jp-3-13b-instruct |
|
55 | + ``` |
|
... | ... | \ No newline at end of file |