llm/\346\240\274\345\256\211\343\201\247\343\203\225\343\203\253\343\202\265\343\202\244\343\202\272LLM\345\256\237\350\241\214\343\203\236\343\202\267\343\203\263\343\202\222\346\211\213\343\201\253\345\205\245\343\202\214\343\202\213.md
... ...
@@ -14,5 +14,7 @@
14 14
- M1 Max: 409.6 GB/s
15 15
- <https://en.wikipedia.org/wiki/Apple_M1>
16 16
- 似たような構成では、DeepSeekV2.5 Q8で2 token/s程度が出るらしい。
17
- - <https://www.reddit.com/r/LocalLLaMA/comments/1hf80e4/comment/m2blpew/>
17
+ - [Running LLMs on Dual Xeon E5-2699 v4 (22T/44C) (no GPU, yet) : r/LocalLLaMA](https://www.reddit.com/r/LocalLLaMA/comments/1hf80e4/comment/m2blpew/)
18
+ - Qwen3
19
+ - [Qwen3-235B Q6_K ktransformers at 56t/s prefill 4.5t/s decode on Xeon 3175X (384GB DDR4-3400) and RTX 4090 : r/LocalLLaMA](https://www.reddit.com/r/LocalLLaMA/comments/1kgu4qg/qwen3235b_q6_k_ktransformers_at_56ts_prefill_45ts/)
18 20
- ヤフオクで本体が大体10 ~ 15万位で購入でき、メモリで2万×6=12万、合わせて25万くらい?
... ...
\ No newline at end of file