LLM-jp-4 32B Thinkingを公式コーパスでキャリブレーションした量子化GGUFを公開 The author released quantized GGUF versions of the LLM-jp-4 32B Thinking model, calibrated…
AI要約 LLM-jp-4 32B Thinkingモデルを本家の学習コーパスを用いてキャリブレーションし、量子化したGGUF形式のモデルを公開した。日本語性能を維持しつつローカル環境での実行を容易にする取り組み。
EN The author released quantized GGUF versions of the LLM-jp-4 32B Thinking model, calibrated using the official training corpus to preserve Japanese performance for local inference.
og