パラメータ効率はメモリ効率にあらず:オンデバイスLLM微調整の再考 Parameter Efficiency Is Not Memory Efficiency: Rethinking Fine-Tuning for On-Device LLM Adaptation
AI要約 本論文は、LoRAなどのパラメータ効率的微調整(PEFT)手法が必ずしもメモリ効率的でないことを指摘する。オンデバイス環境でのLLM適応において、メモリ使用量を主軸に据えた微調整手法の再評価と新たな設計指針を提案する。
EN This paper argues that parameter-efficient fine-tuning methods like LoRA are not necessarily memory-efficient. It rethinks fine-tuning approaches for on-device LLM adaptation by prioritizing memory consumption as the key constraint.