Определение
Параметрически-эффективная тонкая настройка (PEFT) — это метод адаптации больших предварительно обученных моделей к новым задачам путем обновления только небольшого подмножества параметров вместо обновления всей модели.
Цель
Целью является снижение вычислительных затрат и потребностей в хранении при сохранении высокой производительности задач.
Значение
- Позволяет организациям, не имеющим значительных ресурсов, осуществлять тонкую настройку.
- Снижает углеродный след по сравнению с полным обучением модели.
- Обеспечивает эффективное переключение задач в процессе производства.
- Относится к таким методам, как LoRA и адаптеры.
Как это работает
- Выберите большую предварительно обученную базовую модель.
- Определите подмножества параметров (например, адаптеры низкого ранга).
- Обучайте только эти подмножества на данных целевой задачи.
- Остальные параметры оставьте замороженными.
- Развертывание с минимальными затратами ресурсов.
Примеры (реальный мир)
- LoRA (адаптация низкого ранга): широко используется при тонкой настройке LLM.
- Библиотека Hugging Face PEFT: эффективный набор инструментов для тонкой настройки.
- Исследования Google: адаптеры для многоязычных задач обработки естественного языка.
Ссылки/Дополнительная литература
- Ху и др. «LoRA: низкоранговая адаптация больших языковых моделей». arXiv.
- Хаулсби и др. «Эффективное по параметрам переносное обучение для обработки естественного языка». ACL.
- Документация PEFT по обнимающему лицу.
