Pre-training
Определение
Предобучение — начальный этап обучения AI-модели на огромных объёмах неразмеченных данных для формирования базовых знаний и способностей.
Простое объяснение
Это когда AI сначала читает огромное количество текстов из интернета, чтобы выучить язык и получить базовые знания.
Подробнее
Этапы создания LLM:
- Pre-training — обучение на интернет-данных
- Instruction tuning — обучение следовать инструкциям
- RLHF — alignment с человеческими предпочтениями
Pre-training требует огромных вычислительных ресурсов (миллионы GPU-часов).
Связанные термины
DPO
Direct Preference Optimization — упрощённая альтернатива RLHF, которая напрямую оптимизирует модель на данных предпочтений без необходимости отдельной reward model.
Модель
Модель в ML — обученный алгоритм, который принимает входные данные и выдаёт предсказания или генерирует результат.
LoRA
Low-Rank Adaptation — метод эффективного дообучения больших языковых моделей, который замораживает исходные веса и добавляет небольшие обучаемые матрицы.
Latent Space
Latent Space — многомерное пространство скрытых представлений, где нейросеть кодирует семантику данных.
