From 0031293366e272233032a7cfcddbe6955d7dacd6 Mon Sep 17 00:00:00 2001 From: Oleg Burnaev <51371645+Shepard2154@users.noreply.github.com> Date: Sun, 30 Nov 2025 06:24:56 +0300 Subject: [PATCH] fix: typo in the explanation for fine-tuning --- chapters/ru/chapter1/4.mdx | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/chapters/ru/chapter1/4.mdx b/chapters/ru/chapter1/4.mdx index 52072be87..398434fef 100644 --- a/chapters/ru/chapter1/4.mdx +++ b/chapters/ru/chapter1/4.mdx @@ -97,7 +97,7 @@ Предобучение обычно происходит на огромных наборах данных, сам процесс может занять несколько недель. -*Дообучение (англ. fine-tuning)*, с другой стороны, это обучение *после* того, как модель была предобучена. Для дообучения вы сначала должны выбрать предобученную языковую модель, а после продолжить ее обучение ее на данных собственной задачи. Стойте -- почему не обучить модель сразу же на данных конкретной задачи? Этому есть несколько причин: +*Дообучение (англ. fine-tuning)*, с другой стороны, это обучение *после* того, как модель была предобучена. Для дообучения вы сначала должны выбрать предобученную языковую модель, а после продолжить ее обучение на данных собственной задачи. Стойте -- почему не обучить модель сразу же на данных конкретной задачи? Этому есть несколько причин: * Предобученная модель уже обучена на датасете, который имеет много сходств с датасетом для дообучения. Процесс дообучения может использовать знания, которые были получены моделью в процессе предобучения (например, в задачах NLP предварительно обученная модель будет иметь представление о статистических закономерностях языка, который вы используете в своей задаче).