Tokenizer
Определение
Tokenizer — компонент, преобразующий текст в последовательность токенов (чисел), которые понимает языковая модель.
Простое объяснение
Tokenizer — как переводчик человеческого языка в язык цифр, который понимает AI. Разбивает текст на кусочки и присваивает каждому номер.
Подробнее
Связанные термины
Искусственный интеллект
Область информатики, занимающаяся созданием систем, способных выполнять задачи, требующие человеческого интеллекта.
System Prompt
System Prompt — специальная инструкция, задающая поведение, роль и ограничения AI-модели на протяжении всего диалога.
Chain-of-Thought
Chain-of-Thought (CoT) — техника промптинга, побуждающая модель рассуждать пошагово перед выдачей финального ответа.
Человеко-машинное взаимодействие
HCI (Human-Computer Interaction) — область изучения и проектирования интерфейсов взаимодействия между людьми и AI-системами.
