204 терминов искусственного интеллекта с понятными определениями
Адаптер — небольшой обучаемый модуль, встраиваемый между слоями предобученной модели для её адаптации под новые задачи без изменения основных весов.
Автономные AI-агенты — системы искусственного интеллекта, способные самостоятельно планировать, принимать решения и выполнять многошаговые задачи без постоянного контроля человека.
Artificial General Intelligence — гипотетический AI, способный выполнять любые интеллектуальные задачи человека.
Искусственный интеллект — область компьютерных наук, занимающаяся созданием систем, способных выполнять задачи, требующие человеческого интеллекта.
Согласование AI — область исследований, направленная на создание AI-систем, чьи цели и поведение соответствуют человеческим ценностям и намерениям.
AI Coding Assistant — инструмент на базе LLM, помогающий программистам писать, отлаживать и объяснять код.
AI Democratization — расширение доступа к AI-технологиям для людей и организаций без глубокой технической экспертизы.
Система управления AI: политики, процессы и контроли для ответственного использования искусственного интеллекта.
AI-first — стратегия компании, где AI является основой продуктов и процессов, а не дополнением к существующим решениям.
AI-First компания — организация, в которой искусственный интеллект является основой всех бизнес-процессов, а не дополнением к существующим системам.
Автономная AI-система, способная самостоятельно планировать и выполнять задачи для достижения цели.
Anomaly Detection — автоматическое выявление необычных паттернов, выбросов или аномалий в данных.
Anthropic — AI-компания, основанная бывшими сотрудниками OpenAI, фокусирующаяся на безопасности AI и создающая модели Claude.
Интерфейс программирования приложений — набор правил и протоколов для взаимодействия между различными программами и сервисами.
Механизм внимания — фундаментальный компонент современных нейросетей, позволяющий модели динамически фокусироваться на релевантных частях входных данных.
Batch Processing — обработка нескольких запросов или примеров одновременно для более эффективного использования вычислительных ресурсов.
Предвзятость в AI — систематические ошибки или искажения в данных и алгоритмах, которые приводят к несправедливым или дискриминационным результатам.
Большие данные — массивы информации огромного объёма, которые невозможно обработать традиционными методами, но которые служат основой для обучения AI-моделей.
BLEU и ROUGE — классические метрики для оценки качества генерации текста путём сравнения с эталонными ответами.
Chain-of-Thought (CoT) — техника промптинга, побуждающая модель рассуждать пошагово перед выдачей финального ответа.
Chatbot — программа для ведения диалога с пользователем на естественном языке, часто с использованием AI для понимания и генерации ответов.
ChatGPT — разговорный AI-ассистент от OpenAI на базе моделей GPT, способный вести диалог, отвечать на вопросы, писать тексты и код.
Claude — AI-ассистент от компании Anthropic, известный своей безопасностью, большим контекстным окном и способностью к сложным рассуждениям.
CLIP (Contrastive Language-Image Pre-training) — модель OpenAI, связывающая изображения и текст в общем пространстве представлений.
Cohere — enterprise AI-платформа, специализирующаяся на NLP-моделях для бизнеса с фокусом на поиск и генерацию.
Compute — вычислительные ресурсы (GPU, TPU), необходимые для обучения и inference AI-моделей, измеряемые в FLOP.
Компьютерное зрение — область AI, которая обучает машины «видеть» и понимать визуальную информацию: изображения и видео.
Constitutional AI — подход Anthropic к созданию безопасного AI, где модель обучается следовать набору принципов (конституции) через самокритику и ревизию.
Contamination (утечка данных) — проблема попадания тестовых данных в обучающую выборку, что приводит к завышенным результатам на бенчмарках.
Контекстное окно — максимальный объём текста (в токенах), который языковая модель может обработать за один раз, включая входной запрос и генерируемый ответ.
ControlNet — метод точного управления генерацией изображений через дополнительные условия: позы, края, глубину, скетчи.
DALL-E — модель генерации изображений от OpenAI, названная в честь художника Дали и робота WALL-E.
Data Labeling — процесс разметки данных людьми для создания обучающих выборок для supervised learning моделей.
Конфиденциальность данных — защита персональной информации при её сборе, хранении и обработке AI-системами.
Глубокое обучение — подраздел машинного обучения, использующий многослойные нейронные сети для обработки сложных данных и выявления абстрактных паттернов.
Диффузионные модели — класс генеративных моделей, которые учатся создавать данные путём постепенного удаления шума из случайного входа.
Цифровой двойник — виртуальная копия физического объекта, процесса или системы, которая обновляется в реальном времени и используется для моделирования и оптимизации.
Direct Preference Optimization — упрощённая альтернатива RLHF, которая напрямую оптимизирует модель на данных предпочтений без необходимости отдельной reward model.
Edge AI — выполнение AI-алгоритмов непосредственно на конечных устройствах (смартфонах, камерах, датчиках) без отправки данных в облако.
ElevenLabs — платформа для синтеза речи и клонирования голоса с помощью AI, создающая наиболее реалистичное звучание.
Эмбеддинг — представление данных (текста, изображений, аудио) в виде числовых векторов, где семантически близкие объекты располагаются рядом в векторном пространстве.
Emergent Abilities — способности, которые появляются у моделей только при достижении определённого масштаба и отсутствуют у меньших версий.
EU AI Act — первое в мире комплексное регулирование AI, устанавливающее требования к системам искусственного интеллекта в Европейском Союзе.
Объяснимый AI (XAI) — подход к разработке AI-систем, решения которых можно понять и объяснить человеку.
Few-shot Learning — способность модели выполнять новую задачу, увидев лишь несколько примеров в промпте без дополнительного обучения.
Дообучение — процесс адаптации предобученной AI-модели к конкретной задаче или домену путём дополнительного обучения на специализированных данных.
FlashAttention — алгоритм вычисления attention, оптимизированный для GPU, который значительно снижает использование памяти и ускоряет обучение и inference.
Фундаментальная модель — большая AI-модель, предобученная на огромных объёмах данных, которая может быть адаптирована для множества различных задач.
Generative Adversarial Network — архитектура из двух конкурирующих нейросетей: генератора, создающего данные, и дискриминатора, отличающего реальные данные от сгенерированных.
Gemini — мультимодальное семейство AI-моделей от Google DeepMind, объединяющее понимание текста, изображений, аудио и видео.
Генеративный AI — системы искусственного интеллекта, способные создавать новый контент: тексты, изображения, музыку, видео, код.
GGUF (GPT-Generated Unified Format) — формат файлов для хранения квантизированных языковых моделей, оптимизированный для локального запуска через llama.cpp.
GPT (Generative Pre-trained Transformer) — семейство языковых моделей OpenAI, основанных на архитектуре Transformer, ставших стандартом в генеративном AI.
Graphics Processing Unit — специализированный процессор, изначально созданный для графики, но оказавшийся идеальным для обучения нейросетей благодаря способности выполнять тысячи параллельных вычислений.
Grounding — привязка генерации AI к фактическим данным, документам или внешним источникам для повышения точности и уменьшения галлюцинаций.
Guardrails — защитные механизмы, ограничивающие поведение AI-модели и предотвращающие генерацию вредного или нежелательного контента.
Галлюцинация AI — генерация языковой моделью информации, которая выглядит правдоподобно, но является фактически неверной или выдуманной.
HuggingFace — ведущая платформа для машинного обучения, предоставляющая хаб моделей, датасетов и библиотеки transformers, datasets, accelerate.
Гиперавтоматизация — комплексный подход к автоматизации бизнеса, объединяющий AI, машинное обучение, RPA и другие технологии для автоматизации максимального числа процессов.
Image-to-Image (img2img) — генерация нового изображения на основе входного с учётом текстового промпта и степени изменения.
Инференс — процесс получения предсказаний или результатов от обученной AI-модели на новых входных данных.
Inpainting — техника заполнения выделенных областей изображения новым контентом, сгенерированным AI с учётом контекста.
Интернет вещей (IoT) — сеть физических устройств с сенсорами и подключением к интернету, которые собирают и обмениваются данными, часто с использованием AI для анализа.
Jailbreak — техники обхода встроенных ограничений AI-модели для получения запрещённых ответов или нежелательного поведения.
JSON (JavaScript Object Notation) — лёгкий текстовый формат обмена данными, стандарт для API и интеграций AI-сервисов.
Jupyter Notebook — интерактивная среда разработки для анализа данных и машинного обучения, позволяющая комбинировать код, визуализации и текст.
Граф знаний — структура данных, представляющая информацию в виде сети связанных сущностей и отношений между ними, используемая для улучшения AI-систем.
Kubernetes (K8s) — платформа оркестрации контейнеров, ставшая стандартом для развёртывания и масштабирования ML-инфраструктуры.
KV Cache — механизм кэширования ключей (Keys) и значений (Values) в трансформерах для ускорения авторегрессивной генерации.
LangChain — популярный open-source фреймворк для создания приложений на базе LLM, предоставляющий абстракции для chains, agents, RAG и memory.
Латентность — время задержки между отправкой запроса к AI-системе и получением ответа, критичный показатель для пользовательского опыта.
Latent Space — многомерное пространство скрытых представлений, где нейросеть кодирует семантику данных.
Leaderboard — таблица рейтингов AI-моделей по результатам стандартизированных бенчмарков, позволяющая сравнивать их производительность.
LLaMA (Large Language Model Meta AI) — семейство открытых языковых моделей от Meta, ставшее основой для множества производных моделей.
Большая языковая модель (LLM) — нейронная сеть с миллиардами параметров, обученная на огромных текстовых корпусах для понимания и генерации естественного языка.
Low-Rank Adaptation — метод эффективного дообучения больших языковых моделей, который замораживает исходные веса и добавляет небольшие обучаемые матрицы.
Low-code — подход к разработке приложений с минимальным написанием кода, используя визуальные интерфейсы и готовые компоненты.
Машинное обучение — область AI, в которой алгоритмы обучаются на данных, выявляя закономерности и делая предсказания без явного программирования правил.
Machine Translation — автоматический перевод текста с одного языка на другой с помощью AI-моделей.
Midjourney — сервис генерации изображений по текстовому описанию, известный высоким художественным качеством и стилизацией.
Mistral AI — французская компания, создающая высокоэффективные open-source языковые модели, конкурирующие с закрытыми решениями.
MLOps — практики и инструменты для управления жизненным циклом ML-моделей: от разработки до deployment и мониторинга в production.
MMLU (Massive Multitask Language Understanding) — бенчмарк для оценки знаний и способности к рассуждению LLM по 57 предметным областям.
Model Card — стандартизированный документ, описывающий ML-модель: её назначение, производительность, ограничения и этические аспекты.
Model Collapse — деградация качества AI-модели при обучении на данных, сгенерированных другими AI-моделями.
Mixture of Experts — архитектура нейросети, состоящая из множества специализированных подсетей (экспертов) и маршрутизатора, который направляет входные данные к наиболее подходящим экспертам.
Multimodal — способность AI-системы обрабатывать и генерировать данные разных типов: текст, изображения, аудио, видео.
Мультимодальный AI — системы, способные обрабатывать и генерировать данные разных типов: текст, изображения, аудио, видео — одновременно.
Named Entity Recognition (NER) — извлечение из текста именованных сущностей: людей, организаций, мест, дат, сумм и других.
Нейронная сеть — вычислительная система, вдохновлённая структурой мозга, состоящая из связанных узлов (нейронов), обрабатывающих информацию слоями.
Обработка естественного языка (NLP) — область AI, занимающаяся взаимодействием компьютеров с человеческим языком: понимание, генерация, перевод.
No-code — создание приложений и автоматизаций полностью без написания кода, используя визуальные конструкторы и drag-and-drop интерфейсы.
Object Detection — задача компьютерного зрения: найти объекты на изображении и определить их классы и положение.
Оптическое распознавание символов (OCR) — технология AI для преобразования изображений текста (сканов, фото) в редактируемый цифровой текст.
Ollama — инструмент для простого локального запуска больших языковых моделей одной командой, с поддержкой популярных моделей и API, совместимым с OpenAI.
OpenAI — американская AI-компания, создатель ChatGPT, GPT-4, DALL-E и других прорывных AI-систем, лидер индустрии генеративного AI.
Outpainting — расширение границ изображения за пределы оригинала с генерацией нового контента, соответствующего стилю и содержанию.
Parameter-Efficient Fine-Tuning — семейство методов дообучения моделей, которые обновляют лишь малую часть параметров, сохраняя качество полного fine-tuning.
Perplexity — метрика качества языковой модели, показывающая, насколько модель "удивлена" тестовыми данными. Чем ниже perplexity, тем лучше модель.
Perplexity AI — поисковая система на базе AI, которая отвечает на вопросы с указанием источников вместо списка ссылок.
Предобучение — начальный этап обучения AI-модели на огромных объёмах неразмеченных данных для формирования базовых знаний и способностей.
Промпт-инжиниринг — искусство и наука составления эффективных запросов (промптов) к AI-моделям для получения качественных результатов.
Quantized LoRA — усовершенствованная версия LoRA, сочетающая квантизацию модели до 4 бит с адаптацией низкого ранга.
Квантизация — техника сжатия AI-моделей путём уменьшения точности чисел (например, с 32-bit до 4-bit), ускоряющая инференс и снижающая требования к памяти.
Question Answering (QA) — задача автоматического ответа на вопросы на естественном языке на основе текста или базы знаний.
Запрос (Query) — входные данные или команда, отправляемая AI-системе или базе данных для получения информации или выполнения действия.
RAG (Retrieval-Augmented Generation) — архитектура, дополняющая LLM актуальной информацией из внешних источников через поиск перед генерацией ответа.
ReAct (Reasoning + Acting) — паттерн для AI-агентов, чередующий рассуждения о ситуации с выполнением действий на основе этих рассуждений.
Recommendation System — алгоритм, предсказывающий предпочтения пользователя и предлагающий релевантный контент или продукты.
Red Teaming — практика систематического тестирования AI-систем на уязвимости путём симуляции атак злоумышленников.
Обучение с подкреплением — метод машинного обучения, при котором агент учится принимать решения, получая награды или штрафы за свои действия.
Replicate — платформа для запуска open-source AI-моделей через API без необходимости управления инфраструктурой.
Retrieval — поиск и извлечение релевантной информации из базы данных или корпуса документов по запросу.
Reinforcement Learning from Human Feedback — метод обучения AI-моделей на основе человеческих предпочтений, используемый для выравнивания поведения модели с человеческими ценностями.
Return on Investment — показатель окупаемости инвестиций, отношение прибыли к затратам.
RPA (Robotic Process Automation) — технология автоматизации рутинных бизнес-процессов с помощью программных роботов, имитирующих действия человека.
Safetensors — безопасный формат хранения тензоров (весов нейросетей), защищённый от выполнения произвольного кода при загрузке.
Scaling Laws — эмпирические закономерности, связывающие производительность модели с её размером, объёмом данных и compute.
Самовнимание — разновидность attention, где каждый элемент последовательности сравнивается со всеми остальными элементами той же последовательности.
Semantic Segmentation — классификация каждого пикселя изображения по принадлежности к семантическому классу.
Sentiment Analysis — автоматическое определение эмоциональной окраски текста: позитивной, негативной или нейтральной.
Sora — модель генерации видео от OpenAI, способная создавать реалистичные видеоролики до минуты по текстовому описанию.
Speculative Decoding — метод ускорения inference LLM, где маленькая модель генерирует черновые токены, а большая модель верифицирует их параллельно.
Speech-to-Text (STT) — технология автоматического распознавания речи и преобразования её в текст.
Stable Diffusion — открытая модель генерации изображений по текстовому описанию, ставшая основой экосистемы AI-инструментов для творчества.
Summarization — автоматическое создание краткого изложения длинного текста с сохранением ключевой информации.
Синтетические данные — искусственно сгенерированные данные, имитирующие реальные, используемые для обучения AI при недостатке или конфиденциальности реальных данных.
System Prompt — специальная инструкция, задающая поведение, роль и ограничения AI-модели на протяжении всего диалога.
Temperature — параметр, контролирующий случайность в генерации текста: низкая температура даёт предсказуемые ответы, высокая — креативные.
Text Classification — автоматическое присвоение текстам категорий или меток на основе их содержания.
Text-to-Speech (TTS) — технология преобразования текста в естественно звучащую речь с помощью нейронных сетей.
Tokenizer — компонент, преобразующий текст в последовательность токенов (чисел), которые понимает языковая модель.
Tool Use (Function Calling) — способность LLM вызывать внешние инструменты и API для выполнения действий, которые модель не может сделать самостоятельно.
Top-p и Top-k — методы семплирования, ограничивающие выбор следующего токена наиболее вероятными вариантами.
TPU (Tensor Processing Unit) — специализированный AI-ускоритель, разработанный Google для обучения и inference нейронных сетей.
Трансфер обучения — перенос знаний, полученных моделью на одной задаче, для решения другой, родственной задачи, ускоряя обучение и улучшая результаты.
Обучение без учителя — тип машинного обучения, при котором модель находит скрытые паттерны в данных без предварительной разметки.
Upscaling — увеличение разрешения изображения с помощью AI, добавляющего реалистичные детали, которых не было в оригинале.
Апскиллинг — повышение квалификации сотрудников для работы с AI-инструментами и адаптации к автоматизации рабочих процессов.
Variational Autoencoder — генеративная модель, которая учится кодировать данные в компактное латентное пространство и декодировать обратно, используя вероятностный подход.
Векторная база данных — специализированное хранилище для эмбеддингов, оптимизированное для семантического поиска по сходству векторов.
Vision-Language Model — мультимодальная модель, способная обрабатывать и понимать как изображения, так и текст, отвечая на вопросы о визуальном контенте.
vLLM — высокопроизводительная библиотека для inference больших языковых моделей, использующая PagedAttention для эффективного управления памятью GPU.
Голосовой AI — технологии распознавания речи (Speech-to-Text), синтеза речи (Text-to-Speech) и голосовых ассистентов.
Watermarking — технология встраивания скрытых меток в AI-генерированный контент для последующей идентификации его происхождения.
Вебхук — механизм автоматической отправки данных от одного сервиса другому при наступлении определённого события.
Whisper — открытая модель распознавания речи от OpenAI, способная транскрибировать и переводить аудио на 99 языках.
Автоматизация рабочих процессов — использование ПО для автоматического выполнения последовательности задач без ручного вмешательства.
Zapier — популярная no-code платформа автоматизации, соединяющая тысячи приложений без написания кода через простые «если-то» правила.
Zero-shot обучение — способность AI выполнять задачи, на которых модель не обучалась напрямую, используя общие знания и инструкции.
Автоматизация — применение технологий для выполнения задач без участия человека, повышающее эффективность и снижающее количество ошибок.
Использование технологий, включая AI, для автоматизации бизнес-процессов и сокращения ручного труда.
Автономизация — процесс передачи бизнес-функций AI-системам, способным самостоятельно принимать решения, адаптироваться к изменениям и достигать поставленных целей.
Автономный бизнес — бизнес-модель, при которой большинство операционных процессов выполняются AI-системами и агентами с минимальным участием человека.
Алгоритм — чёткая последовательность шагов для решения задачи, основа любой компьютерной программы и AI-системы.
База знаний — структурированное хранилище информации, используемое AI-системами для поиска фактов и контекста при генерации ответов.
Бизнес-процесс — последовательность взаимосвязанных действий для достижения бизнес-цели, часто объект автоматизации с помощью AI и RPA.
Нейросеть с миллиардами параметров, обученная на огромных текстовых данных для понимания и генерации текста.
Генерация AI-моделью правдоподобной, но фактически неверной информации.
Гиперавтоматизация — стратегия комплексной автоматизации бизнеса с использованием AI, ML, RPA и других технологий для максимального охвата процессов.
Подмножество машинного обучения, использующее многослойные нейронные сети для анализа данных.
Интеграция — объединение различных систем и приложений для обмена данными и совместной работы, часто через API.
Область информатики, занимающаяся созданием систем, способных выполнять задачи, требующие человеческого интеллекта.
Подраздел AI, где алгоритмы учатся на данных и улучшают свои результаты без явного программирования.
Модель в ML — обученный алгоритм, который принимает входные данные и выдаёт предсказания или генерирует результат.
Архитектура, где несколько AI-агентов взаимодействуют для решения сложных задач.
Вычислительная система, вдохновлённая биологическими нейронными сетями мозга, состоящая из слоёв искусственных нейронов.
Низкокодовая (low-code) платформа — инструмент разработки, позволяющий создавать приложения с минимальным написанием кода через визуальные интерфейсы.
Облачные вычисления — предоставление вычислительных ресурсов (серверы, хранилища, GPU) через интернет по модели «как услуга».
Оптимизация — процесс улучшения системы, модели или процесса для достижения лучших результатов при заданных ограничениях.
Повторяющийся шаблон или закономерность в данных, которую AI-модели учатся распознавать и использовать для предсказаний.
Персонализация — адаптация контента, продуктов и предложений под конкретного пользователя на основе его данных и поведения с помощью AI.
Предиктивная аналитика — использование исторических данных и ML для прогнозирования будущих событий, трендов и поведения.
Текстовый запрос или инструкция, которую пользователь даёт AI-модели для получения нужного результата.
Сверхразум (ASI) — гипотетический искусственный интеллект, превосходящий человеческий во всех областях: науке, творчестве, социальных навыках.
Семантический поиск — поиск информации по смыслу, а не по ключевым словам, с использованием эмбеддингов и векторных баз данных.
Токен — минимальная единица текста, обрабатываемая языковой моделью; обычно это слово, часть слова или символ.
Трансформер — архитектура нейронной сети с механизмом внимания (attention), ставшая основой современных языковых моделей и генеративного AI.
Трансформация бизнеса — глубокое изменение бизнес-модели, процессов и культуры компании с использованием цифровых технологий и AI.
Умный город (Smart City) — концепция городского развития с использованием IoT, AI и данных для улучшения качества жизни и эффективности управления.
Управление данными (Data Management) — процессы сбора, хранения, обработки и защиты данных, критичные для работы AI-систем.
Фича (признак, feature) — входной параметр или характеристика данных, используемая ML-моделью для обучения и предсказаний.
Фундаментальная модель — большая AI-модель общего назначения, обученная на огромных данных и адаптируемая для множества задач.
AI-хакатон — соревнование разработчиков по созданию AI-решений за ограниченное время, обычно 24-48 часов.
Хранилище данных (Data Warehouse) — централизованная система для хранения и анализа больших объёмов структурированных данных для бизнес-аналитики и AI.
Цифровизация — перевод информации и процессов в цифровой формат, первый этап цифровой трансформации бизнеса.
Цифровой двойник — виртуальная модель физического объекта или процесса, обновляемая в реальном времени и используемая для анализа и оптимизации.
Чат-бот — программа для автоматизации общения с пользователями через текстовые сообщения, часто с использованием NLP и LLM.
HCI (Human-Computer Interaction) — область изучения и проектирования интерфейсов взаимодействия между людьми и AI-системами.
Эпоха AI — текущий исторический период, характеризующийся массовым внедрением искусственного интеллекта во все сферы жизни и экономики.
Этика AI — область, изучающая моральные вопросы разработки и применения AI: справедливость, прозрачность, ответственность, влияние на общество.