IBM Granite Embedding Multilingual R2: компактные открытые модели для векторного поиска
IBM представила новые мультиязычные модели для создания векторных представлений текста с контекстным окном в 32 тысячи токенов и свободной лицензией Apache 2.0.
IBM представила новые мультиязычные модели для создания векторных представлений текста с контекстным окном в 32 тысячи токенов и свободной лицензией Apache 2.0.
3 мин

Компания IBM опубликовала новое поколение мультиязычных моделей для извлечения признаков и создания векторных представлений текста — Granite Embedding Multilingual R2. Главное достижение этого релиза заключается в том, что младшая модель размером менее 100 миллионов параметров демонстрирует лучшее в своем классе качество поиска. При этом модели поддерживают контекстное окно в 32 тысячи токенов и распространяются под полностью свободной лицензией Apache 2.0.
Это важное событие для разработчиков, так как оно открывает доступ к высококачественным инструментам поиска, которые можно использовать в коммерческих продуктах без лицензионных отчислений и ограничений.
Эмбеддинги (embeddings) — это фундаментальная технология в современном искусственном интеллекте. Они переводят слова, предложения или целые документы в массивы чисел (векторы), сохраняя семантический смысл текста. Именно благодаря эмбеддингам работают системы семантического поиска и архитектура генерации с дополненной выборкой (RAG), когда языковая модель ищет факты в корпоративной базе данных перед тем, как дать ответ.
Исторически для работы с множеством языков и длинными текстами требовались тяжеловесные модели, потребляющие много вычислительных ресурсов (GPU). Альтернативой были платные облачные API, что создавало риски для приватности данных. Разработчики давно нуждались в компактных, открытых и мультиязычных решениях.
В рамках релиза на платформе Hugging Face были представлены несколько версий моделей, среди которых выделяются:
Обе модели поддерживают контекстное окно в 32 000 токенов. Это означает, что за один проход модель может обработать примерно 24 тысячи слов — объем научной статьи, подробного технического отчета или небольшого договора.
Выпуск серии Granite R2 под лицензией Apache 2.0 подчеркивает стратегию IBM по демократизации базовых AI-технологий. Для индустрии это означает снижение порога входа в разработку собственных поисковых и RAG-систем.
Модель размером 97 миллионов параметров настолько компактна, что ее можно без проблем запускать на стандартных центральных процессорах (CPU) или интегрировать непосредственно в конечные устройства пользователей (edge devices). Это радикально снижает затраты на инфраструктуру. При этом большое контекстное окно позволяет отказаться от сложного дробления документов (chunking) на мелкие абзацы, что упрощает архитектуру приложений и сохраняет общий смысл длинных текстов.
В ближайшем будущем мы, вероятно, увидим смещение фокуса от гигантских универсальных моделей к небольшим, узкоспециализированным решениям с высокой эффективностью. Успех компактных моделей IBM Granite может подтолкнуть другие крупные корпорации к публикации своих легковесных архитектур.
Время покажет, насколько быстро сообщество разработчиков адаптирует эти модели в реальных продуктах, но наличие качественного мультиязычного поиска, работающего локально и без привязки к проприетарным облакам, определенно ускорит внедрение AI в корпоративном секторе.
IBM выпустила открытые мультиязычные модели для векторного поиска, которые при малом размере обеспечивают высокое качество и могут обрабатывать большие тексты целиком.
Компактный размер позволяет запускать качественный семантический поиск локально на обычных процессорах, полностью устраняя зависимость от платных облачных API и защищая корпоративные данные.