В 1000 раз меньше: архитектура, которая угрожает монополии трансформеров
Пока все гонятся за триллионами параметров, выходцы из MIT создали 'жидкие' нейросети. Они работают на Raspberry Pi, не требуют облака и переписывают законы физики ИИ.

Мы привыкли думать, что интеллект ИИ прямо пропорционален его размеру. Чем больше дата-центр, чем больше видеокарт NVIDIA сожжено, тем умнее модель. Но Liquid AI, новый «единорог» из Кембриджа, утверждает обратное: эра гигантомании подходит к концу.
В основе их технологии лежит концепция Liquid Foundation Models (LFM). Это не просто очередная вариация GPT. Это полный отказ от архитектуры трансформеров, на которой построены все современные чат-боты. Команда под руководством Рамина Хасани вернулась к истокам — к биологии. Изучая, как нейроны животных обрабатывают информацию, они создали алгоритмы, которые не требуют статической памяти, а адаптируются «на лету».
Результат шокирует: модели Liquid AI в 1000 раз меньше аналогов, но сохраняют качество frontier-уровня. Это открывает дверь, которая ранее была заварена наглухо: настоящий ИИ на периферийных устройствах. Не в облаке, а прямо в вашем автомобиле, в кардиостимуляторе или на дроне.



