В 1000 раз меньше: архитектура, которая угрожает монополии трансформеров
Пока все гонятся за триллионами параметров, выходцы из MIT создали 'жидкие' нейросети. Они работают на Raspberry Pi, не требуют облака и переписывают законы физики ИИ.
Пока все гонятся за триллионами параметров, выходцы из MIT создали 'жидкие' нейросети. Они работают на Raspberry Pi, не требуют облака и переписывают законы физики ИИ.
2 мин

Мы привыкли думать, что интеллект ИИ прямо пропорционален его размеру. Чем больше дата-центр, чем больше видеокарт NVIDIA сожжено, тем умнее модель. Но Liquid AI, новый «единорог» из Кембриджа, утверждает обратное: эра гигантомании подходит к концу.
В основе их технологии лежит концепция Liquid Foundation Models (LFM). Это не просто очередная вариация GPT. Это полный отказ от архитектуры трансформеров, на которой построены все современные чат-боты. Команда под руководством Рамина Хасани вернулась к истокам — к биологии. Изучая, как нейроны животных обрабатывают информацию, они создали алгоритмы, которые не требуют статической памяти, а адаптируются «на лету».
Результат шокирует: модели Liquid AI в 1000 раз меньше аналогов, но сохраняют качество frontier-уровня. Это открывает дверь, которая ранее была заварена наглухо: настоящий ИИ на периферийных устройствах. Не в облаке, а прямо в вашем автомобиле, в кардиостимуляторе или на дроне.
Почему это критично? Представьте автопилот. Если ваша машина полагается на облачный сервер, то потеря связи в тоннеле — это потенциальная авария. LFM принимают решения за микросекунды непосредственно на бортовом чипе. Это вопрос не удобства, а физической безопасности.
Хасани не отрицает роль больших LLM — они останутся для научных открытий и поиска новых законов физики. Но для реального мира, где важна скорость, приватность и энергоэффективность, трансформеры слишком неповоротливы. Будущее ИИ — это не только суперкомпьютер в ангаре, но и сверхэффективный мозг в вашем кармане.
Индустрия переходит от наращивания мощностей к радикальной оптимизации: новые 'жидкие' модели доказывают, что эффективность важнее размера.
Главный барьер для внедрения ИИ в физический мир — не интеллект, а латентность и зависимость от облака, которую трансформеры решить не могут.