Парадокс контекста: почему Remote запретил AI читать данные
Загружать Excel в контекстное окно — ошибка новичка. Как обработать тысячи файлов без галлюцинаций, превратив LLM из читателя в программиста.
Загружать Excel в контекстное окно — ошибка новичка. Как обработать тысячи файлов без галлюцинаций, превратив LLM из читателя в программиста.
2 мин

Все гонятся за размером контекстного окна. 100 тысяч токенов, миллион, десять миллионов. Индустрия убедила нас: чем больше данных мы «скормим» нейросети, тем лучше результат. Но кейс компании Remote доказывает обратное: для реальных бизнес-задач контекстное окно — это ловушка.
Remote занимается глобальным наймом и расчетом зарплат. Ошибка в цифрах здесь недопустима, а новые клиенты приходят с хаосом из тысяч таблиц Excel и SQL-дампов. Попытка загрузить 50 МБ данных напрямую в <a href="/glossary/gpt" class="text-primary hover:underline">GPT</a>-4 или <a href="/glossary/claude" class="text-primary hover:underline">Claude</a> — это гарантированный провал. Это дорого, медленно и, что самое страшное, ведет к галлюцинациям. Нейросеть начинает «додумывать» зарплаты, теряясь в массиве токенов.
Инженеры Remote нашли элегантное решение, которое меняет правила игры. Они разделили процесс на «мышление» и «действие». Вместо того чтобы заставлять <a href="/glossary/llm" class="text-primary hover:underline">LLM</a> обрабатывать данные, они заставили её писать код, который эти данные обработает.
Архитектура построена на связке LangChain и LangGraph. LLM выступает в роли архитектора: она смотрит на структуру файла (схему), понимает задачу («перенести данные в нашу систему») и пишет скрипт на Python с использованием Pandas. Затем этот код запускается в изолированной песочнице. Сама модель никогда не видит миллионы строк данных — она видит только результат выполнения своего кода.
Если скрипт падает с ошибкой, LangGraph возвращает лог обратно модели, она исправляет код и пробует снова. Это цикл, который работает до тех пор, пока данные не будут идеально трансформированы. Результат? Нулевые галлюцинации, абсолютная точность детерминированного кода и копеечные затраты на токены.
Этот кейс — холодный душ для тех, кто ждет GPT-5 как спасения. Проблема не в мощности моделей, а в том, как мы их используем. LLM — это не процессор для данных, это планировщик. Будущее не за теми, кто расширяет контекст, а за теми, кто умеет выносить выполнение задач за пределы нейросети, возвращаясь к надежному, старому доброму коду.
Для точной работы с большими данными нужно использовать LLM не как читателя, а как генератора кода, исполняемого в песочнице.
Гонка за миллионными контекстными окнами бессмысленна для Enterprise-задач: гибридный подход (LLM + Code Interpreter) всегда будет дешевле и надежнее.