Ограничения и подводные камни
Цели урока
После прохождения этого урока вы сможете:
- 1Понять технические ограничения OpenClaw
- 2Оценить стоимость использования (токены, API)
- 3Узнать о проблемах с галлюцинациями и избыточной автономностью
- 4Разобраться в текущем состоянии экосистемы
Ожидания vs Реальность
OpenClaw — мощный инструмент, но он не волшебная палочка. Понимание ограничений поможет вам использовать его эффективно и избежать разочарований.
Зависимость от API и стоимость
Каждый запрос к LLM стоит денег. OpenClaw может генерировать значительное количество токенов для сложных задач — веб-исследование, анализ документов, многошаговые операции. При активном использовании ежемесячные расходы на API могут составить $20-100+.
| LLM | Стоимость (вход/выход за 1M токенов) | Качество | Скорость |
|---|---|---|---|
| Claude Sonnet 4 | $3 / $15 | Отличное | Высокая |
| GPT-4o | $2.5 / $10 | Отличное | Очень высокая |
| DeepSeek v3 | $0.27 / $1.10 | Хорошее | Высокая |
| Ollama (локально) | Бесплатно | Среднее | Зависит от GPU |
| Claude Opus 4 | $15 / $75 | Превосходное | Средняя |
Нет оффлайн-режима для облачных LLM
Хотя OpenClaw работает локально, для обработки запросов ему нужен доступ к LLM через интернет (если вы не используете локальную модель через Ollama). Нет интернета — нет агента.
Галлюцинации
Как и любая LLM, модель, стоящая за OpenClaw, может генерировать ложную информацию с полной уверенностью. Это особенно опасно, когда агент выполняет действия на основе своих «знаний» — например, отправляет email с неверными фактами или создаёт файл с ошибочными данными.
Избыточная автономность
OpenClaw иногда делает больше, чем вы просили. Вместо «найди ресторан» он может попытаться забронировать столик. Вместо «проверь цену» — оформить заказ. Это не баг, а следствие того, что модель пытается быть максимально полезной.
Сводка ограничений
- Стоимость API — активное использование обходится в $20-100+ в месяц
- Нет оффлайна — облачные LLM требуют интернет-соединения
- Галлюцинации — модель может уверенно генерировать ложную информацию
- Контекстное окно — при очень длинных сессиях агент «забывает» начало разговора
- Избыточная автономность — агент может выполнить больше, чем вы просили
- Качество навыков — сторонние навыки не всегда хорошо протестированы
- Нет формального governance — проект управляется сообществом, без чётких SLA
- Производительность Ollama — локальные модели значительно уступают облачным
Начните с бесплатного варианта (Ollama + локальная модель) для экспериментов. Когда поймёте, какие задачи вы хотите автоматизировать, переходите на облачную LLM с оплатой по факту.
