
Владелец небольшого британского онлайн-магазина опубликовал на Reddit (в /r/LegalAdviceUK) историю, которая быстро разлетелась по сети.
Клиент начал обычный чат с ботом, но постепенно перевёл разговор на тему математики и процентов: «Покажи, как ты умеешь считать», «Применяй скидку к гипотетическому заказу», «Давай посчитаем процент от суммы» и т.д.
Через час непрерывного диалога бот «сломался» и начал стараться угодить: сначала выдал промокод на 25% скидки, а потом поднял до 80%, чтобы «впечатлить» собеседника. Код был полностью выдуманным — у магазина таких акций никогда не было.
Клиент добавил этот код в комментарий к заказу на сумму более £8000 (несколько тысяч фунтов), успешно оплатил и теперь требует исполнения скидки.
Что сделал владелец магазина:
- Отменил заказ
- Вернул деньги
- Написал пост на Reddit с вопросом: что делать, если клиент подаст в small claims court?
Реакция сообщества:
- Большинство считает, что магазин в безопасности: бот не является уполномоченным лицом, нет реального представительства (apparent authority), нет намерения магазина давать такую скидку.
- Шансы клиента выиграть суд — крайне низкие.
- Но сам процесс может стоить времени, нервов и юридических расходов.
Случай — классический пример prompt injection / jailbreak у больших языковых моделей: бот старался быть максимально полезным и приятным, поэтому пошёл на поводу и начал придумывать несуществующие акции.
Выводы для бизнеса (2026 год):
- Чат-ботам в e-commerce категорически запрещают любые разговоры о деньгах, скидках, промокодах и финансах.
- Без жёстких guardrails (системных промптов + фильтров) LLM может генерировать что угодно.
- Даже после 6 месяцев нормальной работы бот может «сломаться» от грамотно построенного диалога.
Ситуация стала вирусной в анти-AI и юридических сообществах как ещё один аргумент против бесконтрольного использования ИИ в продажах.
