Частина серії: AI-адміністратор для бізнесу послуг: що це, як працює і коли варто
Як AI-бот розуміє що хоче клієнт — без ключових слів і скриптів
Пояснюємо як LLM-бот розпізнає наміри клієнта, які типи запитів зустрічаються у leisure і як перевірити якість розпізнавання у своєму боті.
Гайди
Як AI-бот розуміє що хоче клієнт — без ключових слів і скриптів
Клієнт пише: «А якщо нас буде п'ятеро, але двоє дітей, то як по ціні?»
Шаблонний бот шукає слово «ціна» і видає прайс-лист. Клієнт читає цифри, не розуміє відповіді на своє конкретне питання і закриває чат. Запис не відбувся.
AI-бот розбирає цей же запит, розуміє що питання стосується групового бронювання зі змішаним складом, знаходить у базі знань умови на дитячий квиток, і відповідає: «Для п'яти осіб, де двоє дітей до 12 років, вийде 3 × 350 ₴ + 2 × 200 ₴ = 1450 ₴ за сеанс. Хочете обрати час?»
Ось у чому різниця між розпізнаванням ключових слів і розпізнаванням намірів.
Від ключових слів до розуміння намірів — в чому різниця
Шаблонний бот-конструктор (SendPulse, ChatFuel, ManyChat) працює за принципом умов: якщо в тексті є слово X — виконай дію Y. Це швидко налаштовується і добре виглядає в демо. Але клієнти не говорять ключовими словами.
Реальні запити виглядають так:
- «Привіт, хочемо до вас наступної неділі» — ні слова «бронювання»
- «А у вас є знижки для постійних?» — питання про лояльність, але може виглядати як скарга на ціну
- «Ми вже були у вас торік, пам'ятаєте?» — запит зв'язати з попереднім візитом
Flow-based бот або не відповідає на це взагалі (fallback «не розумію»), або видає стандартну відповідь яка не відповідає контексту. Клієнт відчуває що говорить із машиною і або пише у Viber, або дзвонить.
AI-бот не шукає ключові слова. Він читає повідомлення цілком, враховує контекст попередніх фраз у розмові і розуміє що саме хоче клієнт — навіть якщо формулювання нестандартне.
Це і є intent recognition: розпізнавання наміру, а не збіг тексту.
Як LLM обробляє повідомлення клієнта
Без зайвого жаргону, ось що відбувається під капотом.
Коли клієнт надсилає повідомлення, модель (наприклад, gpt-4o-mini) отримує на вхід три речі одночасно:
Системний промпт — твої інструкції боту: хто він, як відповідає, що може і не може робити, яким тоном спілкується. Приблизно 2000 токенів.
Витяжка з бази знань — релевантні шматки твого прайсу, умов, FAQ. Система RAG (retrieval-augmented generation) знаходить потрібні фрагменти по семантичній схожості — не по ключових словах. Приблизно 1000-2000 токенів.
Контекст розмови — всі попередні повідомлення цього клієнта в поточній розмові. На початку — 50-100 токенів. До кінця довгої розмови — 500-800 токенів.
Модель зчитує все це разом і генерує відповідь. Аналогія: уявіть досвідченого адміністратора, якому перед кожною відповіддю хтось шепоче на вухо весь контекст розмови, актуальний прайс і ваші правила роботи. Він не згадує слова клієнта — він розуміє що той хоче.
Засновник Leadmlyn. Будую AI-менеджерів для leisure-бізнесу в Україні.