↑ Наверх
AI
Marketing Producer · Marprod

AI в продукте
и продюсерских задачах

Виктория Алешкина

Вступление

Привет! Влетаю в последний вагон конкурса с тремя AI-кейсами. И в этом сете, надеюсь, есть старшая карта — видно, что раньше я работала в гембле, да? :)

Один из кейсов — не просто AI для работы, а полноценный продукт для Stockity. Он уже прошел согласование СМО, а теперь направляется к СТО. Это AI-инструмент, который напрямую повлияет на два этапа воронки и нарастит прежде всего retention-метрики.

Два остальных — помощь в работе продюсера.

Как видите, AI я очень люблю и хорошо знаю. Даже этот ленд я навайбкодила :)

Виктория Алешкина
01

Telegram Personalization Bot для Stockity

Кейс 1, как я говорила ранее, является не просто примером использования AI в работе. Это реальный инструмент, разработанный специально для нашего трейдингового продукта, который напрямую повлияет на основные фин. метрики.

В финтехе боты либо в зачатке, либо выполняют одну узкую функцию (чаще всего FAQ или псевдо-сигналы). Полноценного инструмента, который одновременно работает на аквизицию и удержание, по сути нет. Я спроектировала систему, которая закрывает оба этапа воронки и при этом остается управляемой с точки зрения продукта, маркетинга и комплаенса. Сейчас решение уже прошло согласование CMO и переходит на этап оценки CTO.

Что это за система

Это не "бот с ChatGPT внутри", а гибридная архитектура, где диалог и бизнес-логика разделены. С одной стороны LLM, который отвечает за естественный язык. С другой — сценарно-триггерная система, которая контролирует, что именно происходит с пользователем.

Бот работает в Telegram и подключен к продукту через API-прослойку. Он не имеет прямого доступа к данным, только к ограниченному набору параметров (стадия пользователя, активность, eligibility к промо и т.д.). Это принципиально: безопасность и контроль заложены в архитектуру, а не добавляются постфактум.

Роль в продукте

Бот встроен в воронку и закрывает два разных типа задач. Первая — диалоговая. Она работает на новых пользователей. Бот объясняет продукт, помогает разобраться в механике, отвечает на вопросы и, по сути, сокращает путь от регистрации до первого депозита. Это не саппорт в классическом смысле, а слой, который снимает когнитивные барьеры и ускоряет принятие решения.

Вторая — триггерная, персонализационная. Она работает уже на удержание. Через API бот получает поведенческие сигналы и запускает сценарии: реактивацию, коммуникацию по кампаниям, выдачу промокодов. Важно, что это не самообучающаяся автоматика, а управляемая система — логика, частота касаний и сегментация задаются на стороне продукта и маркетинга.

Как устроена логика

Любой пользовательский запрос проходит через фиксированную цепочку обработки. Сначала определяется интент, затем идет проверка на чувствительные темы (финансовые рекомендации, доходность и т.д.). После этого запрос сопоставляется с FAQ и сценариями, и только если он не покрыт ими — подключается LLM. Даже в этом случае ответ проходит дополнительную фильтрацию.

Ключевой принцип: генерация никогда не имеет приоритета над сценарной логикой. Бот не принимает решений за пользователя, не дает инвестиционных советов и не выходит за рамки комплаенса. Это контролируемая система, а не свободный диалог.

Влияние на воронку

Бот встроен в ключевые точки пользовательского пути и работает на метрики по всей воронке. На этапе от регистрации до FTD он ускоряет принятие решения за счет объяснения продукта и снятия сомнений. После первого депозита поддерживает пользователя через релевантную коммуникацию и повышает вероятность повторной активности. В зоне churn-risk запускает управляемые сценарии возврата без расширения массовых касаний. В результате влияние распределяется на FTD, STD и, накопительно, на LTV.

Измеримость

Отдельно заложен аналитический слой, который связывает события бота с событиями продукта. Это позволяет не просто "видеть активность", а измерять реальное влияние на метрики — вклад бота в FTD и повторные депозиты, эффективность отдельных сценариев, поведение сегментов, долю сценарных и LLM-ответов. То есть это не коммуникационный инструмент, а измеряемая часть продуктовой системы.

Техническая база

Архитектура построена как инфраструктура, а не временная механика. В основе разделение на LLM-слой, сценарную логику, API-интеграцию, промо- и аналитический слои. Все критичные вещи — от доступа к данным до активации сценариев — контролируются через middleware. Система поддерживает масштабирование на несколько гео, локализацию и централизованное управление сценариями без релизов. Также заложены ограничения частоты коммуникации, защита от злоупотреблений и возможность отключения отдельных модулей без остановки всей системы.

02

Stream Analytics Bot для igaming-проектапрошлое место работы

Второй кейс с прошлого места работы. Это внутренний инструмент, который появился из операционной необходимости: на проекте не было автоматизированной аналитики по контенту и прямым эфирам, а сами стримы были нерегулярными и выходили с высокой частотой. Отслеживать их вручную было сложно: данные приходилось собирать из разных источников, это занимало время и не давало целостной картины по динамике контента. В результате я собрала Telegram-бот как единый интерфейс для работы с аналитикой стримов и контента.

Что это за система

Это Telegram-бот, написанный на Python (aiogram), который собирает, обновляет и структурирует данные по стримам и контенту. Он развернут на облачном VPS-сервере и работает как отдельный сервис: сам обновляет базу, хранит историю, обрабатывает данные и отдает готовую аналитику в интерфейсе Telegram. По сути, это не просто бот, а легковесная аналитическая система с собственным пайплайном данных. Так как в программировании я не разбираюсь, AI очень помог мне с "вайбкодингом для чайников" и всеми пошаговыми действиями.

Превью бота Главное меню Раздел Стримы Аналитика Эффективность стримов Уведомления

Скролл → для просмотра всех экранов  ·  Клик — увеличить

Как устроена логика

Бот регулярно сканирует платформу, обновляет базу стримов и сохраняет ключевые параметры: просмотры, длительность, онлайн, частоту выходов и другие метрики. Данные агрегируются и превращаются в готовые отчеты: за 24 часа, за 7 и 30 дней, по отдельным эфирам и по каналу в целом. Отдельно реализованы расчет эффективности стримов, динамика канала, топ контента за период. Плюс система уведомлений: бот отслеживает новые эфиры и сообщает о старте с ключевой информацией.

Фрагмент кода для примера — полный исходник готова показать отдельно.

# bot_new.py — фрагмент. Полный код доступен отдельно.

import asyncio
from aiogram import Bot, Dispatcher, F
from aiogram.filters import Command
from aiogram.types import CallbackQuery, Message
from aiogram.utils.keyboard import InlineKeyboardBuilder
from live_monitor import add_live_subscriber, live_monitor
from analytics import render_channel_trend, render_efficiency_report, render_quick_analytics
from db import get_connection, init_db
from kick_parser import scan_kick_streams
from signals import detect_and_store_signals

def main_menu():
    kb = InlineKeyboardBuilder()
    kb.button(text="⚡️ Быстрый обзор",  callback_data="quick")
    kb.button(text="📸 Стримы",          callback_data="streams_menu")
    kb.button(text="📈 Аналитика",       callback_data="analytics_menu")
    kb.button(text="🔔 Уведомления",     callback_data="notifications_menu")
    kb.button(text="⚙️ Обновить базу",   callback_data="force_refresh")
    kb.adjust(1)
    return kb.as_markup()

async def refresh_data() -> int:
    streams = await scan_kick_streams()
    conn = get_connection()
    cur  = conn.cursor()
    added = 0
    for stream in streams:
        existing = cur.execute(
            "SELECT 1 FROM streams WHERE id=? AND video_uuid=?",
            (stream.get("id"), stream.get("video_uuid"))
        ).fetchone()
        if not existing:
            cur.execute(
                "INSERT INTO streams VALUES (?,?,?,?,?,?,?,?,?,?,?,?,?)",
                tuple(stream.values())
            )
            added += 1
    conn.commit()
    detect_and_store_signals()
    return added

async def daily_refresh_loop():
    while True:
        now      = datetime.now(MSK)
        next_run = now.replace(hour=6, minute=0, second=0)
        if now >= next_run:
            next_run += timedelta(days=1)
        await asyncio.sleep((next_run - now).total_seconds())
        added = await refresh_data()
        set_last_refresh(datetime.now(MSK))
Влияние на процесс

Инструмент убрал ручной мониторинг и сократил время на анализ контента. Вместо разрозненных данных появилась единая точка входа, где можно быстро оценить какие эфиры работают, как меняется поведение аудитории, есть ли просадки или аномалии. Это ускорило принятие решений по контенту и снизило зависимость от ручной аналитики.

Применимость

Хотя кейс был завязан на стриминговую платформу и конкретного стримера, его ценность — в подходе. Та же логика может быть применена к YouTube-контенту, к ORM-задачам — отслеживание упоминаний, всплесков активности и изменения тональности. По сути, это универсальный паттерн: собрать разрозненные данные в управляемый интерфейс с быстрым доступом и регулярным обновлением.

03

AI-усиленный рисерч

Третий кейс — текущая практика. Я использую AI как инструмент для усиления рисерча на этапе помощи биздеву при выходе в новые гео, при работе с позиционированием, а также для внутреннего сбора инсайтов для собственной работы. Речь не про ускорение поиска, а про то, чтобы получать более глубокое и структурированное понимание рынка.

Что это за подход

Это не автоматический рисерч и не вопрос чату GPT. Процесс начинается без AI: я сначала собираю входной слой вручную. Смотрю Google Trends, анализирую рекламные библиотеки конкурентов, изучаю SensorTower — какие креативы и сейлс-поинты работают в конкретном гео. Параллельно подтягиваю демографию, экономику региона через общедоступные репорты, там же смотрю поведение пользователей и напрямую отсматриваю конкурентов. Только после этого подключается AI.

Как устроен процесс

Собранный массив данных я параллельно загружаю в несколько моделей — Claude, ChatGPT и Perplexity — с режимами deep research (у GPT просто заготовленный промпт, у прочих — встроенные опции). Каждая модель дает свою интерпретацию одних и тех же данных. Это используется не как дублирование, а как верификация: если выводы сходятся — это сигнал высокой уверенности, если расходятся — точка для дополнительной проверки. Дальше идет ручная работа: я свожу результаты, вычленяю повторяющиеся инсайты, перепроверяю спорные моменты через точечные запросы и доочищаю картину.

Ключевой принцип

AI не заменяет экспертизу, а работает поверх нее. Без входного слоя нейронки дают обобщенные выводы. С входным слоем из реальных данных, рекламных креативов и знания рынка они становятся инструментом для углубления анализа.

Результат

На выходе формируется структурированный аналитический материал: ключевые особенности гео, рабочие креативные подходы, поведенческие паттерны аудитории, конкурентное поле и позиционирование, потенциальные точки роста и риски. Это не набор заметок, а готовая база для принятия решений. Результаты используются при выходе в новые гео, в работе с биздевом, при формировании позиционирования — как база инсайтов для дальнейших маркетинговых и продуктовых решений. Фактически это слой, который связывает рынок, продукт и маркетинг.

На выходе получаем подобные доски, готовые к практическому применению. Скролл →  ·  Клик — увеличить

Marprod Research Конкурентный анализ
Итог

Таким образом у нас есть три кейса: операционные, влияющие на скорость и глубину + практический, собранный специально под наш продукт.

Полный код (а не его куски), технический документ под AI-бот, а также доски из кейса 3 готова показать лично. Для усиления впечатления и больших шансов на победу :)

Сэнкью за внимание!