От небольшого озера до океана данных с ML и LLM
AI & ML
1. Предыстория
- Как все начиналось. От продаж и одного канала связи к многоканальной поддержке с клиентом и аналитике действий
2. Этапы разработки системы работы с данными
- Начальная стадия: работа с небольшой базой данных.
- Определение структуры данных.
- Нормализация и оптимизация хранения.

- Переход к DataLake:
- Сбор и хранение данных.

- Создание DWH (Data Warehouse):
- Объединение данных из различных источников.
- Построение якорной структуры

3. Внедрений ботов
- Разработка интеграций с почтой WhasApp и Telegram
4. Внедрение DL и LLM моделей
- Обучение BERT моделей для высвобождения времени сотрудников
- Внедрение LLM моделей для ответа клиентам в чате
- Внедрение классификации картинок для автоматизации БП
5. Итоги
- Как нам помогли большие данные
- Как это будет развиваться в рамках нашей компании
- И когда большие данные не так необходимы
О СПИКЕРЕ
Работает с MSSQL более 10 лет. Последние 5 работает Data Engineer'ом. Разрабатывает различные интеграции, архитектуру и микросервисы на Python/Scala
MIDDLE
Андрей Вильмов
ПерилаГлавСнаб, Москва
Data engineer