МУ
Максим У.
Мужчина, 32 года
Россия, Казань, UTC+3
Ставка
3 012,98 Р/час
НДС не облагается
Специалист доступен с 16 августа 2025 г.
Добавьте подходящих специалистов в список и оформите заявку для предварительного бронирования времени специалистов. После оформления заявки ваш персональный менеджер организует прохождение всех необходимых проверок с вами и каждым кандидатом из заявки. Специалист привлекается к проекту только после окончательного подтверждения его выхода с вашей стороны.
Подробнее
О специалисте
Специализация
Data инженер
Грейд
Навыки
Отрасли
Знание языков
Английский — C1
Главное о специалисте
Data Engineer с более чем 7 годами опыта в разработке ETL-процессов, аналитических витрин и интеграций данных. Специализируется на автоматизации пайплайнов данных с использованием Apache Airflow, Apache NiFi, dbt и других инструментов. Имеет опыт работы с MPP-базами (Greenplum, Snowflake, Teradata), большими данными (Hadoop, Kafka) и BI-инструментами (Datalens, Power BI, Looker). Разрабатывал решения для классификации контента с использованием ML-моделей (CatBoost) и LLM, а также интеграции с 1С, Salesforce и Zendesk. Руководил командами, оптимизировал процессы миграции данных и обеспечивал контроль качества данных. Обладает навыками построения дашбордов, оптимизации производительности баз данных и разработки методологий валидации данных.
Проекты
(7 лет 4 месяца)
Миграция ETL-процессов и разработка аналитических решений для интеграции инструментов Дзен Платформы в контур ВК
Роль
Аналитик-разработчик данных
Обязанности
- Осуществил миграцию ETL-процессов из Nirvana в Airflow для интеграции инструментов Дзен Платформы.
- Разработал и реализовал методику расчета затрат на разметку крауд-платформ против разметки с помощью LLM.
- Разработал промпты для определения категории видео, постов и рекламы на основе текста, изображения, аудио и раскадровки.
- Доработал узкие места ETL-процессов, влияющих на результаты разметки.
- Обучил несколько ML-моделей на CatBoost для классификации контента по категориям.
- Собрал дашборды в Datalens для анализа качества, скорости и стоимости разметки.
Достижения
- Успешно мигрировал ETL-процессы, обеспечив интеграцию в контур ВК.
- Улучшил качество разметки контента на 15% за счет ML-моделей.
- Сократил затраты на разметку на 20% благодаря методологии сравнения крауд-платформ и LLM.
Стек специалиста на проекте
Hadoop, Apache AirFlow, CatBoost, DataLens, hitman, llm, ytsaurus
Отрасль проекта
LifeStyle
Период работы
Октябрь 2024 - Август 2025
(11 месяцев)
Разработка фичей для витрин данных корпоративного блока и доработка бэкенда продукта "Мост Данных" для интеграции данных в DWH
Роль
Аналитик-разработчик данных
Обязанности
- Разработка фичей для расчета клиентских метрик в витринах данных.
- Разработка интеграций с внешними источниками для обогащения витрин.
- Разработка инструментов для автоматизации миграции данных: сбор метаинформации, удаление мусора, создание объектов по подобию, создание тестовых слоев данных, оптимизация объектов.
- Написание временного шедулера для запуска SQL-скриптов взамен Airflow.
- Разработка методологии валидации клиентских атрибутов для улучшения конверсии.
- Доработка бэкенда приложения "Мост Данных" для интеграции данных из API, веб-сайтов, облачных хранилищ и 1С.
- Написание интеграции с Apache NiFi для базовых ETL-процессов.
- Написание интеграции с 1С для миграции данных в PostgreSQL: получение списка объектов, атрибутов и слияние данных.
Достижения
- Ускорил миграцию данных на 30% за счет автоматизации.
- Улучшил конверсию на 10% благодаря методологии валидации атрибутов.
- Обеспечил интеграцию данных из 1С в PostgreSQL с точностью 100%.
Стек специалиста на проекте
PostgreSQL, Kubernetes, Hadoop, GreenPlum, 1С, Apache AirFlow, Apache NiFi, Superset
Отрасль проекта
FinTech & Banking
Период работы
Август 2022 - Октябрь 2024
(2 года 3 месяца)
Разработка аналитических витрин и систем контроля качества данных для бизнес-пользователей
Роль
Data Engineer
Обязанности
- Руководство командой из двух дата-инженеров.
- Разработка аналитических витрин по заказу бизнес-пользователей.
- Построение системы контроля качества данных с оповещением в BI об ошибках.
- Проектирование специфических операторов для Airflow (Salesforce, Zendesk, ActivityRecords).
- Переписка моделей источников в Looker для самостоятельного создания дашбордов пользователями.
- Выполнение технических работ для масштабируемости баз данных, отказоустойчивости ETL и ускорения работы аналитиков.
Достижения
- Сократил время создания дашбордов на 25% за счет переписки моделей в Looker.
- Повысил отказоустойчивость ETL-процессов на 20%.
- Внедрил систему контроля качества данных, снизив ошибки на 15%.
Стек специалиста на проекте
Zendesk, Apache AirFlow, Salesforce, Snowflake, Looper, DBT
Отрасль проекта
LifeStyle
Период работы
Ноябрь 2021 - Декабрь 2022
(1 год 2 месяца)
Формат работы
Тип занятости
Фулл-тайм
Формат работы
Удаленно
Командировки
Не готов
Релокация
Не готов
Готов работать на зарубежных проектах
Нет
Образование
Высшее
Учебное заведение
Национальный исследовательский университет "Высшая школа экономики"
Специальность
татистический анализ в экономике (Магистр)
Завершение учебы
2018 г.