СШ
Сергей Ш.
Мужчина, 25 лет
Россия, Москва, UTC+3
Ставка
4 415,58 Р/час
НДС не облагается
Специалист доступен с 14 сентября 2025 г.
Добавьте подходящих специалистов в список и оформите заявку для предварительного бронирования времени специалистов. После оформления заявки ваш персональный менеджер организует прохождение всех необходимых проверок с вами и каждым кандидатом из заявки. Специалист привлекается к проекту только после окончательного подтверждения его выхода с вашей стороны.
Подробнее
О специалисте
Специализация
Data инженер
Грейд
Навыки
Отрасли
Главное о специалисте
Сергей — Senior Data инженер из Москвы с опытом работы 5 лет 5 месяцев. Специализируется на разработке и поддержке хранилищ данных, построении ETL-процессов и интеграции новых источников данных. Имеет опыт работы с Apache AirFlow, Apache NiFi, Apache Spark, ClickHouse, Erwin, Grafana, GraphQL, Hadoop, Kafka, Machine learning, Microsoft, MS Excel, MySQL, PostgreSQL, Power BI, Python, REST, SQL, Tableau, Teradata.
Участвовал в проектах в отраслях Blockchain, FinTech & Banking, FoodTech, Manufacturing.
На проекте «Bet Boom» в роли Senior Data Engineer разрабатывал архитектуру и строил хранилище данных (HDFS, PostgreSQL), строил витрины данных, ETL-процессы (Python, PySpark), занимался оркестровкой ETL-процессов (AirFlow, crontab), валидацией и проверкой качества данных, написанием тестов (pytest), настройкой CI/CD-пайплайнов (gitlab).
На проекте «Сбер» в роли Data Engineer занимался построением ETL-пайплайнов, написанием тестов, проектированием и построением витрин данных, выводом моделей в продакшн, написанием http-сервисов, валидацией и проверкой качества данных, интеграцией новых источников, скрам-мастерингом.
Также работал на проектах Mars и Goodt, где занимался построением ETL-процессов, проектированием и построением витрин данных, интеграцией новых источников, рефакторингом существующих решений, валидацией и проверкой качества данных.
Проекты
(5 лет 6 месяцев)
“Bet Boom”
Роль
Senior Data Engineer
Обязанности
О проекте (описание):
Разработка DWH для DS-команды, которая занималась построением моделей по оптимизации маркетинговых трат
Команда:
10 человек
Обязанности:
● Разработка архитектуры и построение хранилища данных (HDFS, PostgreSQL)
● Построение витрин данных
● Построение ETL-процессов (Python, PySpark)
● Оркестрация ETL-процессов (AirFlow, crontab)
● Валидация и проверка качества данных
● Написание тестов (pytest)
● Настройка CI/CD-пайплайнов (gitlab)
● Взаимодействие с командами-заказчиками
● Менторство младших коллег
Достижения
Поднято DWH с нуля
Стек специалиста на проекте
PostgreSQL, Python, Grafana, Pytest, GitLab, ClickHouse, Hadoop, ETL, Kafka, DWH, Crontab, Apache AirFlow, HDFS, Superset, PySpark, Разработка, Программное обеспечение, Оркестрация, Validation
Отрасль проекта
Blockchain
Период работы
Июнь 2024 - Август 2025
(1 год 3 месяца)
“Сбер”
Роль
Data Engineer
Обязанности
О проекте:
Sber Ads (рекламная платформа)
Performance Analytics — Умный Календарь, Аналитика для топов Сбера
Команда мониторинга эффективности рекомендательных систем для масс перса
Команда:
14 человек (го-разработчики 3 шт, аналитики 3 шт , DE 2 шт, DS 4 шт, PO 2 шт + совмещал с обязанностями скрам-мастера в команде )
Обязанности:
● Построение ETL-пайплайнов (pyspark, Airflow, HDFS, s3)
● Написание тестов (pytest)
● Проектирование и построение витрин данных
● Вывод моделей в продакшн (ML flow)
● Написание http-сервисов
● Валидация и проверка качества данных
● Интеграция новых источников
● Scrum-мастеринг (2 команды, в общей сложности 14 человек)
Достижения
- Интеграция с командой Amaze Me (перенос расчёта витрин и моделей в их инфру)
- Скрам-мастеринг (это больше про софты и сплочение команды)
Стек специалиста на проекте
Validation, Omaze, Grafana, Работа с интеграциями, Базы данных, ClickHouse, Data, Linux, Pytest, Hadoop, Superset, Проектирование, Talend, Kafka, Flow.js, S3, Fintech, HDFS, SSIS, MLflow, Perfomance, Мониторинг, PySpark, Docker, GreenPlum, Аналитика, Apache AirFlow, banking, Machine learning, streaming, Ni-fi, PostgreSQL
Отрасль проекта
FinTech & Banking
Период работы
Март 2022 - Июнь 2024
(2 года 4 месяца)
Mars
Роль
Data Engineer
Обязанности
О проекте:
Core-команда DWH
Команда:
10 DE
Обязанности:
● Построение ETL-процессов (spark + Data Factory)
● Проектирование и построение витрин данных
● Валидация и проверка качества данных
● Интеграция новых источников в существующие решения
● Взаимодействие с заказчиками
Достижения
- Перевод витрины со сложным и долгим расчетом метрик на инкрементальную загрузку (с 9 часов время сократилось до 3)
- Миграция из Azure-инфры в Яндекс.Облако
Стек специалиста на проекте
SQL, Grafana, Spark, Hadoop, Data Factory, Talend, Kafka, DWH, Microsoft, Apache AirFlow, Проектирование, Yandex Cloud, SSIS, Superset, Работа с интеграциями, MS SQL, Validation, Ni-fi
Отрасль проекта
FoodTech
Период работы
Июль 2021 - Март 2022
(9 месяцев)
Формат работы
Тип занятости
Фулл-тайм
Формат работы
Удаленно
Командировки
Не готов
Релокация
Не готов
Готов работать на зарубежных проектах
Нет
Образование
Высшее
Учебное заведение
Национальный исследовательский университет "Высшая школа экономики", Москва
Специальность
Факультет Бизнеса и Менеджмента, Бизнес-информатика
Завершение учебы
2022 г.