Михаил Ш. Data инженер, Senior

ID 29663
МШ
Михаил Ш.
Мужчина, 25 лет
Россия, Москва, UTC+3
Ставка
4 110,32 Р/час
вкл. НДС 5% (152.38 Р)
Специалист доступен с 6 октября 2025 г.

Добавьте подходящих специалистов в список и оформите заявку для предварительного бронирования времени специалистов. После оформления заявки ваш персональный менеджер организует прохождение всех необходимых проверок с вами и каждым кандидатом из заявки. Специалист привлекается к проекту только после окончательного подтверждения его выхода с вашей стороны.

Подробнее
О специалисте
Специализация
Data инженер
Грейд
Senior
Навыки
Python
SQL
ClickHouse
PL/pgSQL
Java
Scala
BigQuery
Oracle
PostgreSQL
Apache AirFlow
Apache Kafka
DBT
debezium
Polars
Spark
Data Lake
Docker
Kubernetes
S3
Pandas
Git
Pentaho
Legacy
Log4j
Hadoop
HDFS
Hive
Groovy
flink
Trino
Объектно-ориентированное программирование (ООП)
Big Data
datalake
range
Yarn
Zookeeper
Ansible
Zabbix
MS SQL
arenadata
GreenPlum
XML/XSD
JSON
Bitbucket
atlas
Отрасли
FinTech & Banking
Знание языков
Английский — C1
Главное о специалисте
Data Engineer с более 5 лет годами опыта в коммерческих проектах, специализирующийся на проектировании и оптимизации ETL-процессов, миграции баз данных и построении распределенных хранилищ. Работал над решениями для финансового сектора (банкинг, биржевые системы), создавая отказоустойчивые системы обработки данных с высокой нагрузкой. Разрабатывал продукты, включая аналитические платформы, системы CDC-интеграции и автоматизированные ETL-пайплайны. Специализируется на высокопроизводительных SQL-запросах, архитектуре витрин данных и потоковой обработке (Kafka, Spark), а также на полном цикле миграции БД с Oracle на PostgreSQL с переработкой хранимой логики.
Проекты   (5 лет 5 месяцев)
Система хранения и обработки данных для банковской аналитики
Роль
Data Engineer
Обязанности
Описание: DWH для аналитики банка, отчеты отправлялись в головной офис, после чего принимались банковские стратегические решения. Стадия разработки: масштабирование / поддержка. Участие в проекте: Разработка архитектуры хранения данных в ClickHouse (схемы ods_{source}, buffer, datamart). Реализация ETL-процессов в Apache Airflow с мониторингом инцидентов (алерты в Telegram). Интеграция CDC через Debezium для автоматизации загрузки данных из PostgreSQL, Oracle, MSSQL. Анализ логов веб-сервера (HDFS + Hive), считал количество запросов по каждому IP, cамые популярные URL. Создание тестов Data Quality для проверки полноты данных в Airflow DAG. Оптимизация SQL-запросов в ClickHouse для обработки миллионов строк. Взаимодействие с Kafka и Spark (Scala) для потоковой обработки данных. Нагрузка: DAU — 1M+, RPM — 50K+ Рефакторинг / разработка нового функционала - 30/70. Архитектурные/Фичовые задачи - 80/20. Соотношение работы менеджером/разработчиком - 50/50. Команда: 1 Architect, 1 Team Lead, 4 Engineer, 1 STO
Достижения
Ускорение интеграции новых источников на 40% за счёт CI/CD-практик. Стандартизация сырых данных (ODS) для 15+ источников. Разработка витрин с промежуточной агрегацией через DBT, что сократило время формирования отчётов на 25%.
Стек специалиста на проекте
PostgreSQL, Apache Kafka, Git, Docker, Java, SQL, Python, Oracle, Scala, Kubernetes, Yarn, Hive, Spark, Zookeeper, ClickHouse, BigQuery, Hadoop, Zabbix, Ansible, GreenPlum, Apache AirFlow, S3, HDFS, MS SQL, DBT, range, debezium, plpg, datalake, Объектно-ориентированное программирование (ООП)
Отрасль проекта
FinTech & Banking
Период работы
Июнь 2023 - По настоящее время  (2 года 5 месяцев)
Миграция данных биржевой инфраструктуры для Мосбиржи
Роль
Backend / Full-stack Developer
Обязанности
Описание: Проект по импортозамещению Oracle 18 на PostgreSQL 15 для всех направлений Московской Биржи (фондовый, валютный, срочный рынки). Включал перенос данных, переработку хранимых процедур и создание ETL-инструментов. Стадия разработки: с 0 + рефакторинг. Участие в проекте: Разработка стратегии миграции и архитектуры переноса данных. Переписывание объектов БД: хранимые процедуры (PL/pgSQL), триггеры, материализованные представления. Создание многопоточной ETL-программы на Python (Polars), заменившей Pentaho Data Integration. Обработка данных (Hadoop). Внедрение Apache Airflow для оркестрации миграции и загрузки витрин. Оптимизация сложных SQL-запросов и структуры БД в PostgreSQL 15. Нагрузка: RPS — 5K+, RPM — 200K+. Рефакторинг / разработка нового функционала - 10/90. Архитектурные/Фичовые задачи - 60/40. Соотношение работы менеджером/разработчиком - 10/90. Команда: 1 Data Engineer, 2 Analysts, 1 DevOps.
Достижения
Ускорение ETL-процессов в 3 раза по сравнению с Pentaho. Отказ от view в пользу datamart-схемы с прозрачным контролем загрузки. Реализация DAG-ов в Airflow для управления процессами через веб-интерфейс.
Стек специалиста на проекте
Python, Oracle, Scala, Hadoop, Groovy, GreenPlum, ETL, Legacy, Big Data, Дизайн, Pentaho, PL/pgSQL, Apache AirFlow, Программирование, Polars, flink, PostgreSQL 15, Trino
Отрасль проекта
FinTech & Banking
Период работы
Июнь 2020 - Май 2023  (3 года)
Формат работы
Тип занятости
Фулл-тайм
Формат работы
Удаленно
Командировки
Не готов
Релокация
Не готов
Готов работать на зарубежных проектах
Нет
Образование
Высшее
Учебное заведение
Московский государственный университет геодезии и картографии, Москва
Специальность
Информационная безопасность, Бакалавриат
Завершение учебы
2021 г.

Похожие специалисты

E-commerce & Retail • FinTech & Banking
АМ
Артем М.
Москва
Data инженер
Middle+
5 844,15 Р/час
Basics
Java
Pl/SQL
Python
R
SAS
Scala
SQL
Docker
GitLab CI/CD
+49

Артём — опытный Data-инженер, специализирующийся на разработке платформ данных и интеграции различных источников информации. Обладает навыками работы с такими инструментами, как PostgreSQL, Clickhouse, Kafka, Elasticsearch, Airflow, Spring, а также имеет опыт использования технологий Apache Ignite, Hadoop, Hive, Spark, PySpark. Артём участвовал в нескольких проектах, где проявил себя как специалист по разработке сложных архитектур данных. В одном из проектов он разработал платформу данных с нуля, организовал процесс миграции из различных источников и оптимизировал существующие таблицы Clickhouse. В другом проекте Артём разработал продукт для расчёта активов с весом риска для отдела рисков. Он также реализовал конвейеры данных, создал платформу для модульного тестирования и разработал индивидуальную интеграцию с различными внутренними API.

Подробнее
AI & Robotics • E-commerce & Retail • Logistics & Transport • Telecom
СМ
Сергей М.
Набережные Челны
Data инженер
Senior
4 367,22 Р/час
Adobe Photoshop
Agile
Apache AirFlow
apache hive
Apache NiFi
Big Data
CI/CD
ClickHouse
Confluence
+67

Сергей — Data-инженер уровня Senior из Набережных Челнов. Специализируется на работе с большими данными и имеет опыт в отраслях E-commerce & Retail, AI & Robotics, Logistics & Transport, Telecom. Ключевые навыки: работа с базами данных (PostgreSQL, Oracle, MySQL), ETL/ELT-процессы, Apache Airflow, ClickHouse, Hadoop, Kafka, Scala, Spark, DataLens, Power BI, Confluence, Git, Kubernetes. Имеет опыт работы на следующих проектах: - Проект для крупного ритейла: миграция данных из различных источников, оптимизация процессов обработки данных, использование DBT, Trino, Helm, Groovy-скрипты для доработки компонентов Apache NiFi. - EasyCode: организация DWH-хранилища, автоматизация ETL/ELT-процессов, работа с ClickHouse, PostgreSQL, Google Sheets, визуализация данных в DataLens. - Мега маркет: разработка цифровых решений для e-commerce, миграция данных в ClickHouse и Greenplum, работа с Firebase, MsSQL, Яндекс.Метрика, Google Analytics. - KazanExpress: автоматизация отчётности и визуализация данных, создание дашбордов в DataLens, формирование витрин данных в ClickHouse. - МТС: формирование отчётности по продажам B2C и B2B, работа с MySQL, Oracle BI, Power BI.

Подробнее
E-commerce & Retail • FinTech & Banking • Government & Public Sector
КН
Кирилл Н.
Ростов-на-Дону
Data инженер
Middle+
3 896,1 Р/час
Ansible
Apache AirFlow
Astra Linux
Atlassian
Bash
Bitbucket
Cassandra
Celery
CI/CD
Docker
+66

Кирилл — data-инженер из Ростова-на-Дону. Обладает опытом работы на проектах в сферах FinTech & Banking, Government & Public Sector и E-commerce & Retail. На проекте для компании из сферы FinTech & Banking занимался обработкой больших объёмов информации, анализом данных, разработкой дата-пайплайнов и организацией data quality. Использовал Python, bash, Hadoop, Greenplum, PL/pgSQL, Atlassian, Jupyter, Hue, Hive, Airflow, Superset, Power Bi, PySpark, Pandas, PyArrow. Для государственной компании разрабатывал детальный слой и строил витрины, писал пайплайны по доставке и обработке данных. Использовал Python, Apache Airflow, Git, Posgresql. В качестве python-разработчика для госструктуры создавал скрипты для автоматизации бизнес-процессов и администрирования оборудования, а также писал процедуры для баз данных. В работе использовал Python, Bash, FastAPI, Sqlalchemy, ansible, postman, Git, pgsql, Linux, Docker, Prometheus, Grafana и др. Опыт работы на позиции python-разработчика включал аналитику данных и контроль data quality, разработку скриптов по автоматизации и эксплуатацию измерительной техники. Использовал Python, bash, MySQL, Postgresql, Astra Linux, SecretNet. На последнем месте работы в сфере E-commerce & Retail занимался интеграцией реляционных и нереляционных источников, настройкой мониторинга и алертинга, нормализацией и очисткой данных. Работал со стеком из MongoDB, Postgres, S3, YandexCloud, Greenplum, Python, SQL, Ni-Fi, Airflow, Kafka, k8s, Jenkins, Github, ELK, Grafana, Vault.

Подробнее

Недавно просмотренные специалисты