Рустам Г. Data инженер, Senior

ID 29659
РГ
Рустам Г.
Мужчина, 25 лет
Россия, Москва, UTC+3
Ставка
4 110,32 Р/час
вкл. НДС 5% (152.38 Р)
Специалист доступен с 6 октября 2025 г.

Добавьте подходящих специалистов в список и оформите заявку для предварительного бронирования времени специалистов. После оформления заявки ваш персональный менеджер организует прохождение всех необходимых проверок с вами и каждым кандидатом из заявки. Специалист привлекается к проекту только после окончательного подтверждения его выхода с вашей стороны.

Подробнее
О специалисте
Специализация
Data инженер
Грейд
Senior
Навыки
Python
SQL
MySQL
Oracle
PostgreSQL
ClickHouse
GreenPlum
Big Data
Hadoop
Hive
Spark
Apache AirFlow
debezium
flink
HSQLDB
Kafka
Kafka Streams
alation
Data Catalog
Selenium
Confluence
Jira
tracker
S3
mdb
anchor
Data Vault
modelio
arcadia
CI
CI/CD
Docker
Grafana
Jagger
Zabbix
Elasticsearch
Kibana
monium
DataLens
IDE
collab
DBeaver
Google
IntelliJ IDEA
Jupyter
PyCharm
Visual Studio
VS Code
HDFS
Trino
Beautiful soup
MS SQL
Отрасли
E-commerce & Retail
Logistics & Transport
Telecom
Знание языков
Английский — B1
Главное о специалисте
Data Engineer c 4+ годами коммерческой практики. Участвовал в создании высоконагруженных решений для электронного документооборота органов власти, e-commerce-платформ и картографических сервисов. В портфолио — региональная система ЭДО, реактивный интернет-магазин, сервис генерации геокарт и контент-платформа для авторских публикаций. Работал с микросервисной и реактивной архитектурой, ETL-конвейерами и потоковой обработкой данных. Специализируется на построении отказоустойчивых Java-микросервисов, оптимизации SQL/NoSQL-хранилищ, интеграции с Kafka/Spark и работе с геопространственными данными.
Проекты   (4 года 2 месяца)
Яндекс
Роль
Data Engineer
Обязанности
Описание: Разработка и оптимизация DWH-решений для одного из крупнейших сервисов доставки еды в России. Работа с полным циклом данных — от сырых транзакций до аналитических витрин. Стадия разработки: масштабирование / поддержка. Участие в проекте: Проектирование и поддержка ETL-процессов (Airflow, Hive, Greenplum, Clickhouse, Spark, S3). Повышение эффективности использования выделенных ресурсов хранения и обработки данных (Hadoop). Моделирование данных Hnhm (Anchor + Data Vault). Cоздание инструментов мониторинга/контроля изменений и целевого состояния дашбордов (Datalens). Интеграции с внутренними инструментами (REST/SOAP/gRPC). Настройка CI/CD для аналитических инструментов (Arcadia, Tasklet) и мониторинга (Grafana, Juggler, Monium). Профилирование пайплайнов топ-отчетности (Greenplum, Hive, Clickhouse). Рефакторинг / разработка нового функционала - 40/60. Архитектурные/Фичовые задачи - 50/50. Соотношение работы менеджером/разработчиком - 10/90. Команда: 29 чел. (6 DE, 2 AB, 10 SA, 8 BI, 3 PM).
Достижения
Оптимизировал использование ресурсов хранения (сократилось потребление диска на 11%, чанков на 40%, нод на 13%). Улучшил эффективность использования ядер за счёт настройки параметров ETL, что позволило сэкономить 500 CPU-дней ежедневно. Провёл миграцию аналитических таблиц в обновлённую структуру, сохранив data lineage, благодаря чему удалось точнее распределять ресурсы между командами. Улучшил производительность пайплайна топового отчёта, ускорив его подготовку с t-2 до трех часов.
Стек специалиста на проекте
Docker, Elasticsearch, SQL, Python, Kibana, Grafana, Hive, Spark, ClickHouse, Hadoop, GreenPlum, Kafka, Apache AirFlow, CI/CD, S3, HDFS, DataLens, modelio, flink, Data Catalog, cdc, Trino, tracker, anchor, alation, datatransfer
Отрасль проекта
Logistics & Transport
Период работы
Март 2024 - По настоящее время  (1 год 8 месяцев)
МТС
Роль
Data Engineer
Обязанности
Описание: Разработка и поддержка платформы реал-тайм поставки данных для телеком-оператора. Проект включал построение ETL/ELT-пайплайнов, интеграцию с legacy-системами и обеспечение гарантированной доставки данных для бизнес-аналитики. Стадия разработки: с 0 + рефакторинг. Участие в проекте: Настройка CDC-пайплайнов с использованием Kafka + Debezium для синхронизации данных из OLTP-систем (PostgreSQL, Oracle, MySQL, MSSQL) в DWH. Проектирование и поддержка ETL-процессов (Airflow, Clickhouse, PostgreSQL). Настройка Real-Time поставки данных (Kafka-streams, KSQLDB). Организация мониторинга полноты и качества доставки данных (Grafana, Zabbix). Решение инцидентов и нештатных ситуаций для гарантированной доставки данных. Оптимизация хранения и обработки данных в ClickHouse: рефакторинг неэффективных запросов, разработка новых запросов, мониторинг и обеспечение стабильности кластера Рефакторинг / разработка нового функционала - 30/70. Архитектурные/Фичовые задачи - 50/50. Соотношение работы менеджером/разработчиком - 20/80. Команда: 18 чел. (4 DE, 3 CA, 7 Backend, 3 PM, 1 Architect).
Достижения
Единый реактивный стек позволил обслуживать карты и e-commerce с минимальным потреблением потоков; визуализация карт «на лету» с параметризацией слоёв.
Стек специалиста на проекте
PostgreSQL, MySQL, Docker, Jira, Confluence, Python, Oracle, Grafana, ClickHouse, Zabbix, Kafka, HSQLDB, Apache AirFlow, Kafka Streams, MS SQL, connect, debezium, Kafka 3
Отрасль проекта
Telecom
Период работы
Январь 2023 - Март 2024  (1 год 3 месяца)
НДА
Роль
Data Engineer
Обязанности
Описание: Оптимизация алгоритма ценообразования на основе агрегации данных о розничных продажах (электроника, бытовая техника). Интеграция и обработка данных из 1С, веб-источников и мобильных приложений для аналитики и формирования отчетности. Стадия разработки: рефакторинг / поддержка. Участие в проекте: Написание ETL пайплайнов. Сбор и агрегирование данных из различных источников (PostgreSQL, Airflow). Анализ внешних и внутренних источников данных (1C, CSV, JSON). Скрапинг данных при помощи BeautifulSoap, Selenium, API. Разработка механизмов и алгоритмов автоматического получения, парсинга, проверки, очистки и хранения информации. Проектирование базы данных (структура, индексы, хранимые процедуры) и оптимизация запросов. Разработка системы, добавление нового функционала, оптимизация существующего функционала и корректировка алгоритмов при изменении форматов внешних источников данных Рефакторинг / разработка нового функционала - 80/20. Архитектурные/Фичовые задачи - 20/80. Соотношение работы менеджером/разработчиком - 60/40. Команда: 6 чел. (2 DE, 1 CA, 1 PM, 2 Backend)
Стек специалиста на проекте
PostgreSQL, Docker, Python, Grafana, 1С, Apache AirFlow, Gitlab CI
Отрасль проекта
E-commerce & Retail
Период работы
Сентябрь 2021 - Январь 2023  (1 год 5 месяцев)
Формат работы
Тип занятости
Фулл-тайм
Формат работы
Удаленно
Командировки
Не готов
Релокация
Не готов
Готов работать на зарубежных проектах
Нет
Образование
Высшее
Учебное заведение
Южно-Уральский государственный университет (Национальный исследовательский университет), Челябинск
Специальность
Электроника и наноэлектроника, Бакалавриат
Завершение учебы
2022 г.

Похожие специалисты

Manufacturing • Telecom
ДЧ
Даниил Ч.
Воронеж
Data инженер
Middle+
4 025,97 Р/час
Apache AirFlow
Bitbucket
CI/CD
Confluence
dbs
Docker
Elasticsearch
ETL
GitLab
Grafana
+41

4.5+ лет опыта в роли Data Engineer: проектирование архитектуры, разработка и оптимизация высоконагруженных DWH и ELT/ETL процессов. Опыт с Big Data и потоковой обработкой: реализация пайплайнов на Spark и Flink, обработка десятков ТБ данных в час. Построение DWH с нуля: Wildberries — централизованный DWH для всех бизнес-доменов, включая 50+ интеграций и Clickstream (50+ ТБ/день). Оптимизация производительности: сокращение инцидентов на 90%, ускорение выполнения ETL-процессов в 2 раза, рост доступности данных благодаря внедрению DQ и Data Governance. Работа с распределёнными системами хранения и СУБД: HDFS, Iceberg, Hive, Clickhouse, Greenplum, MongoDB, Oracle, PostgreSQL. Организация интеграций и CDC: внедрение Debezium + Kafka Connect, миграция с Hadoop на Clickhouse (500+ ТБ данных). Опыт менторства и лидерства: наставничество, проведение технических собеседований, обучение команд-заказчиков по работе с ресурсами DWH. Широкий технологический стек: Airflow, Dagster, dbt, Spark, Flink, Kafka, Trino, Kubernetes, Docker, Gitlab CI/CD, OpenMetadata.

Подробнее
E-commerce & Retail • FinTech & Banking • Government & Public Sector
КН
Кирилл Н.
Ростов-на-Дону
Data инженер
Middle+
3 896,1 Р/час
Ansible
Apache AirFlow
Astra Linux
Atlassian
Bash
Bitbucket
Cassandra
Celery
CI/CD
Docker
+66

Кирилл — data-инженер из Ростова-на-Дону. Обладает опытом работы на проектах в сферах FinTech & Banking, Government & Public Sector и E-commerce & Retail. На проекте для компании из сферы FinTech & Banking занимался обработкой больших объёмов информации, анализом данных, разработкой дата-пайплайнов и организацией data quality. Использовал Python, bash, Hadoop, Greenplum, PL/pgSQL, Atlassian, Jupyter, Hue, Hive, Airflow, Superset, Power Bi, PySpark, Pandas, PyArrow. Для государственной компании разрабатывал детальный слой и строил витрины, писал пайплайны по доставке и обработке данных. Использовал Python, Apache Airflow, Git, Posgresql. В качестве python-разработчика для госструктуры создавал скрипты для автоматизации бизнес-процессов и администрирования оборудования, а также писал процедуры для баз данных. В работе использовал Python, Bash, FastAPI, Sqlalchemy, ansible, postman, Git, pgsql, Linux, Docker, Prometheus, Grafana и др. Опыт работы на позиции python-разработчика включал аналитику данных и контроль data quality, разработку скриптов по автоматизации и эксплуатацию измерительной техники. Использовал Python, bash, MySQL, Postgresql, Astra Linux, SecretNet. На последнем месте работы в сфере E-commerce & Retail занимался интеграцией реляционных и нереляционных источников, настройкой мониторинга и алертинга, нормализацией и очисткой данных. Работал со стеком из MongoDB, Postgres, S3, YandexCloud, Greenplum, Python, SQL, Ni-Fi, Airflow, Kafka, k8s, Jenkins, Github, ELK, Grafana, Vault.

Подробнее
AI & Robotics • E-commerce & Retail • Logistics & Transport • Telecom
СМ
Сергей М.
Набережные Челны
Data инженер
Senior
4 367,22 Р/час
Adobe Photoshop
Agile
Apache AirFlow
apache hive
Apache NiFi
Big Data
CI/CD
ClickHouse
Confluence
+67

Сергей — Data-инженер уровня Senior из Набережных Челнов. Специализируется на работе с большими данными и имеет опыт в отраслях E-commerce & Retail, AI & Robotics, Logistics & Transport, Telecom. Ключевые навыки: работа с базами данных (PostgreSQL, Oracle, MySQL), ETL/ELT-процессы, Apache Airflow, ClickHouse, Hadoop, Kafka, Scala, Spark, DataLens, Power BI, Confluence, Git, Kubernetes. Имеет опыт работы на следующих проектах: - Проект для крупного ритейла: миграция данных из различных источников, оптимизация процессов обработки данных, использование DBT, Trino, Helm, Groovy-скрипты для доработки компонентов Apache NiFi. - EasyCode: организация DWH-хранилища, автоматизация ETL/ELT-процессов, работа с ClickHouse, PostgreSQL, Google Sheets, визуализация данных в DataLens. - Мега маркет: разработка цифровых решений для e-commerce, миграция данных в ClickHouse и Greenplum, работа с Firebase, MsSQL, Яндекс.Метрика, Google Analytics. - KazanExpress: автоматизация отчётности и визуализация данных, создание дашбордов в DataLens, формирование витрин данных в ClickHouse. - МТС: формирование отчётности по продажам B2C и B2B, работа с MySQL, Oracle BI, Power BI.

Подробнее

Недавно просмотренные специалисты

Government & Public Sector • RnD
ЛН
Любовь Н.
Ижевск
Консультант Directum RX
Middle+
1 948,05 Р/час
HTML5
Системное администрирование
Техническая поддержка
Обучение персонала
Администрирование сетевого оборудования
Настройка сетевых подключений
Информационные технологии
Администрирование
Администрирование серверов Windows
Настройка серверов
+16

Любовь — опытный специалист в области информационных технологий. Она обладает навыками администрирования серверов Windows, настройки сетевых подключений и работы с сетевым оборудованием. Любовь работала консультантом в учебном центре компании «Директум», где проводила курсы обучения по Directum RX и Hr Pro, разрабатывала новые учебные программы и материалы, а также настраивала и администрировала учебные стенды. За время работы она обучила более 10000 пользователей и 5000 заказчиков. Также Любовь имеет опыт работы системным администратором. В этой роли она обеспечивала работоспособность серверной и сетевой инфраструктуры, устанавливала и настраивала операционные системы и прикладное ПО, обслуживала компьютерную технику, тестировала и внедряла новые технические и программные средства.

Подробнее
FinTech & Banking
МЖ
Михаил Ж.
Москва
Data аналитик
Senior
3 746,75 Р/час
Git
API
Java
Jira
Confluence
SQL
Python
Go
Oracle
Informatica
+30

Михаил — опытный специалист в области Data-аналитики с опытом работы более 2 лет. Он обладает широким спектром навыков, включая работу с API, Big Data, Confluence, ETL, Git, Go, Java, NLP, Oracle PL/SQL, Python, SQL и другими инструментами. Михаил работал над проектами в сфере FinTech & Banking, где он занимался анализом данных, разработкой веб-приложений, оптимизацией запросов и автоматизацией расчётов. В его обязанности входило написание SQL-запросов, работа с Oracle, создание парсеров и моделей для автоматизации процессов. На последнем месте работы Михаил занимал должность главного аналитика, где он отвечал за разработку и поддержку веб-приложения по контролю лимитов по банковским продуктам. Также он проводил собеседования и набор персонала в команду внутри департамента.

Подробнее