Роман Д. Data инженер, Middle+

ID 16739
РД
Роман Д.
  (1)
Мужчина, 40 лет
Сербия, Београд, UTC+1
Ставка
3 596,53 Р/час
вкл. НДС 5% (133.33 Р)
Специалист доступен с 6 июля 2025 г.

Добавьте подходящих специалистов в список и оформите заявку для предварительного бронирования времени специалистов. После оформления заявки ваш персональный менеджер организует прохождение всех необходимых проверок с вами и каждым кандидатом из заявки. Специалист привлекается к проекту только после окончательного подтверждения его выхода с вашей стороны.

Подробнее
О специалисте
Специализация
Data инженер
Грейд
Middle+
Навыки
Python
PostgreSQL
Apache AirFlow
GreenPlum
SQL
Git
Docker
Kafka
Hadoop
Oracle
ETL
DWH
PySpark
Jira
Hive
ClickHouse
Data
MySQL
BI
API
Разработка
FastAPI
Pl/SQL
MongoDB
Redis
Spark
Apache Spark
Bash
Confluence
GitLab CI/CD
Grafana
HDFS
CI/CD
GitLab
oozie
Scala
Akka
HTTP
REST
Jenkins
JupyterNoteBook
Отрасли
FinTech & Banking
Logistics & Transport
Media
Telecom
Знание языков
Английский — B2
Главное о специалисте
Роман — опытный Data-инженер уровня Middle+ с опытом работы более 4 года. Он обладает широким спектром навыков в области разработки и аналитики данных, включая знание Python, PostgreSQL, Apache AirFlow, GreenPlum, SQL, Git, Docker, Kafka, Hadoop, Oracle, ETL, DWH, PySpark, Jira, Hive, Clickhouse, Data, MySQL, BI, API, FastAPI, Pl/SQL, MongoDB, Redis, Spark, Apache Spark, Bash, Confluence, GitLab CI/CD, Grafana, HDFS, CI/CD, GitLab, oozie, Scala, Akka, HTTP, REST, Jenkins, Jupyter Notebook. Роман работал над проектами в таких отраслях, как медиа, телекоммуникации, логистика и транспорт, финтех и банкинг. На проектах он занимался созданием и поддержкой ETL-конвейеров, рефакторингом кода, настройкой мониторинга и алертинга, проектированием решений для DWH и разработкой REST API. Опыт Романа включает работу в IT-компании, где он участвовал в создании изолированной среды разработки для аналитиков, а также в телекоммуникационной компании, автомобильном бизнесе и банке. В последнем проекте он разработал витрину данных, которая сэкономила компании порядка 80 млн рублей в квартал.
Проекты   (5 лет 1 месяц)
IT company
Роль
Data Engineer
Обязанности
- Создание и поддержка ETL-pipelines, контроль качества доставки данных; - Рефакторинг и оптимизация legaсy-кода; - Реализован проект по переезду с legacy решения на Kafka Engine; - Реализован проект, по запуску изолированной среды разработки для аналитиков(а-ля sanbox) - Разрабатывал систему для работы с данными: хранилища, инструменты и сервисы - Собирал данные из различных источников, включаю различные базы данных и API
Стек специалиста на проекте
Jira, Confluence, SQL, Python, Bash, Linux, Grafana, Hive, ClickHouse, Hadoop, Shell, Apache Spark, Apache AirFlow, HDFS, GitLab CI/CD
Отрасль проекта
Media
Период работы
Июнь 2023 - По настоящее время  (2 года 2 месяца)
Телекоммуникации, связь
Роль
Data Engineer - Старший разработчик
Обязанности
- Создание и поддержка ETL-pipelines, настройка мониторинга и алертинга, контроль качества доставки данных; - Рефакторинг и оптимизация legaсy-кода; - Описание витрин данных, их источников, ведение сопутствующей документации; - Разработка через тестирование(test-driven development, TDD); - Реализован проект, который автоматизирует запуск типовых ETL-pipelines(запуск без кода), а именно, необходимо заполнить поля в web-интерфейсе и нажать кнопку "Старт".
Стек специалиста на проекте
Jira, Confluence, SQL, Python, Bash, Linux, Scala, Grafana, GitLab, Hive, Hadoop, Shell, Apache Spark, CI/CD, HDFS, unittest.mock, pytes, oozie
Отрасль проекта
Telecom
Период работы
Март 2022 - Июнь 2023  (1 год 4 месяца)
Автомобильный бизнес
Роль
Data Engineer
Обязанности
- Создание стриминговых ETL-pipelines, рассчитанных на высокую нагрузку (ок 30000 событий в минуту); - Проектирований решений, выбор технологий, используемых в DWH; - Реализация REST API приложений для оптимальной передачи данных следующим сервисам (микросервисная архитектура); - Полностью реализовано Kafka приложение, реализующее обработку, хранение и передачу stateful-состояний 30000 объектов в режиме реального времени; - Создание конвейера, построенного по lamda-архитектуре(Kafka + ClickHouse).
Стек специалиста на проекте
Grafana, GitLab, sql alchemy, Shell, HTTP, ClickHouse, Hive, REST, Linux, Scala, Redis, Hadoop, ETL, Kafka, Apache Spark, Akka, PySpark, SQL, Python, Apache AirFlow, Yandex Object Storage
Отрасль проекта
Logistics & Transport
Период работы
Май 2021 - Март 2022  (11 месяцев)
Формат работы
Тип занятости
Фулл-тайм
Формат работы
Удаленно
Командировки
Не готов
Релокация
Не готов
Готов работать на зарубежных проектах
Да
Образование
Высшее
Учебное заведение
Уральский федеральный университет имени первого Президента России Б.Н. Ельцина, Екатеринбург
Специальность
Радиотехнический, Средства связи с подвижными объектами
Завершение учебы
2007 г.
Отзывы   1
5
5
Клиент предпочел скрыть свои данные
С поставленными задачами справился в установленные сроки. В процессе решения задач придерживался стандартов разработки и проявлял инициативу (успешно проводил переговоры с бизнесом и внешними службами). Со своей стороны, могу посоветовать использовать данного сотрудника для сотрудничества.
Отзыв опубликован 14.01.2025

Похожие специалисты

E-commerce & Retail • FinTech & Banking • Government & Public Sector
КН
Кирилл Н.
Ростов-на-Дону
Data инженер
Middle+
3 896,1 Р/час
Ansible
Apache AirFlow
Astra Linux
Atlassian
Bash
Bitbucket
Cassandra
Celery
CI/CD
Docker
+66

Кирилл — data-инженер из Ростова-на-Дону. Обладает опытом работы на проектах в сферах FinTech & Banking, Government & Public Sector и E-commerce & Retail. На проекте для компании из сферы FinTech & Banking занимался обработкой больших объёмов информации, анализом данных, разработкой дата-пайплайнов и организацией data quality. Использовал Python, bash, Hadoop, Greenplum, PL/pgSQL, Atlassian, Jupyter, Hue, Hive, Airflow, Superset, Power Bi, PySpark, Pandas, PyArrow. Для государственной компании разрабатывал детальный слой и строил витрины, писал пайплайны по доставке и обработке данных. Использовал Python, Apache Airflow, Git, Posgresql. В качестве python-разработчика для госструктуры создавал скрипты для автоматизации бизнес-процессов и администрирования оборудования, а также писал процедуры для баз данных. В работе использовал Python, Bash, FastAPI, Sqlalchemy, ansible, postman, Git, pgsql, Linux, Docker, Prometheus, Grafana и др. Опыт работы на позиции python-разработчика включал аналитику данных и контроль data quality, разработку скриптов по автоматизации и эксплуатацию измерительной техники. Использовал Python, bash, MySQL, Postgresql, Astra Linux, SecretNet. На последнем месте работы в сфере E-commerce & Retail занимался интеграцией реляционных и нереляционных источников, настройкой мониторинга и алертинга, нормализацией и очисткой данных. Работал со стеком из MongoDB, Postgres, S3, YandexCloud, Greenplum, Python, SQL, Ni-Fi, Airflow, Kafka, k8s, Jenkins, Github, ELK, Grafana, Vault.

Подробнее
E-commerce & Retail • FinTech & Banking
АМ
Артем М.
Москва
Data инженер
Middle+
5 844,15 Р/час
Basics
Java
Pl/SQL
Python
R
SAS
Scala
SQL
Docker
GitLab CI/CD
+49

Артём — опытный Data-инженер, специализирующийся на разработке платформ данных и интеграции различных источников информации. Обладает навыками работы с такими инструментами, как PostgreSQL, Clickhouse, Kafka, Elasticsearch, Airflow, Spring, а также имеет опыт использования технологий Apache Ignite, Hadoop, Hive, Spark, PySpark. Артём участвовал в нескольких проектах, где проявил себя как специалист по разработке сложных архитектур данных. В одном из проектов он разработал платформу данных с нуля, организовал процесс миграции из различных источников и оптимизировал существующие таблицы Clickhouse. В другом проекте Артём разработал продукт для расчёта активов с весом риска для отдела рисков. Он также реализовал конвейеры данных, создал платформу для модульного тестирования и разработал индивидуальную интеграцию с различными внутренними API.

Подробнее

Недавно просмотренные специалисты

Отрасли не указаны
АД
Андрей Д.
Санкт-Петербург
Продуктовый аналитик
Middle+
2 055,16 Р/час
API
SQL
Python
Redash
ETL
Математическая статистика
API сервисы
API Интерфейсы
Внимательность к деталям
YANDEX DATALENS
+11

Аналитик данных с 4х летним опытом работы. Умею находить в данных ответы на вопросы бизнеса. В работе стремлюсь к оптимизации процессов и лаконичным понятным выводам. Регулярно изучаю новые методы и инструменты. Разделяю data-driven подход и не боюсь новых вызовов. Умею выделять ключевые метрики продукта, декомпозировать их на составляющие и находить способы улучшения. Быстро вникаю в контекст продукта. Умею генерировать качественные продуктовые гипотезы. Понимаю, как сделать продукт удобным и незаменимым для пользователя. Люблю решать нестандартные и сложные задачи. Полностью посвящаю себя работе. Hard-skills: - SQL (PostgreSQL, SQLite): оконные функции, CTE, сложные запросы, джойны - Python: библиотеки для анализа данных - pandas, numpy;.для парсинга - beautiful soup, requests, json; работа с API - Визуализация в Redash, Datalens, Superset - Выстраивание ETL пайплайнов - Уверенное знание математической статистики - A/B тестирование - Опыт проведения продуктовых исследований (генерация и проверка гипотез) Soft-skills: - Легко нахожу общий язык с коллегами, умею адекватно воспринимать критику и перенимать опыт у окружающих. - Умею донести результаты анализа простым языком, письменно и устно. - Умею слушать собеседника и задавать вопросы. - Умею работать без постоянного контроля, самостоятельно и инициативно. - Умею рассчитывать время выполнения задач. - Не стесняюсь говорить о блокерах и трудностях при решении задач. - Люблю учиться, легко осваиваю новые технологии.

Подробнее