АХ
Артур Х.
Мужчина
Россия, Уфа, UTC+5
Ставка
4 238,77 Р/час
вкл. НДС 5% (157.14 Р)
Специалист доступен с 25 апреля 2025 г.

Добавьте подходящих специалистов в список и оформите заявку для предварительного бронирования времени специалистов. После оформления заявки ваш персональный менеджер организует прохождение всех необходимых проверок с вами и каждым кандидатом из заявки. Специалист привлекается к проекту только после окончательного подтверждения его выхода с вашей стороны.

Подробнее
О специалисте
Специализация
Data инженер
Грейд
Senior
Навыки
Ansible
Apache AirFlow
Apache Superset
CI/CD
ClickHouse
Confluence
DBT
Docker
FastAPI
Git
GitLab
GreenPlum
JDBC
Jira
Kafka
Kubernetes
Linux
PostgreSQL
Python
RabbitMQ
Redis
REST API
S3
SOAP
Superset
TCP/IP
Testing
unit
Программное обеспечение
Разработка
Python3
BI
DWH
SQL
Базы данных
Написание ТЗ
поиск ошибок
Работа с интеграциями
Разработка проектной документации
сбор данных
Управление командой
Оркестрация
Framework
Мониторинг
MVP
брокеры сообщений
Отрасли
E-commerce & Retail
FinTech & Banking
Government & Public Sector
Manufacturing
Знание языков
Английский — A1
Главное о специалисте
Артур — опытный Data инженер с навыками работы в BI, DWH, SQL и Python. Он обладает глубоким пониманием Apache AirFlow, Apache Superset, CI/CD, Clickhouse, Confluence, DBT, Docker, FastAPI, Git, GitLab, GreenPlum, Jira, Kafka, Kubernetes, Linux, PostgreSQL, RabbitMQ, Redis, REST API, S3, SOAP, TCP/IP и unit-тестирования. Артур работал над несколькими проектами, включая создание платформы для принятия бизнес-решений в металлургической компании, разработку сервиса планирования путешествий, доработку Apache Superset для отображения большого количества данных в дашбордах, создание фреймворка типовых интеграций на базе Apache Airflow, разработку бэкендов для платформы изучения английского языка и системы управления качеством данных. Из достижений можно выделить: Сделал более 12 успешных интеграций с источниками Сделал загрузку более 50 сущностей в хранилище с базовыми проверками качества Сделал гибкий масштабируемый веб-сервис предоставления данных из КХД Сделал доработку Apache Superset для отображения большого количества данных
Проекты   (5 лет)
Платформа для принятия бизнес-решений (металлургическая компания)
Роль
Data Engineer
Обязанности
Описание: Создание платформы путем сбора разрозненной информации из 10 источников компании (400 сущностей), создание дашбордов для принятия бизнес-решений Полномочия, обязанности и достижения: Создание интеграций с источниками с помощью Python 3.7-3.13 Создание витрин для дашбордов BI Ревью кода (поиск ошибок в коде, источниках, данных и тд, поиск решения проблем, их исправление) Управление командой разработчиков, постановка ТЗ, контроль выполнения задач Были сделаны интеграции для различных гетерогенных источников по REST API, JDBC, S3 Развитие и поддержке реализованной интеграции (бизнес логики в реализованных SQL процедурах) Поддержка и развитие КХД Выполнение анализа по вопросам, проблемам в интеграции и передаваемым/загружаемым данным, возникающим в ходе ее эксплуатации Опыт сбора данных из различных источников (как внутренних, так и внешних), их фильтрация, очистка, агрегирование Опыт построения ETL/ELT процессов, с использованием Airflow Разработка проектной документации Навыки работы с БД и многопоточными приложениями Работа с GitLab Написание сложных SQL запросов
Стек специалиста на проекте
Управление командой, Работа с интеграциями, GitLab, Программное обеспечение, сбор данных, поиск ошибок, Базы данных, JDBC, DWH, S3, SQL, Apache AirFlow, REST API, Python3, BI, Написание ТЗ, Разработка проектной документации
Отрасль проекта
Manufacturing
Период работы
Август 2022 - По настоящее время  (2 года 9 месяцев)
Сервис планирования путешествий
Роль
Data Engineer
Обязанности
Описание: Разработка интеграций с различными источниками данных DWH с помощью Apache Airflow (интеграция + оркестрация данных) Полномочия, обязанности и достижения: Создание интеграций: Более 12 интеграций, включая интеграцию с ежедневным объемом в 5 миллионов записей. Интеграции для различных источников по REST API, JDBC, FTP и др. Интегрировано более 50 сущностей в хранилище. Проверки качества данных: Базовые проверки качества данных при загрузке в хранилище Набор функций: Разработка типовых функций для получения, обработки и трансформации данных из источника. Набор функций переиспользуется для всех "типовых" интеграций источников. Веб-сервис: Разработка веб-сервиса для получения данных из различных витрин, не требующего дополнительной разработки для добавления новых витрин. SQL запросы: Написание сложных SQL запросов Веб-сервис гибкий, что позволяет без дополнительной разработки добавлять новые витрины данных КХД для предоставления во внешние системы через REST API.
Стек специалиста на проекте
Оркестрация, Работа с интеграциями, Разработка, DWH, Apache AirFlow
Отрасль проекта
E-commerce & Retail
Период работы
Август 2022 - По настоящее время  (2 года 9 месяцев)
Доработка Apache Superset для отображения большого количества данных в дашбордах в проекте по мониторингу окружающей среды департамента природопользования г. Москвы
Роль
Data Engineer
Обязанности
Полномочия, обязанности и достижения: Разработка отчетов и дашбордов, а также доработка разных типов визуализаций Разработал доработку сводной таблицы с возможностью серверной пагинации Написал статью по доработкам Superset
Стек специалиста на проекте
Разработка, Программное обеспечение, Superset
Отрасль проекта
Government & Public Sector
Период работы
Август 2022 - По настоящее время  (2 года 9 месяцев)
Формат работы
Тип занятости
Фулл-тайм
Формат работы
Удаленно
Командировки
Не готов
Релокация
Не готов
Готов работать на зарубежных проектах
Нет
Образование
Высшее
Учебное заведение
УГАТУ, г. Уфа
Специальность
Математика и компьютерные науки
Завершение учебы
2018 г.

Похожие специалисты

E-commerce & Retail • FinTech & Banking • Government & Public Sector
КН
Кирилл Н.
Ростов-на-Дону
Data инженер
Middle+
3 896,1 Р/час
Ansible
Apache AirFlow
Astra Linux
Atlassian
Bash
Bitbucket
Cassandra
Celery
CI/CD
Docker
+66

Кирилл — data-инженер из Ростова-на-Дону. Обладает опытом работы на проектах в сферах FinTech & Banking, Government & Public Sector и E-commerce & Retail. На проекте для компании из сферы FinTech & Banking занимался обработкой больших объёмов информации, анализом данных, разработкой дата-пайплайнов и организацией data quality. Использовал Python, bash, Hadoop, Greenplum, PL/pgSQL, Atlassian, Jupyter, Hue, Hive, Airflow, Superset, Power Bi, PySpark, Pandas, PyArrow. Для государственной компании разрабатывал детальный слой и строил витрины, писал пайплайны по доставке и обработке данных. Использовал Python, Apache Airflow, Git, Posgresql. В качестве python-разработчика для госструктуры создавал скрипты для автоматизации бизнес-процессов и администрирования оборудования, а также писал процедуры для баз данных. В работе использовал Python, Bash, FastAPI, Sqlalchemy, ansible, postman, Git, pgsql, Linux, Docker, Prometheus, Grafana и др. Опыт работы на позиции python-разработчика включал аналитику данных и контроль data quality, разработку скриптов по автоматизации и эксплуатацию измерительной техники. Использовал Python, bash, MySQL, Postgresql, Astra Linux, SecretNet. На последнем месте работы в сфере E-commerce & Retail занимался интеграцией реляционных и нереляционных источников, настройкой мониторинга и алертинга, нормализацией и очисткой данных. Работал со стеком из MongoDB, Postgres, S3, YandexCloud, Greenplum, Python, SQL, Ni-Fi, Airflow, Kafka, k8s, Jenkins, Github, ELK, Grafana, Vault.

Подробнее
FinTech & Banking • Logistics & Transport • Media • Telecom
РД
Роман Д.
Београд
Data инженер
Middle+
3 596,53 Р/час
Python
PostgreSQL
Apache AirFlow
GreenPlum
SQL
Git
Docker
Kafka
Hadoop
Oracle
+41

Роман — опытный Data-инженер уровня Middle+ с опытом работы более 4 года. Он обладает широким спектром навыков в области разработки и аналитики данных, включая знание Python, PostgreSQL, Apache AirFlow, GreenPlum, SQL, Git, Docker, Kafka, Hadoop, Oracle, ETL, DWH, PySpark, Jira, Hive, Clickhouse, Data, MySQL, BI, API, FastAPI, Pl/SQL, MongoDB, Redis, Spark, Apache Spark, Bash, Confluence, GitLab CI/CD, Grafana, HDFS, CI/CD, GitLab, oozie, Scala, Akka, HTTP, REST, Jenkins, Jupyter Notebook. Роман работал над проектами в таких отраслях, как медиа, телекоммуникации, логистика и транспорт, финтех и банкинг. На проектах он занимался созданием и поддержкой ETL-конвейеров, рефакторингом кода, настройкой мониторинга и алертинга, проектированием решений для DWH и разработкой REST API. Опыт Романа включает работу в IT-компании, где он участвовал в создании изолированной среды разработки для аналитиков, а также в телекоммуникационной компании, автомобильном бизнесе и банке. В последнем проекте он разработал витрину данных, которая сэкономила компании порядка 80 млн рублей в квартал.

Подробнее
E-commerce & Retail • EdTech • RnD
АК
Алексей К.
Белград
Data инженер
Senior
4 110,32 Р/час
Python
Hadoop
Apache AirFlow
AWS
AWS RDS
Bash
beams
Big Data
BigQuery
C++
+106

Алексей — опытный Data инженер с более чем шестилетним опытом работы в проектах RnD, E-commerce & Retail и EdTech. В портфолио Алексея есть несколько успешных проектов: Customer360, разработка программного обеспечения для бухгалтерского учёта для одного из крупнейших розничных продавцов товаров для дома, Apache Superset по визуализации данных для целей BI, внутренний проект, направленный на решение проблем повторного развёртывания групп DAG Airflow на учётных записях Kohls и IAS, IAS Python Upgrade, настройка и поддержка кластера Hadoop/Spark, разработка приложений на Hadoop/Spark для научных целей. Алексей участвовал в разработке и поддержке групп DAG Airflow для преобразования данных, включая сшивание данных; разработал и спроектировал Metadag Airflow DAG, которая автоматизирует и повышает уровень понимания процессов в команде C360; выполнил общую миграцию из локальных в облачные сервисы; получил большой опыт в разработке приложений Flask, выполнении миграций БД с использованием SQLAlchemy и Alembic; разработал внутреннюю систему контроля доступа для приложения Superset; разработал пакет Python3 airflow-redeploy, который упрощает процесс повторного развёртывания групп DAG через официальный REST API и плагин REST API.

Подробнее

Недавно просмотренные специалисты

E-commerce & Retail • FinTech & Banking • Government & Public Sector • Manufacturing
АХ
Артур Х.
Уфа
Data инженер
Senior
4 238,77 Р/час
Управление командой
DBT
Apache Superset
Оркестрация
Работа с интеграциями
unit
GitLab
Разработка
Программное обеспечение
брокеры сообщений
+46

Артур — опытный Data инженер с навыками работы в BI, DWH, SQL и Python. Он обладает глубоким пониманием Apache AirFlow, Apache Superset, CI/CD, Clickhouse, Confluence, DBT, Docker, FastAPI, Git, GitLab, GreenPlum, Jira, Kafka, Kubernetes, Linux, PostgreSQL, RabbitMQ, Redis, REST API, S3, SOAP, TCP/IP и unit-тестирования. Артур работал над несколькими проектами, включая создание платформы для принятия бизнес-решений в металлургической компании, разработку сервиса планирования путешествий, доработку Apache Superset для отображения большого количества данных в дашбордах, создание фреймворка типовых интеграций на базе Apache Airflow, разработку бэкендов для платформы изучения английского языка и системы управления качеством данных. Из достижений можно выделить: Сделал более 12 успешных интеграций с источниками Сделал загрузку более 50 сущностей в хранилище с базовыми проверками качества Сделал гибкий масштабируемый веб-сервис предоставления данных из КХД Сделал доработку Apache Superset для отображения большого количества данных

Подробнее