Андрей Л. Data инженер, Senior

ID 32405
АЛ
Андрей Л.
Мужчина, 37 лет
Беларусь, Минск, UTC+3
Ставка
3 766,23 Р/час
НДС не облагается
Специалист доступен с 16 октября 2025 г.

Добавьте подходящих специалистов в список и оформите заявку для предварительного бронирования времени специалистов. После оформления заявки ваш персональный менеджер организует прохождение всех необходимых проверок с вами и каждым кандидатом из заявки. Специалист привлекается к проекту только после окончательного подтверждения его выхода с вашей стороны.

Подробнее
О специалисте
Специализация
Data инженер
Грейд
Senior
Навыки
Apache AirFlow
Apache Kafka
Apache NiFi
Apache Spark
athena
AWS
BI
Bitbucket
ClickHouse
Confluence
Data Science
DBT
DevOps
Docker
Docker Compose
functions
Git
GitHub
GitLab
Hadoop
Java
Kubernetes
Lambda
Matplotlib
MongoDB
MySQL
Numpy
Openmetadata
Oracle
Pandas
Plotly
PostgreSQL
Power BI
PySpark
Python
RDS
Redis
Redshift
S3
Seaborn
SQL
Steps
Tableau
Отрасли
E-commerce & Retail
FinTech & Banking
Insurance
Знание языков
Английский — B2
Проекты   (9 лет 1 месяц)
РАЗРАБОТКА АНАЛИТИЧЕСКОЙ ПЛАТФОРМЫ ДЛЯ ХОЛДИНГА КОМПАНИЙ
Роль
Data-инженер
Обязанности
Разработка интерактивных аналитических панелей для визуализации ключевых метрик и показателей бизнеса; Участие в проектировании и разработке витрин данных; Внедрение параметров в OLAP-кубы для оптимизации процессов разработки. Формирование отчетов по качеству данных, выявление проблемных областей и предложение стратегий их исправления; Взаимодействие с бэкенд-разработчиками для интеграции данных и оптимизации запросов к базе данных; Разработка и поддержка трансформаций XML-документов с помощью XSLT для интеграции данных из внешних источников; Документирование PL/pgSQL-процессов и их поддержка в командной разработке и CI/CD пайплайнах; Анализ и оптимизация сложных SQL-запросов в PL/SQL, включая использование индексов и планов выполнения; Разработка и поддержка потоков данных в Apache NiFi для автоматизации маршрутизации, трансформации и интеграции данных из различных источников; Тесное сотрудничество с бизнес-аналитиками и стейкхолдерами для сбора требований, уточнения задач и предоставления аналитических решений, соответствующих бизнес-целям; Настройка взаимодействия Data Lake и BI-систем для поддержки аналитики и ускоренного принятия бизнес-решений; Оптимизация производительности запросов путем рефакторинга существующих PL/pgSQL функций в рамках разработки бизнес-логики на Postgres для аналитической отчетности; Внедрение OpenMetadata как центрального каталога данных для консолидации и управления метаданными по всем источникам; Настройка и администрирование кластеров Apache Kafka для обеспечения высокой доступности и отказоустойчивости потоковой платформы; Внедрение мониторинга и логирования REST-запросов для своевременного выявления проблем и анализа производительности; Ведение и поддержка технической документации в Confluence для обеспечения прозрачности процессов разработки и аналитики данных; Контроль качества данных посредством тестов dbt и автоматических проверок корректности ключевых бизнес-правил и агрегатов; Проектирование и оптимизация коллекций MongoDB с учётом паттернов запросов и объёмов данных; Разработка сложных SQL-запросов для извлечения, трансформации и загрузки данных (ETL) из PostgreSQL, включая агрегацию и подготовку данных для анализа; Использование Confluence для координации работы между разработчиками, аналитиками и DevOps-командой, поддержка совместного планирования.
Стек специалиста на проекте
PostgreSQL, Apache Kafka, MySQL, Docker, SQL, Python, Power BI, MongoDB, Kubernetes, GitLab, Hadoop, Pandas, Numpy, Matplotlib, Seaborn, Docker Compose, Apache NiFi, DBT, Openmetadata
Отрасль проекта
Insurance
Период работы
Октябрь 2022 - По настоящее время  (3 года 1 месяц)
ФИНАНСОВАЯ ПЛАТФОРМА
Роль
Data-инженер
Обязанности
Использование оконных SQL функций и CTE для более эффективной работы с агрегированными данными; Создание и поддержка схем агрегации данных в PostgreSQL для оптимизации аналитических вычислений; Автоматизация запуска BDD-тестов в CI/CD для контроля изменений в обработке данных и аналитических витринах; Внедрение автоматизированных процессов обнаружения и маскирования чувствительных данных; Автоматизация наполнения датамартов с использованием Python и SQL-скриптов; Оптимизация производительности ETL/ELT процессов путем снижения задержки при выгрузке данных; Проектирование распределённых процессов обработки данных на основе Spark для высокопроизводительной трансформации больших объёмов информации; Проектирование MVP-архитектуры для быстрого запуска аналитических или продуктовых решений с минимальным набором функций и данных; Настройка ролевой модели доступа к данным в PostgreSQL и Tableau; Автоматизация преобразования и очистки структурированных файлов XML и JSON для последующей аналитической обработки; Использование встроенных функций Tableau для расчета показателей и создания динамических визуализаций; Автоматизация загрузки и обработки данных в PySpark с помощью параметризированных конфигураций и шаблонов; Настройка конвейеров загрузки данных в Lakehouse с оптимизацией процессов инкрементальной и полной репликации из различных источников; Создание каталогов данных, чтобы пользователи могли легко находить нужные им источники; Разработка и поддержка масштабируемых облачных решений на AWS для обработки, хранения и аналитики больших данных; Разработка методов оценки качества данных, выявление несоответствий и их исправление; Поддержка Java-компонентов ETL в рамках CI/CD процессов и командной разработки; Проектирование и поддержка структур таблиц, индексов и партиционирования в Oracle для эффективного хранения и обработки больших объёмов данных; Проектирование структуры хранилища S3 для эффективного хранения, обработки и версии данных в рамках проекта; Поддержка ETL-пайплайнов на Java для извлечения, трансформации и загрузки данных из различных источников; Разработка рекомендаций по хранению и обработке конфиденциальных данных в аналитических системах.
Стек специалиста на проекте
PostgreSQL, MySQL, Java, SQL, Python, Oracle, Bitbucket, AWS, Redshift, Lambda, Pandas, Numpy, Matplotlib, Seaborn, Apache Spark, Tableau, Redis, S3, PySpark, Steps, RDS, functions, athena
Отрасль проекта
FinTech & Banking
Период работы
Апрель 2019 - Сентябрь 2022  (3 года 6 месяцев)
РАЗРАБОТКА DWH ДЛЯ РИТЕЙЛ-СЕТИ
Роль
Data-инженер
Обязанности
Разработка и поддержка ETL-процессов для извлечения, трансформации и загрузки данных из операционных систем в корпоративное хранилище; Проектирование структуры таблиц и витрин данных в PostgreSQL для реализации аналитических сценариев и ускорения построения отчетности; Написание и оптимизация сложных SQL-запросов и процедур для агрегации, очистки и трансформации больших объемов данных; Оптимизация производительности существующих запросов, индексов и процедур в базе данных для снижения времени отклика и нагрузки на систему; Управление зависимостями и версионированием библиотек Spark для обеспечения стабильности исполнения пайплайнов; Настройка и поддержка интеграций с ключевыми источниками данных, включая ERP, CRM и внутренние корпоративные системы; Разработка ETL процессов на PySpark с акцентом на читаемость, повторное использование и модульность кода; Интеграция Airflow с базами данных, Kafka и облачными платформами для потоковой и пакетной обработки; Обеспечение контроля качества данных на всех этапах загрузки в DWH, включая валидацию, дедупликацию и аудит операций; Управление классификацией данных в соответствии с уровнями чувствительности и корпоративными стандартами безопасности; Разработка механизмов мониторинга и уведомлений для своевременного выявления сбоев и отклонений в работе ETL-процессов; Взаимодействие с аналитиками и бизнес-подразделениями для уточнения требований и адаптации модели данных под новые задачи.
Стек специалиста на проекте
PostgreSQL, SQL, Python, GitHub, ClickHouse, Pandas, Numpy, Apache Spark, Microsoft, Apache AirFlow, PySpark, Bash scripting
Отрасль проекта
E-commerce & Retail
Период работы
Октябрь 2016 - Март 2019  (2 года 6 месяцев)
Формат работы
Тип занятости
Фулл-тайм
Формат работы
Удаленно
Командировки
Не готов
Релокация
Не готов
Готов работать на зарубежных проектах
Нет
Образование
Высшее
Учебное заведение
ГГТУ им П.О. Сухого
Специальность
Инженер-энергетик
Завершение учебы
2011 г.

Похожие специалисты

E-commerce & Retail
ГВ
Герман В.
Минск
Data инженер
Middle+
3 545,15 Р/час
Alembic
Apache
Apache AirFlow
Apache Spark
athena
Avro
AWS
AWS glue
Bash scripting
Bitbucket
+55

Data-инженер с опытом работы в отрасли электронной коммерции и ритейла более 3 лет. Участвовал в проекте по внедрению платформы снабжения и планирования для крупного производственного предприятия. Выполнял обязанности по управлению командой дата-инженеров, обсуждал архитектуру системы, подключался к источникам данных, оптимизировал SQL-запросы, создавал конвейеры Airflow, работал с Pandas, разрабатывал хранимые процедуры, настраивал соединения Kafka, проектировал витрины данных и HDFS. Работал над созданием простого в интеграции приложения для персонализированной бизнес-аналитики на базе искусственного интеллекта. Занимался разработкой конечных точек Flask, нормализацией данных, контролем операций хранилища данных, разработкой моделей DBT, использовал Pandas, NumPy и SciPy, разрабатывал функции с помощью AWS Lambda. Принимал участие в разработке платформы для сбора и обработки больших объёмов данных из различных источников. Администрировал базы данных, разрабатывал и оптимизировал сложные SQL-запросы, использовал Apache Spark, обрабатывал крупномасштабные наборы данных с помощью AWS EMR, выполнял статистические вычисления с помощью SciPy.

Подробнее
E-commerce & Retail • FinTech & Banking
КЯ
Кирилл Я.
Минск
Data инженер
Middle+
3 545,15 Р/час
aks
Apache AirFlow
Apache Kafka
Apache NiFi
Apache Spark
Apache Superset
AWS
Azure
Azure SQL
Bitbucket
+50

Data Engineer с опытом работы на проектах в сфере E-commerce & Retail и FinTech & Banking. На проектах занимался разработкой аналитических платформ, DWH и систем аналитики. Обязанности: - разработка ETL-пайплайнов в Apache Airflow и Apache NiFi; - обработка больших объёмов данных с использованием PySpark, Pandas, NumPy; - оптимизация интеграции Hadoop (HDFS); - агрегация данных в ClickHouse для BI-отчётов; - визуализация данных в Power BI и Superset; - мониторинг и оптимизация производительности запросов в Snowflake; - интеграция PostgreSQL и MS SQL; - использование Docker и Kubernetes для контейнеризации ETL-компонентов; - создание детальных технических проектных документов; - сотрудничество с командой аналитиков; - проведение тестирования системы; - настройка CI/CD-конвейеров с помощью GitLab CI/CD.

Подробнее
E-commerce & Retail • FinTech & Banking • Government & Public Sector
КН
Кирилл Н.
Ростов-на-Дону
Data инженер
Middle+
3 896,1 Р/час
Ansible
Apache AirFlow
Astra Linux
Atlassian
Bash
Bitbucket
Cassandra
Celery
CI/CD
Docker
+66

Кирилл — data-инженер из Ростова-на-Дону. Обладает опытом работы на проектах в сферах FinTech & Banking, Government & Public Sector и E-commerce & Retail. На проекте для компании из сферы FinTech & Banking занимался обработкой больших объёмов информации, анализом данных, разработкой дата-пайплайнов и организацией data quality. Использовал Python, bash, Hadoop, Greenplum, PL/pgSQL, Atlassian, Jupyter, Hue, Hive, Airflow, Superset, Power Bi, PySpark, Pandas, PyArrow. Для государственной компании разрабатывал детальный слой и строил витрины, писал пайплайны по доставке и обработке данных. Использовал Python, Apache Airflow, Git, Posgresql. В качестве python-разработчика для госструктуры создавал скрипты для автоматизации бизнес-процессов и администрирования оборудования, а также писал процедуры для баз данных. В работе использовал Python, Bash, FastAPI, Sqlalchemy, ansible, postman, Git, pgsql, Linux, Docker, Prometheus, Grafana и др. Опыт работы на позиции python-разработчика включал аналитику данных и контроль data quality, разработку скриптов по автоматизации и эксплуатацию измерительной техники. Использовал Python, bash, MySQL, Postgresql, Astra Linux, SecretNet. На последнем месте работы в сфере E-commerce & Retail занимался интеграцией реляционных и нереляционных источников, настройкой мониторинга и алертинга, нормализацией и очисткой данных. Работал со стеком из MongoDB, Postgres, S3, YandexCloud, Greenplum, Python, SQL, Ni-Fi, Airflow, Kafka, k8s, Jenkins, Github, ELK, Grafana, Vault.

Подробнее
E-commerce & Retail • IoT • Telecom
АБ
Андрей Б.
Минск
Data инженер
Senior
4 155,84 Р/час
DevOps
DWH
ETL ELT
Pl/SQL
Python
SQL
Моделирование
облачные сервисы
Оптимизация запросов
Разработка
+55

Андрей — Data инженер уровня Senior из Минска, Беларусь. Специализируется на разработке и оптимизации аналитических платформ и хранилищ данных (DWH). Имеет опыт работы с ETL/ELT-процессами, облачными сервисами AWS, инструментами Apache Airflow, Apache Kafka, Apache Spark, а также с базами данных PostgreSQL, MySQL, Oracle и Snowflake. Участвовал в проектах для отраслей E-commerce & Retail, IoT и Telecom. Среди проектов — разработка аналитической платформы для розничной сети, интеграция данных из CRM, ERP и POS-систем, автоматизация обновления данных и улучшение доступа к аналитике через BI-панели. Также занимался разработкой DWH для IT-компании, преобразованием сырых данных из Data Lake и их интеграцией в DWH для решения ML-задач. Обладает навыками работы с системами контроля версий Git, GitLab, Bitbucket, а также опытом настройки CI/CD-конвейеров. Создавал техническую документацию и сотрудничал с командами аналитиков для согласования решений по обработке данных.

Подробнее
E-commerce & Retail • FinTech & Banking
ВВ
Владлена В.
Минск
Data инженер
Middle+
3 545,15 Р/час
Alembic
Apache AirFlow
athena
AWS
AWS glue
Bash
BI
BigQuery
Bitbucket
ClickHouse
+44

Владлена — data-инженер уровня middle+ из Минска (Беларусь). Обладает опытом работы с различными инструментами и технологиями, включая Alembic, Apache AirFlow, AWS, Docker, ETL, FastAPI, GitHub Actions, GitLab CI/CD, Python, SQLAlchemy и другие. Владлена участвовала в нескольких проектах в сферах FinTech & Banking и E-commerce & Retail: - Обрабатывала и трансформировала большие данные из разных источников в хранилище. - Разрабатывала и оптимизировала ETL-пайплайны на Apache Airflow, Python и SQL. - Интегрировала данные из различных источников в централизованное хранилище. - Оптимизировала SQL-запросы в Snowflake, PostgreSQL и других базах данных. - Настраивала механизмы ретраев, SLA и уведомлений в Airflow. - Автоматизировала процессы очистки, нормализации, дедупликации и агрегации данных.

Подробнее

Недавно просмотренные специалисты