АЛ
Андрей Л.
Мужчина, 37 лет
Беларусь, Минск, UTC+3
Ставка
3 766,23 Р/час
НДС не облагается
Специалист доступен с 16 октября 2025 г.
Добавьте подходящих специалистов в список и оформите заявку для предварительного бронирования времени специалистов. После оформления заявки ваш персональный менеджер организует прохождение всех необходимых проверок с вами и каждым кандидатом из заявки. Специалист привлекается к проекту только после окончательного подтверждения его выхода с вашей стороны.
Подробнее
О специалисте
Специализация
Data инженер
Грейд
Навыки
Отрасли
Знание языков
Английский — B2
Проекты
(9 лет 1 месяц)
РАЗРАБОТКА АНАЛИТИЧЕСКОЙ ПЛАТФОРМЫ ДЛЯ ХОЛДИНГА КОМПАНИЙ
Роль
Data-инженер
Обязанности
Разработка интерактивных аналитических панелей для визуализации ключевых метрик и показателей бизнеса;
Участие в проектировании и разработке витрин данных;
Внедрение параметров в OLAP-кубы для оптимизации процессов разработки.
Формирование отчетов по качеству данных, выявление проблемных областей и предложение стратегий их исправления;
Взаимодействие с бэкенд-разработчиками для интеграции данных и оптимизации запросов к базе данных;
Разработка и поддержка трансформаций XML-документов с помощью XSLT для интеграции данных из внешних источников;
Документирование PL/pgSQL-процессов и их поддержка в командной разработке и CI/CD пайплайнах;
Анализ и оптимизация сложных SQL-запросов в PL/SQL, включая использование индексов и планов выполнения;
Разработка и поддержка потоков данных в Apache NiFi для автоматизации маршрутизации, трансформации и интеграции данных из различных источников;
Тесное сотрудничество с бизнес-аналитиками и стейкхолдерами для сбора требований, уточнения задач и предоставления аналитических решений, соответствующих бизнес-целям;
Настройка взаимодействия Data Lake и BI-систем для поддержки аналитики и ускоренного принятия бизнес-решений;
Оптимизация производительности запросов путем рефакторинга существующих PL/pgSQL функций в рамках разработки бизнес-логики на Postgres для аналитической отчетности;
Внедрение OpenMetadata как центрального каталога данных для консолидации и управления метаданными по всем источникам;
Настройка и администрирование кластеров Apache Kafka для обеспечения высокой доступности и отказоустойчивости потоковой платформы;
Внедрение мониторинга и логирования REST-запросов для своевременного выявления проблем и анализа производительности;
Ведение и поддержка технической документации в Confluence для обеспечения прозрачности процессов разработки и аналитики данных;
Контроль качества данных посредством тестов dbt и автоматических проверок корректности ключевых бизнес-правил и агрегатов;
Проектирование и оптимизация коллекций MongoDB с учётом паттернов запросов и объёмов данных;
Разработка сложных SQL-запросов для извлечения, трансформации и загрузки данных (ETL) из PostgreSQL, включая агрегацию и подготовку данных для анализа;
Использование Confluence для координации работы между разработчиками, аналитиками и DevOps-командой, поддержка совместного планирования.
Стек специалиста на проекте
PostgreSQL, Apache Kafka, MySQL, Docker, SQL, Python, Power BI, MongoDB, Kubernetes, GitLab, Hadoop, Pandas, Numpy, Matplotlib, Seaborn, Docker Compose, Apache NiFi, DBT, Openmetadata
Отрасль проекта
Insurance
Период работы
Октябрь 2022 - По настоящее время
(3 года 1 месяц)
ФИНАНСОВАЯ ПЛАТФОРМА
Роль
Data-инженер
Обязанности
Использование оконных SQL функций и CTE для более эффективной работы с агрегированными данными;
Создание и поддержка схем агрегации данных в PostgreSQL для оптимизации аналитических вычислений;
Автоматизация запуска BDD-тестов в CI/CD для контроля изменений в обработке данных и аналитических витринах;
Внедрение автоматизированных процессов обнаружения и маскирования чувствительных данных;
Автоматизация наполнения датамартов с использованием Python и SQL-скриптов;
Оптимизация производительности ETL/ELT процессов путем снижения задержки при выгрузке данных;
Проектирование распределённых процессов обработки данных на основе Spark для высокопроизводительной трансформации больших объёмов информации;
Проектирование MVP-архитектуры для быстрого запуска аналитических или продуктовых решений с минимальным набором функций и данных;
Настройка ролевой модели доступа к данным в PostgreSQL и Tableau;
Автоматизация преобразования и очистки структурированных файлов XML и JSON для последующей аналитической обработки;
Использование встроенных функций Tableau для расчета показателей и создания динамических визуализаций;
Автоматизация загрузки и обработки данных в PySpark с помощью параметризированных конфигураций и шаблонов;
Настройка конвейеров загрузки данных в Lakehouse с оптимизацией процессов инкрементальной и полной репликации из различных источников;
Создание каталогов данных, чтобы пользователи могли легко находить нужные им источники;
Разработка и поддержка масштабируемых облачных решений на AWS для обработки, хранения и аналитики больших данных;
Разработка методов оценки качества данных, выявление несоответствий и их исправление;
Поддержка Java-компонентов ETL в рамках CI/CD процессов и командной разработки;
Проектирование и поддержка структур таблиц, индексов и партиционирования в Oracle для эффективного хранения и обработки больших объёмов данных;
Проектирование структуры хранилища S3 для эффективного хранения, обработки и версии данных в рамках проекта;
Поддержка ETL-пайплайнов на Java для извлечения, трансформации и загрузки данных из различных источников;
Разработка рекомендаций по хранению и обработке конфиденциальных данных в аналитических системах.
Стек специалиста на проекте
PostgreSQL, MySQL, Java, SQL, Python, Oracle, Bitbucket, AWS, Redshift, Lambda, Pandas, Numpy, Matplotlib, Seaborn, Apache Spark, Tableau, Redis, S3, PySpark, Steps, RDS, functions, athena
Отрасль проекта
FinTech & Banking
Период работы
Апрель 2019 - Сентябрь 2022
(3 года 6 месяцев)
РАЗРАБОТКА DWH ДЛЯ РИТЕЙЛ-СЕТИ
Роль
Data-инженер
Обязанности
Разработка и поддержка ETL-процессов для извлечения, трансформации и загрузки данных из операционных систем в корпоративное хранилище;
Проектирование структуры таблиц и витрин данных в PostgreSQL для реализации аналитических сценариев и ускорения построения отчетности;
Написание и оптимизация сложных SQL-запросов и процедур для агрегации, очистки и трансформации больших объемов данных;
Оптимизация производительности существующих запросов, индексов и процедур в базе данных для снижения времени отклика и нагрузки на систему;
Управление зависимостями и версионированием библиотек Spark для обеспечения стабильности исполнения пайплайнов;
Настройка и поддержка интеграций с ключевыми источниками данных, включая ERP, CRM и внутренние корпоративные системы;
Разработка ETL процессов на PySpark с акцентом на читаемость, повторное использование и модульность кода;
Интеграция Airflow с базами данных, Kafka и облачными платформами для потоковой и пакетной обработки;
Обеспечение контроля качества данных на всех этапах загрузки в DWH, включая валидацию, дедупликацию и аудит операций;
Управление классификацией данных в соответствии с уровнями чувствительности и корпоративными стандартами безопасности;
Разработка механизмов мониторинга и уведомлений для своевременного выявления сбоев и отклонений в работе ETL-процессов;
Взаимодействие с аналитиками и бизнес-подразделениями для уточнения требований и адаптации модели данных под новые задачи.
Стек специалиста на проекте
PostgreSQL, SQL, Python, GitHub, ClickHouse, Pandas, Numpy, Apache Spark, Microsoft, Apache AirFlow, PySpark, Bash scripting
Отрасль проекта
E-commerce & Retail
Период работы
Октябрь 2016 - Март 2019
(2 года 6 месяцев)
Формат работы
Тип занятости
Фулл-тайм
Формат работы
Удаленно
Командировки
Не готов
Релокация
Не готов
Готов работать на зарубежных проектах
Нет
Образование
Высшее
Учебное заведение
ГГТУ им П.О. Сухого
Специальность
Инженер-энергетик
Завершение учебы
2011 г.