Владлена В. Data инженер, Senior

ID 26903
ВВ
Владлена В.
Женщина, 25 лет
Беларусь, Минск, UTC+3
Ставка
4 155,84 Р/час
НДС не облагается
Специалист доступен с 2 октября 2025 г.

Добавьте подходящих специалистов в список и оформите заявку для предварительного бронирования времени специалистов. После оформления заявки ваш персональный менеджер организует прохождение всех необходимых проверок с вами и каждым кандидатом из заявки. Специалист привлекается к проекту только после окончательного подтверждения его выхода с вашей стороны.

Подробнее
О специалисте
Специализация
Data инженер
Грейд
Senior
Навыки
Alembic
Apache AirFlow
athena
AWS
AWS glue
Bash
BI
BigQuery
Bitbucket
ClickHouse
CloudWatch
DevOps
Docker
Docker Compose
EC2
ETL
FastAPI
GCP
GitHub
GitHub Actions
GitLab
GitLab CI/CD
glue
Lambda
Matplotlib
MySQL
Numpy
Pandas
PostgreSQL
Power BI
Pydantic
Pytest
Python
RDS
S3
Snowflake
SQLAlchemy
tools
MS SQL
Отрасли
Cloud Services
E-commerce & Retail
FinTech & Banking
Знание языков
Английский — B1
Главное о специалисте
Специалист с более чем 5-летним опытом в области Data Engineering. Обладает глубокими знаниями в разработке, оптимизации и поддержке ETL/ELT-процессов, а также в обработке и анализе больших данных. Уверенно владеет Python, SQL и современными технологиями обработки данных, включая Apache Airflow, Snowflake, GCP и AWS. Имеет успешный опыт построения масштабируемых аналитических и интеграционных платформ в сферах финтеха, e-commerce и real-time мониторинга. Отличается высоким уровнем технической экспертизы, вниманием к деталям и умением обеспечивать надежную и производительную архитектуру данных в условиях высокой нагрузки.
Проекты   (5 лет 1 месяц)
Проект был направлен на обработку и трансформацию больших данных из различных источников в хранилище
Роль
Data Engineer
Обязанности
Проект был направлен на обработку и трансформацию больших данных из различных источников в хранилище, с приведением их в состояние, готовое для дальнейшего аналитического использования. В рамках проекта обеспечивалась быстрая и бесперебойная доставка данных, включающая этапы предварительной обработки и очистки. Платформа обработки больших данных позволила оптимизировать процесс и гарантировала высокую производительность даже при работе с масштабными объемами информации. ● Разработка ETL-пайплайнов на Apache Airflow, Python и SQL для обработки данных. ● Интеграция данных из различных источников (CSV, XLS, API) в централизованное хранилище. ● Оптимизация ETL-процессов для минимизации времени выполнения, снижения нагрузки на инфраструктуру и повышения отказоустойчивости ● Настройка механизма ретраев, SLA и уведомлений в Airflow для обеспечения надежности выполнения ETL-процессов ● Автоматизация процессов очистки, нормализации, дедупликации и агрегации данных с использованием Python и Pandas ● Разработка и оптимизация сложных SQL-запросов в Snowflake с использованием CTE, Window Functions и Materialized Views для ускорения аналитики ● Мониторинг производительности ETL-процессов, настройка алертов и логирования ● Оптимизация SQL-запросов и индексации в Snowflake и BigQuery для сокращения времени обработки запросов ● Использование Docker для контейнеризации ETL-компонентов. ● Разработка unit- и integration-тестов для ETL-пайплайнов с использованием Pytest ● Настройка CI/CD-процессов для автоматического деплоя и тестирования ETL-компонентов ● Разработка стратегий бэкапа и восстановления данных в хранилищах GCP и Snowflake ● Создание технической документации в Confluence, включая описание архитектуры, схемы потоков данных и руководства по эксплуатации ● Наставничество и консультирование команды по вопросам оптимизации ETL-процессов, написания SQL-запросов и работы с хранилищами данных
Стек специалиста на проекте
Docker, SQL, Python, Bash, GitLab, BigQuery, Pandas, Numpy, Docker Compose, Apache AirFlow, GCP, Snowflake, GitLab CI/CD
Отрасль проекта
Cloud Services
Период работы
Сентябрь 2023 - Июнь 2025  (1 год 10 месяцев)
Платформа управления кредитными продуктами
Роль
Data Engineer
Обязанности
Платформа управления кредитными продуктами предназначена для обработки и хранения данных о финансовых операциях, интеграции с внешними сервисами и предоставления аналитической информации. Система обеспечивает масштабируемость, надежность и высокую скорость обработки данных, что позволяет автоматизировать ключевые процессы, связанные с управлением кредитными продуктами и их анализом. ● Разработка и оптимизация ETL-пайплайнов с использованием Apache Airflow для интеграции данных из внешних API в платформу управления кредитными продуктами ● Создание кастомных операторов и сенсоров в Apache Airflow для автоматизации загрузки и обработки данных, а также мониторинга выполнения задач ● Разработка SQL-запросов для оптимизации производительности и сокращения времени выполнения запросов в ClickHouse ● Настройка доступа к данным в промежуточном слое с помощью AWS Glue (Data Catalog, crawlers) и AWS Athena ● Разработка и внедрение стратегии резервного копирования и восстановления данных в PostgreSQL и ClickHouse ● Анализ и оптимизация SQL-запросов в PostgreSQL для улучшения производительности работы с данными и сокращения времени отклика ● Разработка и поддержка пайплайнов для мониторинга ключевых метрик с использованием AWS CloudWatch ● Создание и настройка AWS Lambda для автоматизации обработки и трансформации данных в режиме реального времени ● Оптимизация работы с AWS RDS и PostgreSQL для повышения скорости чтения и записи данных в базе данных ● Мониторинг и устранение причин дефектов, связанных с данными ● Сотрудничество с командой аналитиков данных.
Стек специалиста на проекте
PostgreSQL, Docker, Python, Bash, DBeaver, GitHub Actions, AWS, GitHub, ClickHouse, Lambda, Tableau, Docker Compose, Apache AirFlow, EC2, S3, CloudWatch, RDS, glue, athena
Отрасль проекта
FinTech & Banking
Период работы
Август 2022 - Август 2023  (1 год 1 месяц)
Разработка платформы для сбора, обработки и анализа данных о финансовых транзакциях
Роль
Data Engineer
Обязанности
Разработка платформы для сбора, обработки и анализа данных о финансовых транзакциях в режиме реального времени. Система позволяла интегрироваться с различными внешними сервисами, анализировать большие объемы данных и предоставлять удобные отчёты для мониторинга ключевых показателей. Проект включал автоматизацию процессов обработки данных, обеспечение высокой производительности и отказоустойчивости. ● Разработка и поддержка ETL-пайплайнов в Apache Airflow для обработки и трансформации данных ● Поддержка API на FastAPI для обеспечения быстрого доступа к данным и реализации механизмов аутентификации ● Оптимизация DAG-ов в Apache Airflow для уменьшения времени выполнения и более эффективного управления зависимостями задач ● Создание аналитических витрин в Power BI для мониторинга финансовых метрик и выявления аномалий ● Оптимизация хранимых процедур и индексов в MSSQL для ускорения выполнения запросов ● Разработка системы уведомлений и алертов для оперативного реагирования на сбои ● Настройка Snowflake в качестве основного хранилища данных для надежного и масштабируемого хранения финансовых транзакций с обеспечением удобного доступа к данным для аналитики и отчетности.
Стек специалиста на проекте
Docker, Python, Bash, GitLab, Hadoop, Pandas, SQLAlchemy, Numpy, FastAPI, Pydantic, Alembic, Docker Compose, Apache AirFlow, Snowflake, MS SQL, Trino
Отрасль проекта
FinTech & Banking
Период работы
Май 2021 - Март 2022  (11 месяцев)
Формат работы
Тип занятости
Фулл-тайм
Формат работы
Удаленно
Командировки
Не готов
Релокация
Не готов
Готов работать на зарубежных проектах
Нет

Похожие специалисты

E-commerce & Retail • FinTech & Banking
ВВ
Владлена В.
Минск
Data инженер
Middle+
3 545,15 Р/час
Alembic
Apache AirFlow
athena
AWS
AWS glue
Bash
BI
BigQuery
Bitbucket
ClickHouse
+44

Владлена — data-инженер уровня middle+ из Минска (Беларусь). Обладает опытом работы с различными инструментами и технологиями, включая Alembic, Apache AirFlow, AWS, Docker, ETL, FastAPI, GitHub Actions, GitLab CI/CD, Python, SQLAlchemy и другие. Владлена участвовала в нескольких проектах в сферах FinTech & Banking и E-commerce & Retail: - Обрабатывала и трансформировала большие данные из разных источников в хранилище. - Разрабатывала и оптимизировала ETL-пайплайны на Apache Airflow, Python и SQL. - Интегрировала данные из различных источников в централизованное хранилище. - Оптимизировала SQL-запросы в Snowflake, PostgreSQL и других базах данных. - Настраивала механизмы ретраев, SLA и уведомлений в Airflow. - Автоматизировала процессы очистки, нормализации, дедупликации и агрегации данных.

Подробнее
E-commerce & Retail
ГВ
Герман В.
Минск
Data инженер
Middle+
3 545,15 Р/час
Alembic
Apache
Apache AirFlow
Apache Spark
athena
Avro
AWS
AWS glue
Bash scripting
Bitbucket
+55

Data-инженер с опытом работы в отрасли электронной коммерции и ритейла более 3 лет. Участвовал в проекте по внедрению платформы снабжения и планирования для крупного производственного предприятия. Выполнял обязанности по управлению командой дата-инженеров, обсуждал архитектуру системы, подключался к источникам данных, оптимизировал SQL-запросы, создавал конвейеры Airflow, работал с Pandas, разрабатывал хранимые процедуры, настраивал соединения Kafka, проектировал витрины данных и HDFS. Работал над созданием простого в интеграции приложения для персонализированной бизнес-аналитики на базе искусственного интеллекта. Занимался разработкой конечных точек Flask, нормализацией данных, контролем операций хранилища данных, разработкой моделей DBT, использовал Pandas, NumPy и SciPy, разрабатывал функции с помощью AWS Lambda. Принимал участие в разработке платформы для сбора и обработки больших объёмов данных из различных источников. Администрировал базы данных, разрабатывал и оптимизировал сложные SQL-запросы, использовал Apache Spark, обрабатывал крупномасштабные наборы данных с помощью AWS EMR, выполнял статистические вычисления с помощью SciPy.

Подробнее
E-commerce & Retail • FinTech & Banking
КЯ
Кирилл Я.
Минск
Data инженер
Middle+
3 545,15 Р/час
aks
Apache AirFlow
Apache Kafka
Apache NiFi
Apache Spark
Apache Superset
AWS
Azure
Azure SQL
Bitbucket
+50

Data Engineer с опытом работы на проектах в сфере E-commerce & Retail и FinTech & Banking. На проектах занимался разработкой аналитических платформ, DWH и систем аналитики. Обязанности: - разработка ETL-пайплайнов в Apache Airflow и Apache NiFi; - обработка больших объёмов данных с использованием PySpark, Pandas, NumPy; - оптимизация интеграции Hadoop (HDFS); - агрегация данных в ClickHouse для BI-отчётов; - визуализация данных в Power BI и Superset; - мониторинг и оптимизация производительности запросов в Snowflake; - интеграция PostgreSQL и MS SQL; - использование Docker и Kubernetes для контейнеризации ETL-компонентов; - создание детальных технических проектных документов; - сотрудничество с командой аналитиков; - проведение тестирования системы; - настройка CI/CD-конвейеров с помощью GitLab CI/CD.

Подробнее
E-commerce & Retail • FinTech & Banking • Government & Public Sector
КН
Кирилл Н.
Ростов-на-Дону
Data инженер
Middle+
3 896,1 Р/час
Ansible
Apache AirFlow
Astra Linux
Atlassian
Bash
Bitbucket
Cassandra
Celery
CI/CD
Docker
+66

Кирилл — data-инженер из Ростова-на-Дону. Обладает опытом работы на проектах в сферах FinTech & Banking, Government & Public Sector и E-commerce & Retail. На проекте для компании из сферы FinTech & Banking занимался обработкой больших объёмов информации, анализом данных, разработкой дата-пайплайнов и организацией data quality. Использовал Python, bash, Hadoop, Greenplum, PL/pgSQL, Atlassian, Jupyter, Hue, Hive, Airflow, Superset, Power Bi, PySpark, Pandas, PyArrow. Для государственной компании разрабатывал детальный слой и строил витрины, писал пайплайны по доставке и обработке данных. Использовал Python, Apache Airflow, Git, Posgresql. В качестве python-разработчика для госструктуры создавал скрипты для автоматизации бизнес-процессов и администрирования оборудования, а также писал процедуры для баз данных. В работе использовал Python, Bash, FastAPI, Sqlalchemy, ansible, postman, Git, pgsql, Linux, Docker, Prometheus, Grafana и др. Опыт работы на позиции python-разработчика включал аналитику данных и контроль data quality, разработку скриптов по автоматизации и эксплуатацию измерительной техники. Использовал Python, bash, MySQL, Postgresql, Astra Linux, SecretNet. На последнем месте работы в сфере E-commerce & Retail занимался интеграцией реляционных и нереляционных источников, настройкой мониторинга и алертинга, нормализацией и очисткой данных. Работал со стеком из MongoDB, Postgres, S3, YandexCloud, Greenplum, Python, SQL, Ni-Fi, Airflow, Kafka, k8s, Jenkins, Github, ELK, Grafana, Vault.

Подробнее
E-commerce & Retail • IoT • Telecom
АБ
Андрей Б.
Минск
Data инженер
Senior
4 155,84 Р/час
DevOps
DWH
ETL ELT
Pl/SQL
Python
SQL
Моделирование
облачные сервисы
Оптимизация запросов
Разработка
+55

Андрей — Data инженер уровня Senior из Минска, Беларусь. Специализируется на разработке и оптимизации аналитических платформ и хранилищ данных (DWH). Имеет опыт работы с ETL/ELT-процессами, облачными сервисами AWS, инструментами Apache Airflow, Apache Kafka, Apache Spark, а также с базами данных PostgreSQL, MySQL, Oracle и Snowflake. Участвовал в проектах для отраслей E-commerce & Retail, IoT и Telecom. Среди проектов — разработка аналитической платформы для розничной сети, интеграция данных из CRM, ERP и POS-систем, автоматизация обновления данных и улучшение доступа к аналитике через BI-панели. Также занимался разработкой DWH для IT-компании, преобразованием сырых данных из Data Lake и их интеграцией в DWH для решения ML-задач. Обладает навыками работы с системами контроля версий Git, GitLab, Bitbucket, а также опытом настройки CI/CD-конвейеров. Создавал техническую документацию и сотрудничал с командами аналитиков для согласования решений по обработке данных.

Подробнее

Недавно просмотренные специалисты

E-commerce & Retail • EdTech
АЩ
Алексей Щ.
Смоленск
Битрикс24 разработчик
Senior
3 181,82 Р/час
PostgreSQL
RabbitMQ
Git
Docker
JavaScript
Sentry
Redis
PHP 7.3
+8

Архитектура, оптимизация, масштабирование, управление командой Backend-разработчик с более чем 6 годами опыта в создании высоконагруженных и отказоустойчивых систем. Успешно реализовал проекты в разных сферах: от e-commerce до SaaS-решений. Ключевые навыки: - Языки и технологии: JavaScript, PHP, Docker, RabbitMQ - Архитектура: Микросервисы, монолиты - Базы данных: PostgreSQL, MySQL, Redis, оптимизация запросов - Управление: Опыт руководства командой (3-5 человек), планирование задач, code review, наставничество Что я принесу в ваш проект? ✅ Надежность – пишу чистый, поддерживаемый код с покрытием тестами ✅ Масштабируемость – проектирую системы, способные выдерживать высокие нагрузки ✅ Эффективность – оптимизирую производительность и снижаю затраты на инфраструктуру ✅ Организацию – умею выстраивать процессы в команде для быстрого и предсказуемого результата Опыт работы: - Team Lead / Senior Backend Developer - Увеличил отказоустойчивость системы, снизив downtime на 40% - Оптимизировал запросы к БД, ускорив API на 25% - Выстроил процессы code review и CI/CD, сократив время релизов в 2 раза - Backend Developer - Разработал микросервисную архитектуру с нуля - Интегрировал платежные системы и CRM Почему я? Не просто пишу код, а решаю бизнес-задачи: автоматизирую процессы, сокращаю издержки и помогаю продукту расти. Готов к сложным вызовам и быстро вливаюсь в команду.

Подробнее
E-commerce & Retail • Government & Public Sector
ВС
Вадим С.
Москва
Java разработчик
Junior+
2 142,86 Р/час
PostgreSQL
Git
Docker
REST
Java
Jira
SQL
Английский язык
Bitbucket
JUnit
+32

Вадим — Java-разработчик уровня Middle из Москвы. Специализируется на разработке с использованием Java и Spring Boot. Имеет опыт работы с базами данных PostgreSQL и SQL, а также с инструментами автоматизации тестирования, такими как Jenkins CI, GitLab CI и Docker. Владеет английским языком на уровне B2. Имеет опыт работы в отраслях Government & Public Sector и E-commerce & Retail. Участвовал в проектах «Экзон Групп (Гаскар интеграция)» и «Petshopru». В проекте «Экзон Групп (Гаскар интеграция)» занимал роль инженера по автоматизации тестирования, разработал фреймворк для тестировки продукта СОД, занимался автоматизацией тест-кейсов, разработкой функционала фреймворка тестировки, написанием документации и переработкой старого кода. В проекте «Petshopru» занимался анализом требований и дизайном тест-кейсов в сотрудничестве с командой QA и аналитиком, оптимизировал процессы тестирования для улучшения эффективности.

Подробнее
BioTech, Pharma, Health care & Sports • FinTech & Banking
УР
Улан Р.
Астана
Системный аналитик
Middle+
3 246,75 Р/час
Jira
Confluence
BPMN
UML
Figma
Postman
Draw.io
Swagger
DBeaver
MVP
+26

- Более 5-ти лет опыта бизнес- и системного анализа в коммерческих или государственных проектах - Опыт работы с внешними и внутренними интеграционными взаимодействиями (REST API, SOAP, ESB, Apache Kafka, RabbitMQ) - Опыт работы с СУБД: PostgreSQL, MS SQL, Oracle DB - Опыт разработки технических заданий, руководства пользователей, программ и методик испытаний - Опыт выявления и управления требованиями (бизнес-требования, функциональные и нефункциональные требования к ПО) - Участие более чем в 16-ти проектах различных сфер в качестве бизнес- и системного аналитика, а также product owner или менеджера проектов - Опыт работы в каскадных (Waterfall) и гибких (Scrum) методологиях Участие в качестве спикера на конференциях, презентациях

Подробнее
GameDev
ВО
Виктор О.
Москва
Frontend разработчик
Junior
1 142,86 Р/час
Git
HTML
CSS
Docker
JavaScript
PHP
Python
Bash
REST API
Linux
+11

Технические компетенции: Системное администрирование: - Администрирование Windows и Linux систем - Работа с терминальными средами (cmd, PowerShell, bash, zsh, alias) - Управление доменными структурами - Настройка и мониторинг файрволов (iptables, Windows Firewall) - Конфигурация DNS-серверов - Конфигурация маршрутизации и сетевой инфраструктуры Разработка и веб-технологии: - Фронтенд: HTML5, CSS3, JavaScript - Бэкенд: PHP, Python - Работа с базами данных: MariaDB, MySQL - Фреймворки: Flask, FastAPI - Версионирование: Git, GitLab Практический опыт и достижения: Автоматизация процессов: - Разработка bash-скриптов для автоматизации рутинных задач - Автоматизация установки Linux-систем с дополнительным ПО (ускорение процесса на 50%) - Скрипты для введения компьютеров в домен (ускорение процесса на 40%) - Автоматизация установки и обновления драйверов - Оптимизация процессов удаления и установки программного обеспечения (ускорение процесса на 60%) Веб-разработка: - Разработка и поддержка веб-проектов (доступны на GitHub и в облачном хранилище) - Создание веб-приложений с регистрацией и интеграцией с базами данных - Опыт работы с REST API - Внедрение систем аутентификации и авторизации

Подробнее