ИЛ
Илья Л.
Мужчина
Россия, Москва, UTC+3
Ставка
4 675,32 Р/час
НДС не облагается
Специалист доступен с 3 июля 2025 г.

Добавьте подходящих специалистов в список и оформите заявку для предварительного бронирования времени специалистов. После оформления заявки ваш персональный менеджер организует прохождение всех необходимых проверок с вами и каждым кандидатом из заявки. Специалист привлекается к проекту только после окончательного подтверждения его выхода с вашей стороны.

Подробнее
О специалисте
Специализация
Data инженер
Грейд
Senior
Навыки
AWS
functions
glue
Lambda
PySpark
Python
Redshift
S3
Steps
analysis
Analytics
Azure
Data Factory
Data Lake
Databricks
Microsoft
Power BI
Services
Storage
studio
Synapse
ALB
Bash
Bitbucket
CloudFormation
CloudWatch
Docker
EC2
Jenkins
Jira
Mesh
Oracle Database
Pl/SQL
RDS
Rebase
SNS
SVN
SQL
BI
C#
Oracle
Oracle SQL Developer
Amazon S3
DBeaver
Exasol
Talend
Elasticsearch
Kibana
Zeppelin
Отрасли
BioTech, Pharma, Health care & Sports
E-commerce & Retail
FoodTech
IoT
Главное о специалисте
- Senior Data Engineer с более чем 7-летним опытом работы, включая опыт создания платформ и конвейеров данных - Имеет знание и опыт моделирования DWH - Имеет практический опыт работы с коммерческими инструментами ETL - Обладает сильным опытом работы с данными - Имеет навыки работы с облачными сервисами AWS/MS Azure. - Активный, ответственный и открытый человек, готовый учиться и делиться приобретенными знаниями с коллегами, способный работать как самостоятельно, так и в команде.
Проекты   (9 лет 3 месяца)
Telehealth Solution
Роль
Senior Data Engineer
Обязанности
Разработка и внедрение решения для хранилища данных на основе искусственного интеллекта для ведущего поставщика услуг телемедицины. Основной целью проекта является повышение эффективности принятия решений на основе данных и обеспечение всесторонней поддержки бизнес-анализа для крупнейшей медицинской компании в США, располагающей сеть из более чем 300 медицинских учреждений. Ответственен за создание чат-бота для ответов на запросы пользователей, используя информацию, хранящуюся в хранилище данных. Обязанности: - Разработка модулей захвата данных для загрузки данных в различные слои в S3, Redshift с использованием AWS (Glue, Lambda, Step Functions). - Инновационное создание чат-бота, использующего возможности хранилища данных - Создание заданий PySpark и Python Glue для реализации логики преобразования данных в AWS и хранения результатов в кластере Redshift - Сбор данных из внутренних/внешних конечных точек API с помощью Python - Использование каталога данных AWS Glue с краулером для получения данных из S3 и выполнения SQL-запросов - Создание мониторов, сигналов тревоги, уведомлений и журналов для Lambda-функций, Glue-заданий - Проектирование и разработка схемных моделей данных - Автоматизация отправки отчетов клиентам по электронной почте с помощью AWS SES (Simple Email Service) - Создание пользовательских панелей в Tableau для мониторинга ключевых бизнес-показателей в режиме реального времени бизнес-показатели Технологии Python, PySpark, AWS (Glue, Step Functions, S3, SES, Lambda, Redshift, SageMaker
Стек специалиста на проекте
Python, AWS, Redshift, Lambda, S3, PySpark, Steps, glue, functions
Отрасль проекта
BioTech, Pharma, Health care & Sports
Период работы
Июль 2022 - По настоящее время  (3 года 1 месяц)
Cariad
Роль
Senior Data Engineer
Обязанности
Автомобильное программное обеспечение для Volkswagen. Проект был направлен на перенос аналитических сервисов из AWS в MS Azure. Основная цель заключалась в повышении IoTэффективности и возможностей существующей платформы данных. В частности, команда работала над созданием решения Autonomous Driving Platform на базе Azure Data Lake. Это решение предназначалось не только для хранения данных измерений, но и для облегчения обработки этих данных для повторного моделирования сценариев автономного вождения. Обязанности: - Анализ недостатков и ограничений текущей платформы данных - Проектирование и разработка ингрессии Elasticsearch для нового источника - Разработка/применение метрик, разработанных заказчиком - Определение стек ПО для DevOps и средств аналитики и визуализации данных (MVP концепция) Технологии: Python, Elasticsearch, Zeppelin, MS Azure (Data Lake Storage, Data Factory), AWS (EC2, S3), Kibana, Bitbucket
Стек специалиста на проекте
Elasticsearch, Python, Kibana, Bitbucket, AWS, Data Lake, Data Factory, Microsoft, Azure, Storage, Zeppelin, EC2, S3
Отрасль проекта
IoT
Период работы
Июль 2021 - Июль 2022  (1 год 1 месяц)
Estee Lauder
Роль
Data Engineer
Обязанности
Estee Lauder является мировым лидером в области красоты. Компания специализирующаяся исключительно на престижной косметике, уходе за кожей, ароматах и волосах с разнообразным портфолио из 25+ брендов, продающихся примерно в 150 странах. Задача проекта связана с переносом маркетинговых аналитических сервисов в MS Azure Cloud и разработкой аналитической базы данных, Analysis Services. Обязанности: - Анализ полуструктурированных данных в хранилище Azure Data Lake - Создание конвейеров в Azure Data Factory, которые загружают данные из Azure Data Lake в Azure Synapse. - Подготовка модели данных для Azure Synapse и последующее согласование модели с заказчиком - Использование Azure Data Factory для создания эффективных потоков данных для поддержки Power BI отчетности - Подготовка семантической модели с использованием сервисов Azure Analysis - Настройка ключевых функций в премиум-настройке Power BI клиента, включая конвейеры развертывания, модели самообслуживания и отчетность на уровне арендаторов с использованием REST API администратора Технологии: MS Azure (Data Lake Storage Gen2, Synapse Analytics, Data Factory, Databricks, Synapse Studio, Analysis Services), DBFS, Power BI
Стек специалиста на проекте
Power BI, Analytics, Data Lake, Data Factory, Microsoft, Azure, Storage, Services, Databricks, Synapse, studio, analysis
Отрасль проекта
E-commerce & Retail
Период работы
Декабрь 2020 - Июль 2021  (8 месяцев)
Формат работы
Тип занятости
Фулл-тайм
Формат работы
Удаленно
Командировки
Не готов
Релокация
Не готов
Готов работать на зарубежных проектах
Нет
Образование
Высшее
Учебное заведение
Санкт-Петербургский Государственный Университет Аэрокосмического Приборостроения
Специальность
Прикладная математика
Завершение учебы
2018 г.

Похожие специалисты

E-commerce & Retail • FinTech & Banking
КЯ
Кирилл Я.
Минск
Data инженер
Middle+
3 545,15 Р/час
aks
Analytics
Apache AirFlow
Apache Kafka
Apache NiFi
Apache Spark
Apache Superset
AWS
Azure
Azure SQL
+50

Data Engineer с опытом работы на проектах в сфере E-commerce & Retail и FinTech & Banking. На проектах занимался разработкой аналитических платформ, DWH и систем аналитики. Обязанности: - разработка ETL-пайплайнов в Apache Airflow и Apache NiFi; - обработка больших объёмов данных с использованием PySpark, Pandas, NumPy; - оптимизация интеграции Hadoop (HDFS); - агрегация данных в ClickHouse для BI-отчётов; - визуализация данных в Power BI и Superset; - мониторинг и оптимизация производительности запросов в Snowflake; - интеграция PostgreSQL и MS SQL; - использование Docker и Kubernetes для контейнеризации ETL-компонентов; - создание детальных технических проектных документов; - сотрудничество с командой аналитиков; - проведение тестирования системы; - настройка CI/CD-конвейеров с помощью GitLab CI/CD.

Подробнее
E-commerce & Retail
ГВ
Герман В.
Минск
Data инженер
Middle+
3 545,15 Р/час
Alembic
Apache
Apache AirFlow
Apache Spark
athena
Avro
AWS
AWS glue
Bash scripting
Bitbucket
+55

Data-инженер с опытом работы в отрасли электронной коммерции и ритейла более 3 лет. Участвовал в проекте по внедрению платформы снабжения и планирования для крупного производственного предприятия. Выполнял обязанности по управлению командой дата-инженеров, обсуждал архитектуру системы, подключался к источникам данных, оптимизировал SQL-запросы, создавал конвейеры Airflow, работал с Pandas, разрабатывал хранимые процедуры, настраивал соединения Kafka, проектировал витрины данных и HDFS. Работал над созданием простого в интеграции приложения для персонализированной бизнес-аналитики на базе искусственного интеллекта. Занимался разработкой конечных точек Flask, нормализацией данных, контролем операций хранилища данных, разработкой моделей DBT, использовал Pandas, NumPy и SciPy, разрабатывал функции с помощью AWS Lambda. Принимал участие в разработке платформы для сбора и обработки больших объёмов данных из различных источников. Администрировал базы данных, разрабатывал и оптимизировал сложные SQL-запросы, использовал Apache Spark, обрабатывал крупномасштабные наборы данных с помощью AWS EMR, выполнял статистические вычисления с помощью SciPy.

Подробнее
E-commerce & Retail • IoT • Telecom
АБ
Андрей Б.
Минск
Data инженер
Senior
4 155,84 Р/час
DevOps
DWH
ETL ELT
Pl/SQL
Python
SQL
Моделирование
облачные сервисы
Оптимизация запросов
Разработка
+55

Андрей — Data инженер уровня Senior из Минска, Беларусь. Специализируется на разработке и оптимизации аналитических платформ и хранилищ данных (DWH). Имеет опыт работы с ETL/ELT-процессами, облачными сервисами AWS, инструментами Apache Airflow, Apache Kafka, Apache Spark, а также с базами данных PostgreSQL, MySQL, Oracle и Snowflake. Участвовал в проектах для отраслей E-commerce & Retail, IoT и Telecom. Среди проектов — разработка аналитической платформы для розничной сети, интеграция данных из CRM, ERP и POS-систем, автоматизация обновления данных и улучшение доступа к аналитике через BI-панели. Также занимался разработкой DWH для IT-компании, преобразованием сырых данных из Data Lake и их интеграцией в DWH для решения ML-задач. Обладает навыками работы с системами контроля версий Git, GitLab, Bitbucket, а также опытом настройки CI/CD-конвейеров. Создавал техническую документацию и сотрудничал с командами аналитиков для согласования решений по обработке данных.

Подробнее
E-commerce & Retail • FinTech & Banking
ВВ
Владлена В.
Минск
Data инженер
Middle+
3 545,15 Р/час
Alembic
Apache AirFlow
athena
AWS
AWS glue
Bash
BI
BigQuery
Bitbucket
ClickHouse
+44

Владлена — data-инженер уровня middle+ из Минска (Беларусь). Обладает опытом работы с различными инструментами и технологиями, включая Alembic, Apache AirFlow, AWS, Docker, ETL, FastAPI, GitHub Actions, GitLab CI/CD, Python, SQLAlchemy и другие. Владлена участвовала в нескольких проектах в сферах FinTech & Banking и E-commerce & Retail: - Обрабатывала и трансформировала большие данные из разных источников в хранилище. - Разрабатывала и оптимизировала ETL-пайплайны на Apache Airflow, Python и SQL. - Интегрировала данные из различных источников в централизованное хранилище. - Оптимизировала SQL-запросы в Snowflake, PostgreSQL и других базах данных. - Настраивала механизмы ретраев, SLA и уведомлений в Airflow. - Автоматизировала процессы очистки, нормализации, дедупликации и агрегации данных.

Подробнее

Недавно просмотренные специалисты

FinTech & Banking • Hardware
ВГ
Владислав Г.
Москва
Технический писатель
Senior
2 857,14 Р/час
Управление командой
HTML5
Подготовка и проведение презентаций
лидерство
Разработка
Управление рисками
Scrum
API
Организаторские навыки
Ведение переговоров
+31

Владислав — опытный технический писатель с навыками проектного менеджмента и разработки. Он обладает глубоким пониманием Agile, Scrum и Waterfall методологий, а также имеет опыт работы с инструментами Jira и Confluence. Владислав работал над рядом проектов в области FinTech & Banking и Hardware. На проекте DION он занимался разработкой и поддержкой документации для системы видеоконференцсвязи, созданием руководств и инструкций для пользователей и администраторов. В рамках проекта по созданию технической документации он разрабатывал ПЗ, ЧТЗ, ПМИ, руководства пользователя и администратора. На последнем месте работы Владислав создал полную проектную документацию в соответствии с регламентами компании, организовал процесс взаимодействия подрядчика и вендора с внутренними ИТ-подразделениями и подготовил пользовательские инструкции и руководства.

Подробнее