ИЛ
Илья Л.
Мужчина
Россия, Москва, UTC+3
Ставка
4 675,32 Р/час
НДС не облагается
Специалист доступен с 19 марта 2025 г.

Добавьте подходящих специалистов в список и оформите заявку для предварительного бронирования времени специалистов. После оформления заявки ваш персональный менеджер организует прохождение всех необходимых проверок с вами и каждым кандидатом из заявки. Специалист привлекается к проекту только после окончательного подтверждения его выхода с вашей стороны.

Подробнее
О специалисте
Специализация
Data инженер
Грейд
Senior
Навыки
AWS
functions
glue
Lambda
PySpark
Python
Redshift
S3
Steps
analysis
Analytics
Azure
Data Factory
Data Lake
Databricks
Microsoft
Power BI
Services
Storage
studio
Synapse
ALB
Bash
Bitbucket
CloudFormation
CloudWatch
Docker
EC2
Jenkins
Jira
Mesh
Oracle Database
Pl/SQL
RDS
Rebase
SNS
SVN
SQL
BI
C#
Oracle
Oracle SQL Developer
Amazon S3
DBeaver
Exasol
Talend
Elasticsearch
Kibana
Zeppelin
Отрасли
BioTech, Pharma, Health care & Sports
E-commerce & Retail
FoodTech
IoT
Главное о специалисте
- Senior Data Engineer с более чем 7-летним опытом работы, включая опыт создания платформ и конвейеров данных - Имеет знание и опыт моделирования DWH - Имеет практический опыт работы с коммерческими инструментами ETL - Обладает сильным опытом работы с данными - Имеет навыки работы с облачными сервисами AWS/MS Azure. - Активный, ответственный и открытый человек, готовый учиться и делиться приобретенными знаниями с коллегами, способный работать как самостоятельно, так и в команде.
Проекты   (8 лет 11 месяцев)
Telehealth Solution
Роль
Senior Data Engineer
Обязанности
Разработка и внедрение решения для хранилища данных на основе искусственного интеллекта для ведущего поставщика услуг телемедицины. Основной целью проекта является повышение эффективности принятия решений на основе данных и обеспечение всесторонней поддержки бизнес-анализа для крупнейшей медицинской компании в США, располагающей сеть из более чем 300 медицинских учреждений. Ответственен за создание чат-бота для ответов на запросы пользователей, используя информацию, хранящуюся в хранилище данных. Обязанности: - Разработка модулей захвата данных для загрузки данных в различные слои в S3, Redshift с использованием AWS (Glue, Lambda, Step Functions). - Инновационное создание чат-бота, использующего возможности хранилища данных - Создание заданий PySpark и Python Glue для реализации логики преобразования данных в AWS и хранения результатов в кластере Redshift - Сбор данных из внутренних/внешних конечных точек API с помощью Python - Использование каталога данных AWS Glue с краулером для получения данных из S3 и выполнения SQL-запросов - Создание мониторов, сигналов тревоги, уведомлений и журналов для Lambda-функций, Glue-заданий - Проектирование и разработка схемных моделей данных - Автоматизация отправки отчетов клиентам по электронной почте с помощью AWS SES (Simple Email Service) - Создание пользовательских панелей в Tableau для мониторинга ключевых бизнес-показателей в режиме реального времени бизнес-показатели Технологии Python, PySpark, AWS (Glue, Step Functions, S3, SES, Lambda, Redshift, SageMaker
Стек специалиста на проекте
glue, AWS, functions, Redshift, S3, Steps, PySpark, Python, Lambda
Отрасль проекта
BioTech, Pharma, Health care & Sports
Период работы
Июль 2022 - По настоящее время  (2 года 9 месяцев)
Cariad
Роль
Senior Data Engineer
Обязанности
Автомобильное программное обеспечение для Volkswagen. Проект был направлен на перенос аналитических сервисов из AWS в MS Azure. Основная цель заключалась в повышении IoTэффективности и возможностей существующей платформы данных. В частности, команда работала над созданием решения Autonomous Driving Platform на базе Azure Data Lake. Это решение предназначалось не только для хранения данных измерений, но и для облегчения обработки этих данных для повторного моделирования сценариев автономного вождения. Обязанности: - Анализ недостатков и ограничений текущей платформы данных - Проектирование и разработка ингрессии Elasticsearch для нового источника - Разработка/применение метрик, разработанных заказчиком - Определение стек ПО для DevOps и средств аналитики и визуализации данных (MVP концепция) Технологии: Python, Elasticsearch, Zeppelin, MS Azure (Data Lake Storage, Data Factory), AWS (EC2, S3), Kibana, Bitbucket
Стек специалиста на проекте
AWS, Data Lake, Data Factory, Elasticsearch, Kibana, Bitbucket, Storage, S3, Zeppelin, EC2, Python, Azure, Microsoft
Отрасль проекта
IoT
Период работы
Июль 2021 - Июль 2022  (1 год 1 месяц)
Estee Lauder
Роль
Data Engineer
Обязанности
Estee Lauder является мировым лидером в области красоты. Компания специализирующаяся исключительно на престижной косметике, уходе за кожей, ароматах и волосах с разнообразным портфолио из 25+ брендов, продающихся примерно в 150 странах. Задача проекта связана с переносом маркетинговых аналитических сервисов в MS Azure Cloud и разработкой аналитической базы данных, Analysis Services. Обязанности: - Анализ полуструктурированных данных в хранилище Azure Data Lake - Создание конвейеров в Azure Data Factory, которые загружают данные из Azure Data Lake в Azure Synapse. - Подготовка модели данных для Azure Synapse и последующее согласование модели с заказчиком - Использование Azure Data Factory для создания эффективных потоков данных для поддержки Power BI отчетности - Подготовка семантической модели с использованием сервисов Azure Analysis - Настройка ключевых функций в премиум-настройке Power BI клиента, включая конвейеры развертывания, модели самообслуживания и отчетность на уровне арендаторов с использованием REST API администратора Технологии: MS Azure (Data Lake Storage Gen2, Synapse Analytics, Data Factory, Databricks, Synapse Studio, Analysis Services), DBFS, Power BI
Стек специалиста на проекте
Synapse, studio, analysis, Databricks, Data Lake, Data Factory, Power BI, Analytics, Storage, Services, Azure, Microsoft
Отрасль проекта
E-commerce & Retail
Период работы
Декабрь 2020 - Июль 2021  (8 месяцев)
Формат работы
Тип занятости
Фулл-тайм
Формат работы
Удаленно
Командировки
Не готов
Релокация
Не готов
Готов работать на зарубежных проектах
Нет
Образование
Высшее
Учебное заведение
Санкт-Петербургский Государственный Университет Аэрокосмического Приборостроения
Специальность
Прикладная математика
Завершение учебы
2018 г.

Похожие специалисты

Cloud Services • E-commerce & Retail
ОА
Ольга А.
Минск
Data инженер
Senior
4 545,45 Р/час
PySpark
Pandas
Python
Java
Numpy
Apache
Spark
SQLx
Snowflake
IBM
+52

Языки программирования: Python, Java. Технологии: PySpark, Pandas, NumPy, Apache Spark, Transact-SQL, Snowflake, IBM Cognos, Power BI, IBM Framework Manager, Apache Superset. Базы данных: PostgreSQL, MySQL, MSSQL, DynamoDB, MongoDB, IBM DB2. Облачные технологии: AWS (S3, EC2, Lambda, CloudWatch, etc.), IBM Cloud, Azure (AKS, Blob Storage, Data Lake, Synapse Analytics, Cosmos DB, MongoDB, DevOps, Azure SQL, VM, etc.). ETL-технологии: Apache Airflow, IBM Datastage, Apache Nifi. DevOps: AWS, Azure, Docker, Docker-compose, Bash scripting, Kubernetes, CI\CD, Jenkins, GitLab CI\CD. Системы контроля версий: Git, GitLab, Bitbucket, GitHub. Навыки ● Отличные знания Python ● Написание сложных SQL-запросов ● Оптимизация запросов ● DWH-моделирование ● Разработка ETL/ELT-пайплайнов ● Облачные сервисы ● Устранение неполадок ● Опыт работы с инструментами DevOps Проекты ● Программа лояльности Goodyear ● IBA Lakehouse ● Интеграция данных и аналитика IBM ● Платформа аналитики розничных запасов и продаж

Подробнее
E-commerce & Retail • FinTech & Banking • Media
КР
Константин Р.
Минск
Data инженер
Middle
4 025,97 Р/час
Hadoop
Hive
Numpy
Openmetadata
Pandas
PySpark
Python
ClickHouse
DynamoDB
MongoDB
+62

Middle Data Engineer Навыки ● Python ● Моделирование DWH ● Разработка ETL/ELT-конвейеров ● Опыт визуализации данных ● Опыт работы AWS, Azure и GCP ● Экспертиза в Spark ● Экспертное знание SQL Проекты ● Платформа розничных продаж ● Платформа аналитики распределения ● Платформа анализа продаж ● Платформа аналитики розничной торговли Образование Степень бакалавра в области компьютерных наук Языковые навыки Английский – B2 Опыт работы в сфере Data Engineering более 4-х лет. Языки программирования: Python Технологии: PySpark, Pandas, NumPy, Hadoop, Hive, Openmetadata, Excel Базы данных: PostgreSQL, MySQL, MSSQL, Oracle, Redis, DynamoDB, MongoDB, Clickhouse BI Инструменты: Looker Studio, QuickSight, Apache SuperSet. ETL Инструменты: Apache Airflow, Apache NiFi Брокеры сообщений: Kafka, RabbitMQ Облачные провайдеры: AWS (IAM, S3, RDS, Athena, EC2, ECS, EKS, SQS, Lambda, Redshift, Snowflake, Glue, CloudWatch, etc.), GCP (Cloud Computing, Cloud Monitoring, Dataproc, CloudStorage, BigQuery, Pub/Sub, Cloud SQL, Cloud Firestore, Cloud Functions, Cloud Spanner, Cloud Run, IAM, Looker Studio), Yandex Cloud (Data Proc, Managed Service for ClickHouse, Object Storage, Cloud Functions, Compute Cloud. DevOps: Docker, Docker-compose, Bash scripting, Kubernetes, CI\CD. Системы контроля версий: Git, GitLab, Bitbucket, GitHub

Подробнее
FinTech & Banking • RnD • Telecom
ИГ
Игорь Г.
Минск
Data инженер
Senior
4 121,43 Р/час
PL/pgSQL
Pl/SQL
Python
SQL
T-SQL
Azure
Databricks
Azure Synapse Analytics
Azure DevOps
Azure DLS
+49

Игорь — senior data engineer из Минска. Обладает опытом работы в проектах для сфер FinTech & Banking, Telecom и RnD. Игорь участвовал в создании Data Lake и построении нового DWH в Greenplum с последующей миграцией текущего он-прем DWH (Oracle) в ООО «Данелекс». Занимался разработкой и внедрением ETL-конвейеров, подготовкой технической документации, профилированием данных и анализом требований заказчика. В другом проекте для ООО «Данелекс» создавал новое хранилище данных в Azure с использованием исходных систем (CRM и биллинг) и последующей миграцией текущего DWH с Oracle на Azure. Разрабатывал и внедрял ETL-конвейеры, создавал модели данных в SAP PowerDesigner, проводил технические интервью. Для компании «ЭПАМ Системз» работал над проектом по обеспечению поддержки текущего бизнеса клиента. Собирал и анализировал требования заказчика, готовил и поддерживал ETL-процессы, создавал комплект документов, проводил тесты, проверял код и планировал конвейеры и потоки данных. Также в роли developer занимался отслеживанием деятельности, связанной с научными исследованиями и затратами на образование в белорусском офисе «ЭПАМ Системз». Работал с flat файлами и проводил анализ данных, писал скрипты и создавал отчёты.

Подробнее
E-commerce & Retail • EdTech • RnD
АК
Алексей К.
Белград
Data инженер
Senior
4 110,32 Р/час
Python
Hadoop
Apache AirFlow
AWS
AWS RDS
Bash
beams
Big Data
BigQuery
C++
+108

Алексей — опытный Data инженер с более чем шестилетним опытом работы в проектах RnD, E-commerce & Retail и EdTech. В портфолио Алексея есть несколько успешных проектов: Customer360, разработка программного обеспечения для бухгалтерского учёта для одного из крупнейших розничных продавцов товаров для дома, Apache Superset по визуализации данных для целей BI, внутренний проект, направленный на решение проблем повторного развёртывания групп DAG Airflow на учётных записях Kohls и IAS, IAS Python Upgrade, настройка и поддержка кластера Hadoop/Spark, разработка приложений на Hadoop/Spark для научных целей. Алексей участвовал в разработке и поддержке групп DAG Airflow для преобразования данных, включая сшивание данных; разработал и спроектировал Metadag Airflow DAG, которая автоматизирует и повышает уровень понимания процессов в команде C360; выполнил общую миграцию из локальных в облачные сервисы; получил большой опыт в разработке приложений Flask, выполнении миграций БД с использованием SQLAlchemy и Alembic; разработал внутреннюю систему контроля доступа для приложения Superset; разработал пакет Python3 airflow-redeploy, который упрощает процесс повторного развёртывания групп DAG через официальный REST API и плагин REST API.

Подробнее
E-commerce & Retail • FinTech & Banking • Government & Public Sector
КН
Кирилл Н.
Ростов-на-Дону
Data инженер
Middle+
3 896,1 Р/час
Ansible
Apache AirFlow
Astra Linux
Atlassian
Bash
Bitbucket
Cassandra
Celery
CI/CD
Docker
+66

Кирилл — data-инженер из Ростова-на-Дону. Обладает опытом работы на проектах в сферах FinTech & Banking, Government & Public Sector и E-commerce & Retail. На проекте для компании из сферы FinTech & Banking занимался обработкой больших объёмов информации, анализом данных, разработкой дата-пайплайнов и организацией data quality. Использовал Python, bash, Hadoop, Greenplum, PL/pgSQL, Atlassian, Jupyter, Hue, Hive, Airflow, Superset, Power Bi, PySpark, Pandas, PyArrow. Для государственной компании разрабатывал детальный слой и строил витрины, писал пайплайны по доставке и обработке данных. Использовал Python, Apache Airflow, Git, Posgresql. В качестве python-разработчика для госструктуры создавал скрипты для автоматизации бизнес-процессов и администрирования оборудования, а также писал процедуры для баз данных. В работе использовал Python, Bash, FastAPI, Sqlalchemy, ansible, postman, Git, pgsql, Linux, Docker, Prometheus, Grafana и др. Опыт работы на позиции python-разработчика включал аналитику данных и контроль data quality, разработку скриптов по автоматизации и эксплуатацию измерительной техники. Использовал Python, bash, MySQL, Postgresql, Astra Linux, SecretNet. На последнем месте работы в сфере E-commerce & Retail занимался интеграцией реляционных и нереляционных источников, настройкой мониторинга и алертинга, нормализацией и очисткой данных. Работал со стеком из MongoDB, Postgres, S3, YandexCloud, Greenplum, Python, SQL, Ni-Fi, Airflow, Kafka, k8s, Jenkins, Github, ELK, Grafana, Vault.

Подробнее

Недавно просмотренные специалисты

E-commerce & Retail • Information Security • Manufacturing
ДН
Дмитрий Н.
Челябинск
1С эксперт
Senior
5 137,9 Р/час
pm
1C:Бухгалтерия предприятия
Работа с интеграциями
1С:Управление торговлей
Контроль сроков
расчет
Разработка
Программное обеспечение
ERP
БП
+28

Компетенции • Опыт работы с 1С: Предприятие 8.3 – 21 год. • Опыт работы в проектной команде (работа по ТЗ, хранилище конфигураций, работа с различным трекерами задач). • Опыт организации обменов между различными информационными системами. • Доработка типовых правил 1С: Конвертация данных 2.0, 3.0 • Опыт работы с web и http сервисами. • Знания и навыки описания бизнес процессов компании. • Написание ТЗ, инструкций пользователям, работа на проектах внедрения/сопровождения, работа с пользователями. • Опыт разработки и защиты архитектур решений, навыки визуализации архитектурных решений. • Знание стандартов разработки 1С, БСП, СКД, управляемых форм, механизма расширений и регламентных заданий, хорошие знания клиент серверного взаимодействия. • Оптимизация высоконагруженных систем на базе 1С • Знания бизнес-процессов по управленческому, производственному, финансовому, кадровому и бухгалтерскому учету.

Подробнее