Сергей А. ETL разработчик, Middle+

ID 22816
СА
Сергей А.
Мужчина, 29 лет
Россия, Санкт-Петербург, UTC+3
Ставка
3 339,64 Р/час
вкл. НДС 5% (123.81 Р)
Специалист доступен с 29 апреля 2025 г.

Добавьте подходящих специалистов в список и оформите заявку для предварительного бронирования времени специалистов. После оформления заявки ваш персональный менеджер организует прохождение всех необходимых проверок с вами и каждым кандидатом из заявки. Специалист привлекается к проекту только после окончательного подтверждения его выхода с вашей стороны.

Подробнее
О специалисте
Специализация
ETL разработчик
Грейд
Middle+
Навыки
Apache AirFlow
Apache Hadoop
Bash
Confluence
Docker
GitHub
GitLab
Jira
JupyterNoteBook
Matplotlib
metabase
Numpy
Pandas
PySpark
Tableau
Python
SQL
Linux
MS Windows
ClickHouse
GreenPlum
Hive
PostgreSQL
Git
ETL
DBT
dag
Microsoft
MS SQL
Nginx
Table
url
engine
dictionary
array
arrayjoin
Hadoop
Oracle
Power BI
CI/CD
datastage
IBM
Informatica
SAS
SqlHints
Отрасли
E-commerce & Retail
FinTech & Banking
Главное о специалисте
Опыт работы с SQL на уровне продвинутых запросов (оконные функции, условные операторы выбора, джоины, CTE, функции, процедуры, транзакции); Работа с реляционными БД: PostgreSQL, Greenplum. Ограничения, индексы, PXF и т.д.; Разработка и оптимизация функций и процедур по переносу данных из stg слоя в слой dds; Работа с DWH (схемы построения, нормализация/денормализация, SCD, построение витрин данных); Настройка интеграции Greenplum и ClickHouse для реализации аналитических запросов; Участие в создании ETL\ELT процессов; Работа с Apache Airflow; Проведение очистки и обработки данных используя Python, pandas, PySpark; Задачи AD-hoc аналитики; Визуализация данных в Tableau, Metabase, Python, Excel, анализ результатов; Документирование процессов и архитектуры решений в Confluence;
Проекты   (3 года 2 месяца)
Разработка системы по отслеживанию фрода
Роль
ETL Разработчик / Data Engineer
Обязанности
Описание проекта В рамках проекта реализована многоуровневая аналитическая модель для автоматической классификации транзакций на основе исторических данных и актуальных паттернов, что позволило значительно сократить случаи мошенничества и повысить точность ML модели детекции. Состав команды 1 PM, 2 SA, 1 DevOps, 7 DE Технологии на проекте Python, SQL, PostgreSQL, Greenplum, PySpark, ClickHouse, Apache Hadoop (HDFS), Apache Airflow Задачи/реализованный функционал В рамках проекта была разработана и внедрена многоуровневая аналитическая модель для автоматической классификации транзакций на основе исторических данных и актуальных паттернов. Основной задачей было сокращение случаев мошенничества и повышение точности ML-модели детекции. Для этого были выполнены следующие ключевые задачи: Настройка процессов ELT (Extract, Load, Transform): Разработаны скрипты и настроены пайплайны для автоматического сбора данных из HDFS (Hadoop Distributed File System) и их подготовки для анализа. Созданы слои stg (staging) и dds (detail data store) в хранилище данных для сбора и первичной обработки данных. В слое dds реализована обработка пропусков, аномалий и повторов транзакций с сохранением историчности данных (SCD — Slowly Changing Dimensions). Работа с архитектурой Data Vault: Применена архитектура Data Vault для построения гибкого и масштабируемого хранилища данных. Были разработаны: Хабы для хранения уникальных идентификаторов сущностей. Линки для описания связей между сущностями. Сателлиты для хранения атрибутов и исторических изменений данных. Создание продуктовых витрин: На основе модели Data Vault разработаны витрины данных для аналитики мошеннических транзакций: Слой CDM (Common Data Model): Созданы витрины для агрегации данных из различных источников, включая данные о транзакциях, клиентах и их поведении. Слой DM (Data Mart): Разработаны витрины для конечных пользователей, включая аналитиков и бизнес-подразделения. Витрины содержали ключевые метрики, такие как количество подозрительных транзакций, средний размер ущерба и время реакции на инциденты. Витрины были интегрированы с инструментами визуализации (Tableau, Metabase). Интеграция Greenplum и ClickHouse: Настроены внешние таблицы в Greenplum, которые подключались к данным в HDFS. Разработаны скрипты обработки данных на Python/PySpark для автоматизации процессов. Оркестрация ETL-процессов выполнена с использованием Apache Airflow, что позволило создать автоматизированный пайплайн для регулярной обработки и передачи данных из внешних источников во внутреннее хранилище. Оптимизация и анализ данных: Проведена очистка и обработка данных с использованием Python, Pandas и PySpark. Реализованы задачи ad-hoc аналитики для оперативного анализа подозрительных транзакций. Визуализация данных выполнена в Tableau и Metabase. Детальная проработка требований по метрикам: Проведен анализ требований заказчика к метрикам, используемым для детекции мошенничества. Уточнены и согласованы алгоритмы расчета ключевых метрик, таких как частота подозрительных транзакций, точность модели машинного обучения и время реакции на инциденты. Миграция с oracle на greenplum. Результаты: Создан автоматизированный пайплайн обработки данных, который сократил время обработки стандартного пакета транзакций на 11%. Повышена точность ML-модели детекции мошенничества за счет использования обогащенных данных и историчности. Предоставлены детализированные аналитические отчеты, которые позволили бизнесу оперативно реагировать на подозрительные активности.
Стек специалиста на проекте
ClickHouse, Oracle, Apache Hadoop, HDFS, PySpark, SQL, Python, GreenPlum, Apache AirFlow, PostgreSQL
Отрасль проекта
FinTech & Banking
Период работы
Ноябрь 2023 - По настоящее время  (1 год 6 месяцев)
Разработка и поддержка витрины данных с инкрементальным обновлением
Роль
Data Engineer / Data Analyst
Обязанности
Описание проекта Требовалось создать и поддерживать обновляемую витрину данных из нескольких источников для проведения аналитики продаж группы интернет-магазинов. Технологии на проекте Python, SQL, PostgreSQL, Apache Airflow, Metabase, Docker Задачи/реализованный функционал Разработал схему хранилища данных для хранения и анализа данных из различных источников в рамках группы интернет-магазинов. Разработал скрипты по загрузке данных в первичный stg слой с использованием Python, а затем по обработке и загрузке данных в dds слой с помощью SQL скриптов. Настроил инкрементальное обновление витрины. Упаковал и автоматизировал весь ETL пайплайн в Airflow. Настроил визуализацию с помощью Metabase. Обеспечивал поддержку и техническое сопровождение. В результате собственник получил консолидированную информацию о продажах, остатках, что позволило просчитать unit-экономику, избавиться от нерентабельных позиций, оптимизировать ценообразование, сократить время на закупки.
Стек специалиста на проекте
SQL, Docker, Python, metabase, Apache AirFlow, PostgreSQL
Отрасль проекта
E-commerce & Retail
Период работы
Март 2022 - Октябрь 2023  (1 год 8 месяцев)
Формат работы
Тип занятости
Фулл-тайм
Формат работы
Удаленно
Командировки
Не готов
Релокация
Не готов
Готов работать на зарубежных проектах
Нет
Образование
Высшее
Учебное заведение
Национальный исследовательский университет информационных технологий, механики и оптики (Университет ИТМО), Санкт-Петербург СУиР (КТУ),
Специальность
Электроэнергетика и электротехника
Завершение учебы
2017 г.
Высшее
Учебное заведение
Национальный исследовательский университет информационных технологий, механики и оптики (Университет ИТМО), Санкт-Петербург СУиР (КТУ)
Специальность
Электроэнергетика и электротехника
Завершение учебы
2019 г.

Похожие специалисты

E-commerce & Retail • FinTech & Banking • HRTech • Manufacturing
ДН
Давид Н.
Ростов-на-Дону
ETL разработчик
Senior
3 896,1 Р/час
ClickHouse
Docker
Git
GreenPlum
Hadoop
Informatica
PostgreSQL
Python
Django
SQL
+37

Data-инженер с опытом работы в проектах для отраслей FinTech & Banking, HRTech, E-commerce & Retail и Manufacturing. На проекте «Омниканальность» занимался проектированием и реализацией интеграционных потоков, работал с Oracle 19c, Kafka, Informatica PWC, Airflow, Spark, GreenPlum, PostgreSQL, Python, Hive и ClickHouse. В рамках проекта по построению аналитического хранилища по схеме DataVault создавал, поддерживал и обслуживал веб-сервер на YandexCloud и проектировал базу данных на PostgreSQL. Для проекта «Построение аналитических панелей» готовил витрины данных и формировал аналитическую отчётность. Во время проекта для Mosgiprotransmos проектировал и поддерживал базу данных (PostgreSQL) и интеграционный поток (Python+Airflow), работал с Yandex Cloud, SQL, Python, Clickhouse, Object Storage, Yandex Functions и bash.

Подробнее

Недавно просмотренные специалисты

E-commerce & Retail • FinTech & Banking
СА
Сергей А.
Санкт-Петербург
ETL разработчик
Middle+
3 339,64 Р/час
DBT
GitLab
MS Windows
datastage
arrayjoin
ClickHouse
Informatica
Numpy
Hive
Bash
+45

Опыт работы с SQL на уровне продвинутых запросов (оконные функции, условные операторы выбора, джоины, CTE, функции, процедуры, транзакции); Работа с реляционными БД: PostgreSQL, Greenplum. Ограничения, индексы, PXF и т.д.; Разработка и оптимизация функций и процедур по переносу данных из stg слоя в слой dds; Работа с DWH (схемы построения, нормализация/денормализация, SCD, построение витрин данных); Настройка интеграции Greenplum и ClickHouse для реализации аналитических запросов; Участие в создании ETL\ELT процессов; Работа с Apache Airflow; Проведение очистки и обработки данных используя Python, pandas, PySpark; Задачи AD-hoc аналитики; Визуализация данных в Tableau, Metabase, Python, Excel, анализ результатов; Документирование процессов и архитектуры решений в Confluence;

Подробнее
E-commerce & Retail • FinTech & Banking • Hardware
МК
Максим К.
Москва
DWH разработчик
Middle
2 987,01 Р/час
database
MapReduce
Data Visualization
mpp
GitLab
MS Windows
Data Warehouse
python 3.10
Реляционные БД
Numpy
+32

Максим — DWH-разработчик уровня Middle из Москвы. Опыт работы: - Data engineer в Сбербанке (FinTech & Banking). Занимался проектированием и разработкой процессов преобразования данных (ETL) для DWH, работал с MPP Greenplum, оптимизировал SQL-запросы. - Data Engineer в GlowByte Consulting (E-commerce & Retail). Выполнял задачи по проектированию и разработке ETL-процессов для DWH. - Product Manager (IIoT) в Schuler Pressen GmbH Представительство в РФ (Hardware). Участвовал в разработке СУБД ORACLE PL/SQL для промышленного оборудования, занимался установкой и настройкой PostgreSQL и ClickHouse. Реализовал крупный инвестиционный проект, участвовал в проекте «Промышленный интернет вещей (IIoT)» и реализовал проект по оснащению IIoT промышленного металлообрабатывающего оборудования.

Подробнее
LifeStyle
ГР
Гатауллин Р.
Казань
Data инженер
Senior
5 844,15 Р/час
.Net 4.0
Управление командой
Проектирование БД
AWS
GitLab
Обучение
Базы данных
Spark
Amazon S3
Hive
+61

- Data Engineer с опытом работы с распределенными системами обработки данных более 9 лет; - Глубокие знания проектирования, внедрения и сопровождения ETL-процессов с нуля; - Практический опыт управления командой и управления продуктом; - Кандидат наук (= PhD в России) в области компьютерных наук. Опытный инженер данных Создал платформу данных с нуля. Из языков программирования — преимущественно Python, преимущественно SQL, Sparks, Scala. из облачных сервисов AWS — создание некоторой инфраструктуры, GCP — 5 мес. опыта. Инструменты управления — Docker-Master of Docker, Kubernetes — создает инфраструктуру воздушного потока. Базы данных: PostgreSQL, Redis-как брокер сообщений, Из отраслей-маркетинг, продажи, финтех Опыт работы в НЛП, ML-знает концепцию, работал руководителем группы, также работал специалистом по данным в Data Analyst.

Подробнее
E-commerce & Retail • FinTech & Banking • LifeStyle • Urban technology
КК
Кирилл К.
Екатеринбург
Data Scientist
Middle+
5 844,15 Р/час
NVidia
OpenCV
MySQL5
tensor
Программное обеспечение
robin
pymc
lightweightmmm
Tensorflow
ClickHouse
+38

Кирилл — опытный специалист в области Data Science с грейдом Middle+. Он обладает широким спектром навыков, включая работу с Docker, Flow.js, Linux, ML, MLOps, Numpy, NVidia, OpenCV, Pandas, Python, PyTorch, Scikit-learn, Spark, SQL, Tensor, Tensorflow и другими инструментами. Кирилл имеет опыт работы на проектах в различных отраслях, таких как лайфстайл, электронная коммерция и ритейл, финтех и банкинг, а также городские технологии. Он принимал участие в разработке проектов для прогнозирования продаж товаров на маркетплейсах, создания приложения ассортимента компании, распознавания документов и других задач. На последнем месте работы Кирилл курировал реализацию крупных инвестиционных проектов по автоматизации энергетических объектов.

Подробнее