СА
Сергей А.
Мужчина, 29 лет
Россия, Санкт-Петербург, UTC+3
Ставка
3 339,64 Р/час
вкл. НДС 5% (123.81 Р)
Специалист доступен с 29 апреля 2025 г.
Добавьте подходящих специалистов в список и оформите заявку для предварительного бронирования времени специалистов. После оформления заявки ваш персональный менеджер организует прохождение всех необходимых проверок с вами и каждым кандидатом из заявки. Специалист привлекается к проекту только после окончательного подтверждения его выхода с вашей стороны.
Подробнее
О специалисте
Специализация
ETL разработчик
Грейд
Навыки
Отрасли
Главное о специалисте
Опыт работы с SQL на уровне продвинутых запросов (оконные функции, условные операторы выбора, джоины, CTE, функции, процедуры, транзакции);
Работа с реляционными БД: PostgreSQL, Greenplum. Ограничения, индексы, PXF и т.д.;
Разработка и оптимизация функций и процедур по переносу данных из stg слоя в слой dds;
Работа с DWH (схемы построения, нормализация/денормализация, SCD, построение витрин данных);
Настройка интеграции Greenplum и ClickHouse для реализации аналитических запросов;
Участие в создании ETL\ELT процессов;
Работа с Apache Airflow;
Проведение очистки и обработки данных используя Python, pandas, PySpark;
Задачи AD-hoc аналитики;
Визуализация данных в Tableau, Metabase, Python, Excel, анализ результатов;
Документирование процессов и архитектуры решений в Confluence;
Проекты
(3 года 2 месяца)
Разработка системы по отслеживанию фрода
Роль
ETL Разработчик / Data Engineer
Обязанности
Описание проекта
В рамках проекта реализована многоуровневая аналитическая модель для автоматической классификации транзакций на основе исторических данных и актуальных паттернов, что позволило значительно сократить случаи мошенничества и повысить точность ML модели детекции.
Состав команды
1 PM, 2 SA, 1 DevOps, 7 DE
Технологии на проекте
Python, SQL, PostgreSQL, Greenplum, PySpark, ClickHouse, Apache Hadoop (HDFS), Apache Airflow
Задачи/реализованный функционал
В рамках проекта была разработана и внедрена многоуровневая аналитическая модель для автоматической классификации транзакций на основе исторических данных и актуальных паттернов. Основной задачей было сокращение случаев мошенничества и повышение точности ML-модели детекции. Для этого были выполнены следующие ключевые задачи:
Настройка процессов ELT (Extract, Load, Transform):
Разработаны скрипты и настроены пайплайны для автоматического сбора данных из HDFS (Hadoop Distributed File System) и их подготовки для анализа.
Созданы слои stg (staging) и dds (detail data store) в хранилище данных для сбора и первичной обработки данных.
В слое dds реализована обработка пропусков, аномалий и повторов транзакций с сохранением историчности данных (SCD — Slowly Changing Dimensions).
Работа с архитектурой Data Vault:
Применена архитектура Data Vault для построения гибкого и масштабируемого хранилища данных. Были разработаны:
Хабы для хранения уникальных идентификаторов сущностей.
Линки для описания связей между сущностями.
Сателлиты для хранения атрибутов и исторических изменений данных.
Создание продуктовых витрин:
На основе модели Data Vault разработаны витрины данных для аналитики мошеннических транзакций:
Слой CDM (Common Data Model): Созданы витрины для агрегации данных из различных источников, включая данные о транзакциях, клиентах и их поведении.
Слой DM (Data Mart): Разработаны витрины для конечных пользователей, включая аналитиков и бизнес-подразделения. Витрины содержали ключевые метрики, такие как количество подозрительных транзакций, средний размер ущерба и время реакции на инциденты.
Витрины были интегрированы с инструментами визуализации (Tableau, Metabase).
Интеграция Greenplum и ClickHouse:
Настроены внешние таблицы в Greenplum, которые подключались к данным в HDFS.
Разработаны скрипты обработки данных на Python/PySpark для автоматизации процессов.
Оркестрация ETL-процессов выполнена с использованием Apache Airflow, что позволило создать автоматизированный пайплайн для регулярной обработки и передачи данных из внешних источников во внутреннее хранилище.
Оптимизация и анализ данных:
Проведена очистка и обработка данных с использованием Python, Pandas и PySpark.
Реализованы задачи ad-hoc аналитики для оперативного анализа подозрительных транзакций.
Визуализация данных выполнена в Tableau и Metabase.
Детальная проработка требований по метрикам:
Проведен анализ требований заказчика к метрикам, используемым для детекции мошенничества.
Уточнены и согласованы алгоритмы расчета ключевых метрик, таких как частота подозрительных транзакций, точность модели машинного обучения и время реакции на инциденты.
Миграция с oracle на greenplum.
Результаты:
Создан автоматизированный пайплайн обработки данных, который сократил время обработки стандартного пакета транзакций на 11%.
Повышена точность ML-модели детекции мошенничества за счет использования обогащенных данных и историчности.
Предоставлены детализированные аналитические отчеты, которые позволили бизнесу оперативно реагировать на подозрительные активности.
Стек специалиста на проекте
ClickHouse, Oracle, Apache Hadoop, HDFS, PySpark, SQL, Python, GreenPlum, Apache AirFlow, PostgreSQL
Отрасль проекта
FinTech & Banking
Период работы
Ноябрь 2023 - По настоящее время
(1 год 6 месяцев)
Разработка и поддержка витрины данных с инкрементальным обновлением
Роль
Data Engineer / Data Analyst
Обязанности
Описание проекта
Требовалось создать и поддерживать обновляемую витрину данных из нескольких источников для проведения аналитики продаж группы интернет-магазинов.
Технологии на проекте
Python, SQL, PostgreSQL, Apache Airflow, Metabase, Docker
Задачи/реализованный функционал
Разработал схему хранилища данных для хранения и анализа данных из различных источников в рамках группы интернет-магазинов. Разработал скрипты по загрузке данных в первичный stg слой с использованием Python, а затем по обработке и загрузке данных в dds слой с помощью SQL скриптов. Настроил инкрементальное обновление витрины. Упаковал и автоматизировал весь ETL пайплайн в Airflow. Настроил визуализацию с помощью Metabase. Обеспечивал поддержку и техническое сопровождение. В результате собственник получил консолидированную информацию о продажах, остатках, что позволило просчитать unit-экономику, избавиться от нерентабельных позиций, оптимизировать ценообразование, сократить время на закупки.
Стек специалиста на проекте
SQL, Docker, Python, metabase, Apache AirFlow, PostgreSQL
Отрасль проекта
E-commerce & Retail
Период работы
Март 2022 - Октябрь 2023
(1 год 8 месяцев)
Формат работы
Тип занятости
Фулл-тайм
Формат работы
Удаленно
Командировки
Не готов
Релокация
Не готов
Готов работать на зарубежных проектах
Нет
Образование
Высшее
Учебное заведение
Национальный исследовательский университет информационных технологий, механики и оптики (Университет ИТМО), Санкт-Петербург СУиР (КТУ),
Специальность
Электроэнергетика и электротехника
Завершение учебы
2017 г.
Высшее
Учебное заведение
Национальный исследовательский университет информационных технологий, механики и оптики (Университет ИТМО), Санкт-Петербург СУиР (КТУ)
Специальность
Электроэнергетика и электротехника
Завершение учебы
2019 г.