СГ
Сергей Г.
Мужчина, 33 года
Россия, Москва, UTC+3
Ставка
3 789,2 Р/час
вкл. НДС 5% (140.48 Р)
Специалист доступен с 15 октября 2025 г.
Добавьте подходящих специалистов в список и оформите заявку для предварительного бронирования времени специалистов. После оформления заявки ваш персональный менеджер организует прохождение всех необходимых проверок с вами и каждым кандидатом из заявки. Специалист привлекается к проекту только после окончательного подтверждения его выхода с вашей стороны.
Подробнее
О специалисте
Специализация
Аналитик DWH
Грейд
Навыки
Отрасли
Главное о специалисте
Сергей — аналитик DWH уровня Senior из Москвы с опытом работы в отраслях E-commerce & Retail и FinTech & Banking. Специализируется на работе с корпоративными хранилищами данных. Имеет опыт в создании и развитии витрин данных, анализе существующих хранилищ, разработке алгоритмов формирования прототипов витрин данных и постановке задач на разработку и доработку витрин.
Участвовал в проекте по созданию витрин данных для аналитики клиентских взаимодействий, программ лояльности, поведенческих паттернов и показателей вовлечённости в отрасли E-commerce & Retail. В рамках проекта реализовал логику определения любимого магазина клиента и создал витрину с историчностью данных по СКД-2.
Также имеет опыт работы в качестве ведущего аналитика качества данных, где занимался сбором и формализацией бизнес-требований по контролю качества данных, разработкой SQL-скриптов для Data Quality Checks, написанием технических заданий и постановкой задач для разработчиков DWH.
Ключевые навыки:
Аналитика и проектирование данных:
• Построение и доработка витрин данных под аналитические задачи;
• Работа с моделями данных на основе архитектуры Data Vault 2.0;
• Анализ и оптимизация моделей хранилищ;
• Разработка SQL-прототипов витрин, тестирование и контроль бизнес-логики;
• Проведение ad-hoc аналитики и подготовка выгрузок по запросам бизнеса;
• Сбор и формализация требований от заказчиков, написание ТЗ для разработчиков DWH.
Контроль и качество данных:
• Проведение функциональных тестирований
• Анализ инцидентов и ошибок загрузки данных в DWH;
Инструменты и технологии:
• SQL / pgSQL;
• Greenplum, Hadoop, Hive, Oracle, PostgreSQL;
• Airflow, DBT;
• GitLab, Jira, Confluence
• Python
Проекты
(5 лет 2 месяца)
Команда занималась созданием и развитием витрин данных для аналитики клиентских взаимодействий, программ лояльности, поведенческих паттернов и показателей вовлеченности.
Роль
Аналитик DWH
Обязанности
Основные задачи и обязанности:
• Разработка алгоритмов формирования прототипов витрин данных.
• Постановка задач на разработку и доработку витрин.
• Разработка и доработка витрин данных для клиентской аналитики.
• Анализ существующего хранилища (ядро на Data Vault 2.0) и его структуры.
• Уточнение и доработка требований к корпоративному хранилищу данных.
• Сбор и анализ требований для дашбордов BI-систем.
• Подготовка технических заданий (ТЗ) для разработчиков
• Написание простых запросов для проверки корректности данных и выгрузок.
• Постановка задач разработчикам на перенос или копирование данных из Greenplum в Hadoop.
• Проверка корректности переноса данных после выполнения задачи разработчиком.
• Выполнение Ad-hoc запросов и аналитических выгрузок.
• При необходимости - внесение изменений в модель данных для корректной доработки витрин.
• Разработка SQL-прототипов витрин для первичной и регламентной загрузки (два отдельных скрипта).
• Передача прототипов разработчикам, которые оборачивали их в DBT и раскатывали через Airflow.
• Тестирование результата: проверка корректности загрузок, сравнение с требованиями, контроль бизнес-логики
Проведение ad-hoc аналитики по запросам бизнеса: поиск данных, объяснение логики расчётов, источников, взаимосвязей и причин расхождений.
• Поддержка коммуникации с бизнесом по вопросам хранилища на ядре Data Vault 2.0 ответы на вопросы из серии «где взять эти данные», «почему так отображается», «что означает это поле».
Ключевая реализованная задача: создание витрины с историчностью данных по СКД-2, которая позволяла отслеживать изменения набора “любимых магазинов” клиентов во времени.
• Реализовал логику определения любимого магазина клиента.
• Витрина позволяла анализировать изменения предпочтений клиентов по временным периодам (например, сентябрь-ноябрь - один набор любимых магазинов, ноябрь-январь - другой).
• Охватывала все торговые сети
• Задача была сложной как с точки зрения аналитической логики (определение критериев любимого магазина), так и с точки зрения согласования с бизнесом и построения модели данных.
Команда: 4 аналитика, 2 BI-разработчика, 2 разработчика DWH, руководитель направления.
Стек специалиста на проекте
SQL, Python, Hive, Hadoop, GreenPlum, Apache AirFlow, DBT, Data Vault 2.0
Отрасль проекта
E-commerce & Retail
Период работы
Сентябрь 2024 - По настоящее время
(1 год 2 месяца)
Проект был направлен на обеспечение контроля качества данных (Data Quality) в корпоративном хранилище данных. Задача команды - разработка, автоматизация и сопровождение проверок качества данных.
Роль
Ведущий аналитик качества данных
Обязанности
Основные задачи и обязанности:
• Сбор и формализация бизнес-требований по контролю качества данных.
• Разработка SQL-скриптов для Data Quality Checks:
o контроль валидности значений (например, > 0),
o проверка форматов,
o логические проверки между таблицами.
• Написание технических заданий и постановка задач для разработчиков DWH.
• Реализация и автоматизация проверок через DBT и Airflow.
• Анализ инцидентов и причин отклонений данных в КХД, подготовка предложений по устранению ошибок.
• Взаимодействие с бизнес-аналитиками, администраторами и разработчиками.
Особенности проекта: выполнял полный цикл задач - от аналитики и разработки до внедрения и тестирования.
Стек специалиста на проекте
PostgreSQL, SQL, Python, Hadoop, Apache AirFlow, DBT
Отрасль проекта
FinTech & Banking
Период работы
Март 2024 - Сентябрь 2024
(7 месяцев)
Проект по мониторингу качества данных и контролю корректности загрузок в корпоративное хранилище. Хранилище находилось в процессе миграции с Oracle на Hadoop.
Роль
Аналитик
Обязанности
Основные задачи:
• Проверка корректности загрузок данных в DWH.
• Использование готовых SQL-скриптов для ручных проверок и верификации данных.
• Анализ причин ошибок и сбоев в ETL-цепочке.
• Контроль совпадений данных между источниками и витринами.
• Взаимодействие с источниками и потребителями данных при обнаружении ошибок.
• Участие в миграции данных с Oracle
Достижения
• Получил практический опыт в анализе и сопровождении ETL-процессов.
• Освоил методы анализа причин инцидентов и улучшил навыки SQL.
• Участвовал в переносе данных на новую платформу.
Стек специалиста на проекте
SQL, Oracle, Bitbucket, Informatica, Hive, Hadoop
Отрасль проекта
FinTech & Banking
Период работы
Декабрь 2022 - Март 2024
(1 год 4 месяца)
Формат работы
Тип занятости
Фулл-тайм
Формат работы
Удаленно
Командировки
Не готов
Релокация
Не готов
Готов работать на зарубежных проектах
Нет
Образование
Высшее
Учебное заведение
Национальный исследовательский ядерный университет «МИФИ»
Специальность
Лазерная физика
Завершение учебы
2018 г.