Ольга А. ETL разработчик, Senior

ID 25121
ОА
Ольга А.
Женщина
Россия, Смоленск, UTC+3
Ставка
4 161,7 Р/час
вкл. НДС 5% (154.29 Р)
Специалист доступен с 20 июня 2025 г.

Добавьте подходящих специалистов в список и оформите заявку для предварительного бронирования времени специалистов. После оформления заявки ваш персональный менеджер организует прохождение всех необходимых проверок с вами и каждым кандидатом из заявки. Специалист привлекается к проекту только после окончательного подтверждения его выхода с вашей стороны.

Подробнее
О специалисте
Специализация
ETL разработчик
Грейд
Senior
Навыки
aks
Analytics
Apache AirFlow
Apache NiFi
Apache Spark
Apache Superset
AWS
Azure
Azure SQL
Bash scripting
Bitbucket
blob
CI/CD
cloud
CloudWatch
cognos
Cosmos DB
Data Lake
datastage
DevOps
Docker
Docker Compose
DynamoDB
EC2
etc
Framework
Git
GitHub
GitLab
GreenPlum
IBM
IBM DB2
Java
Jenkins
Kubernetes
Lambda
Liquibase
Microsoft
MongoDB
MySQL
Numpy
Oracle
Pandas
PostgreSQL
Power BI
PySpark
Python
S3
Snowflake
SQL
Storage
Synapse
vm
Базы данных
Облачные технологии
системы контроля версий
технологии
языки программирования
Отрасли
E-commerce & Retail
Знание языков
Английский — B2
Главное о специалисте
Ольга — опытный ETL-разработчик уровня Senior из Смоленска. Специализируется на создании хранилищ данных и решений для ETL, имеет опыт работы с различными инструментами и технологиями, включая Apache AirFlow, Apache NiFi, AWS, Azure, Docker, Kubernetes и другие. Принимала участие в проектах: - Создание надёжного хранилища данных (DWH) и решения для ETL с целью поддержки программы лояльности Goodyear. - Разработка многофункциональной облачной платформы управления данными. - Создание комплексных решений для отчётности, хранилищ данных (DWH) и бизнес-аналитики (BI) для заинтересованных сторон IBM. - Разработка платформы аналитики в реальном времени для розничных компаний.
Проекты   (6 лет 7 месяцев)
Проект сосредоточен на создании надёжного хранилища данных (DWH) и решения для ETL с целью поддержки программы лояльности Goodyear.
Роль
ETL разработчик
Обязанности
Проект Проект сосредоточен на создании надёжного хранилища данных (DWH) и решения для ETL с целью поддержки программы лояльности Goodyear. Система упростила сбор данных о продажах из различных источников, обеспечив точные расчёты бонусов и их начисление для участников программы лояльности. Эта инициатива улучшила доступность данных, их точность и операционную эффективность в управлении программой лояльности. Обязанности и достижения: ● Разработка оптимизированных моделей данных в Snowflake на основе Anchor-моделирования и принципов Data Vault 2.0 для поддержки аналитики программы лояльности ● Проектирование и реализация пайплайнов с использованием Apache NiFi и Apache Airflow для извлечения, трансформации и загрузки данных в Snowflake и платформу 360insights. ● Интеграция данных из нескольких источников, обеспечение их бесперебойного потока и трансформации. ● Использование DynamoDB для хранения транзакционных данных с высокой скоростью, таких как начисление бонусов в реальном времени и активность клиентов. ● Мониторинг и оптимизация производительности запросов в Snowflake. ● Подготовка наборов данных и разработка отчётов в MyMeta. ● Реализация проверки и контроля качества данных на различных этапах ETL-пайплайнов. ● Использование PySpark для обработки больших объёмов данных в ETL-пайплайнах, повышение производительности и масштабируемости обработки данных. ● Автоматизация повторяющихся задач обработки данных с помощью Apache Airflow. ● Создание детальных технических проектных документов, описывающих процессы работы с данными, архитектуру системы и инфраструктуру, для обеспечения ясности при дальнейшем развитии и сопровождении. ● Сотрудничество с межфункциональными командами для согласования решений по обработке данных с бизнес-целями. ● Использование сервисов AWS, включая S3 для хранения и Lambda для бессерверных вычислений, для создания масштабируемых и надёжных решений. ● Управление версиями DWH‑схем в Snowflake с помощью Liquibase и нормализация данных. ● Проведение тестирования системы для соответствия всем техническим и бизнес-требованиям. ● Проектирование функций обработки данных с использованием Lambda. ● Разработка хранимых процедур и функций на PL/PgSQL для валидации и трансформации данных перед загрузкой ● Настройка CI/CD-конвейеров с помощью GitLab CI/CD, автоматизация тестирования и развертывания компонентов ETL. ● Разработка панелей мониторинга и инструментов с использованием Apache Superset, предоставляющих дополнительные аналитические возможности для бизнеса.
Стек специалиста на проекте
Apache Superset, MyMeta, AWS, Liquibase, DevOps, Bitbucket, Apache NiFi, S3, PL/pgSQL, Snowflake, PySpark, SQL, Python, etc, Lambda, DynamoDB, GitLab CI/CD, Apache AirFlow, PostgreSQL
Отрасль проекта
E-commerce & Retail
Период работы
Июнь 2024 - По настоящее время  (1 год 1 месяц)
Многофункциональная облачная платформа управления данными
Роль
Data Engineer
Обязанности
Проект Многофункциональная облачная платформа управления данными, объединяющая все ключевые возможности работы с данными, включая хранение, выполнение запросов, оркестрацию задач, мониторинг и создание отчетов. Платформа обеспечивает бесшовное управление структурированными и неструктурированными данными, поддерживала продвинутую аналитику и обработку данных в реальном времени. Обязанности и достижения: ● Сотрудничество с бизнес-аналитиками и архитекторами данных для согласования моделей данных (“звезда”, “снежинка”), бизнес-требований и архитектуры данных. ● Проведение профилирования данных и анализа для обеспечения их точности, полноты и согласованности. ● Настройка Azure Blob Storage для эффективного хранения данных. ● Конфигурация Data Lake. ● Интеграция пайплайнов с Azure Synapse Analytics, PostgreSQL и MongoDB для всестороннего анализа данных. ● Использование CosmosDB для управления метаданными и улучшенного управления данными. ● Проектирование ETL-конвейеров для трансформации и загрузки крупных наборов данных в хранилище данных. ● Использование PySpark для распределённой обработки данных и эффективной обработки больших объёмов данных. ● Применение Pandas и NumPy для очистки данных, трансформации и детального анализа меньших наборов данных. ● Автоматизация ETL-рабочих процессов с помощью Apache Airflow, обеспечивающая бесшовную трансформацию данных и их загрузку в хранилище данных. ● Развёртывание контейнеризированных приложений на кластерах Azure Kubernetes Service (AKS) для обеспечения масштабируемой и отказоустойчивой инфраструктуры. ● Управление развёртыванием Apache Airflow и Apache Superset в кластерах Kubernetes с использованием Helm. ● Интеграция Apache Superset с Azure Synapse Analytics для создания интерактивных панелей и отчетов. ● Построение аналитических конвейеров для генерации полезных инсайтов и улучшения процессов принятия решений. ● Использование Azure Virtual Machines для дополнительных вычислительных ресурсов и ресурсов хранения для работы со сложными рабочими нагрузками. ● Автоматизация развёртывания инфраструктуры с использованием Docker и Kubernetes для повышения масштабируемости и надёжности. ● Создание и оптимизация сложных SQL-запросов. ● Настройка решений для резервного копирования SQL-баз данных. ● Выполнение проверок качества данных, включая создание тест-кейсов и контрольных списков. ● Организация и настройка систем и объектов баз данных для максимальной эффективности и функциональности. ● Проведение исследовательского анализа данных и их нормализация.
Стек специалиста на проекте
Apache Superset, Synapse, GitLab, blob, Numpy, Data Lake, Pandas, MongoDB, Analytics, Storage, Cosmos DB, PySpark, Docker, Python, Apache AirFlow, Azure, aks, Kubernetes
Отрасль проекта
E-commerce & Retail
Период работы
Декабрь 2022 - Май 2024  (1 год 6 месяцев)
Проект направлен на создание комплексных решений для отчетности, хранилищ данных (DWH) и бизнес-аналитики (BI) для заинтересованных сторон IBM
Роль
Data Engineer
Обязанности
Проект Проект направлен на создание комплексных решений для отчетности, хранилищ данных (DWH) и бизнес-аналитики (BI) для заинтересованных сторон IBM. Система упростила обработку данных и рабочие процессы отчетности за счёт интеграции инструментов продвинутой аналитики, что улучшило процесс принятия решений и операционную эффективность. Разработка велась в соответствии с методологией Agile для обеспечения итеративного улучшения и соответствия требованиям заинтересованных сторон. Обязанности и достижения: ● Разработка и создание интерактивных отчетов с использованием IBM Cognos Analytics для предоставления аналитики заинтересованным сторонам. ● Построение и поддержка моделей данных с использованием IBM Cognos Framework Manager, что обеспечило их согласованность и масштабируемость. ● Сотрудничество с разработчиками моделей данных для проектирования и оптимизации физической модели данных. ● Создание и документирование ETL-процессов для обеспечения бесперебойного потока данных и интеграции между различными системами. ● Проектирование процессов извлечения и трансформации данных на основе SQL для поддержки миграции систем и инициатив по обеспечению качества данных. ● Подготовка технической документации, описывающей процессы ETL, архитектурные решения и рабочие процессы поддержки для дальнейшего сопровождения. ● Участие в проектировании и реализации DevOps-пайплайнов, включая непрерывную интеграцию, автоматизированное развертывание и тестирование. ● Мониторинг и устранение неполадок в IBM DataStage и Jenkins, обеспечение их бесперебойной работы. ● Проведение детального анализа данных для выявления несоответствий между ожидаемыми и фактическими результатами. ● Настройка Docker Compose для упрощения развертывания приложений и компонентов ETL. ● Интеграция PostgreSQL для хранения промежуточных наборов данных, используемых в рабочих процессах отчетности. ● Использование Kubernetes для оркестрации контейнеров, что обеспечило надёжность и масштабируемость системы. ● Применение AWS S3 для резервного копирования и долговременного хранения данных. ● Анализ первопричин дефектов, связанных с данными, и внедрение эффективных решений для обеспечения их целостности. ● Поддержка клиентов IBM через платформу ServiceNow, предоставление решений для технических запросов и вызовов. ● Работа в тесном сотрудничестве с глобальной командой для согласования результатов проекта и обеспечения бесперебойной коммуникации между командами.
Стек специалиста на проекте
ServiceNow, cognos, datastage, GitHub, DB2, Analytics, IBM, cloud, AWS S3, Docker Compose, Python, Apache AirFlow, PostgreSQL, Framework, Jenkins, Kubernetes
Отрасль проекта
E-commerce & Retail
Период работы
Июнь 2021 - Декабрь 2022  (1 год 7 месяцев)
Формат работы
Тип занятости
Фулл-тайм
Формат работы
Удаленно
Командировки
Не готов
Релокация
Не готов
Готов работать на зарубежных проектах
Нет
Образование
Высшее
Учебное заведение
БГУИР
Специальность
Степень бакалавра в области компьютерных наук
Завершение учебы
2020 г.

Похожие специалисты

E-commerce & Retail • FinTech & Banking
СА
Сергей А.
Санкт-Петербург
ETL разработчик
Middle+
3 339,64 Р/час
Apache AirFlow
Apache Hadoop
Bash
Confluence
Docker
GitHub
GitLab
Jira
JupyterNoteBook
Matplotlib
+45

Опыт работы с SQL на уровне продвинутых запросов (оконные функции, условные операторы выбора, джоины, CTE, функции, процедуры, транзакции); Работа с реляционными БД: PostgreSQL, Greenplum. Ограничения, индексы, PXF и т.д.; Разработка и оптимизация функций и процедур по переносу данных из stg слоя в слой dds; Работа с DWH (схемы построения, нормализация/денормализация, SCD, построение витрин данных); Настройка интеграции Greenplum и ClickHouse для реализации аналитических запросов; Участие в создании ETL\ELT процессов; Работа с Apache Airflow; Проведение очистки и обработки данных используя Python, pandas, PySpark; Задачи AD-hoc аналитики; Визуализация данных в Tableau, Metabase, Python, Excel, анализ результатов; Документирование процессов и архитектуры решений в Confluence;

Подробнее

Недавно просмотренные специалисты