Ольга А. Data аналитик, Senior

ID 23066
ОА
Ольга А.
Женщина
Беларусь, Минск, UTC+3
Ставка
4 155,84 Р/час
НДС не облагается
Специалист доступен с 3 июля 2025 г.

Добавьте подходящих специалистов в список и оформите заявку для предварительного бронирования времени специалистов. После оформления заявки ваш персональный менеджер организует прохождение всех необходимых проверок с вами и каждым кандидатом из заявки. Специалист привлекается к проекту только после окончательного подтверждения его выхода с вашей стороны.

Подробнее
О специалисте
Специализация
Data аналитик
Грейд
Senior
Навыки
aks
Analytics
Apache AirFlow
Apache NiFi
Apache Spark
Apache Superset
AWS
Azure
Azure SQL
Bash scripting
Bitbucket
blob
CI/CD
cloud
CloudWatch
cognos
Cosmos DB
Data Lake
datastage
DevOps
Docker
Docker Compose
DynamoDB
EC2
etc
Framework
Git
GitHub
GitLab
IBM
IBM DB2
Java
Jenkins
Kubernetes
Lambda
Microsoft
MongoDB
MySQL
Numpy
Pandas
PostgreSQL
Power BI
PySpark
Python
S3
Snowflake
SQL
Storage
Synapse
vm
Базы данных
Отрасли
Cloud Services
E-commerce & Retail
Знание языков
Английский — B2
Главное о специалисте
● Отличные знания Python ● Написание сложных SQL-запросов ● Оптимизация запросов ● DWH-моделирование ● Разработка ETL/ELT-пайплайнов ● Облачные сервисы ● Устранение неполадок ● Опыт работы с инструментами DevOps
Проекты   (6 лет 8 месяцев)
DWH и решения для ETL
Роль
Data Engineer
Обязанности
Проект сосредоточен на создании надёжного хранилища данных (DWH) и решения для ETL с целью поддержки программы лояльности Goodyear. Система упростила сбор данных о продажах из различных источников, обеспечив точные расчёты бонусов и их начисление для участников программы лояльности. Эта инициатива улучшила доступность данных, их точность и операционную эффективность в управлении программой лояльности. ● Разработка оптимизированных моделей данных в Snowflake для поддержки программы лояльности. ● Проектирование и реализация пайплайнов с использованием Apache NiFi и Apache Airflow для извлечения, трансформации и загрузки данных в Snowflake и платформу 360insights. ● Интеграция данных из нескольких источников, обеспечение их бесперебойного потока и трансформации. ● Использование DynamoDB для хранения транзакционных данных с высокой скоростью, таких как начисление бонусов в реальном времени и активность клиентов. ● Создание, тестирование и развертывание моделей dbt для трансформации данных в Snowflake. ● Мониторинг и оптимизация производительности запросов в Snowflake. ● Подготовка наборов данных и разработка отчётов в MyMeta. ● Реализация проверки и контроля качества данных на различных этапах ETL-пайплайнов. ● Использование PySpark для обработки больших объёмов данных в ETL-пайплайнах, повышение производительности и масштабируемости обработки данных. ● Автоматизация повторяющихся задач обработки данных с помощью Apache Airflow. ● Создание детальных технических проектных документов, описывающих процессы работы с данными, архитектуру системы и инфраструктуру, для обеспечения ясности при дальнейшем развитии и сопровождении. ● Сотрудничество с межфункциональными командами для согласования решений по обработке данных с бизнес-целями. ● Использование сервисов AWS, включая S3 для хранения и Lambda для бессерверных вычислений, для создания масштабируемых и надёжных решений. ● Проведение тестирования системы для соответствия всем техническим и бизнес-требованиям. ● Проектирование функций обработки данных с использованием Lambda. ● Настройка CI/CD-конвейеров с помощью GitLab CI/CD, автоматизация тестирования и развертывания компонентов ETL. ● Разработка панелей мониторинга и инструментов с использованием Apache Superset, предоставляющих дополнительные аналитические возможности для бизнеса.
Стек специалиста на проекте
DBT, Apache Superset, MyMeta, AWS, DevOps, Bitbucket, Hadoop, Kafka, Apache NiFi, S3, Snowflake, PySpark, SQL, Python, etc, Lambda, DynamoDB, GitLab CI/CD, Apache AirFlow, PostgreSQL
Отрасль проекта
Cloud Services
Период работы
Июнь 2024 - По настоящее время  (1 год 2 месяца)
Многофункциональная облачная платформа управления данными
Роль
Data Engineer
Обязанности
Многофункциональная облачная платформа управления данными, объединяющая все ключевые возможности работы с данными, включая хранение, выполнение запросов, оркестрацию задач, мониторинг и создание отчётов. Платформа обеспечивает бесшовное управление структурированными и неструктурированными данными, поддерживала продвинутую аналитику и обработку данных в реальном времени. ● Сотрудничество с бизнес-аналитиками и архитекторами данных для согласования моделей данных, бизнес-требований и архитектуры данных. ● Проведение профилирования данных и анализа для обеспечения их точности, полноты и согласованности. ● Настройка Azure Blob Storage для эффективного хранения данных. ● Конфигурация Data Lake. ● Интеграция пайплайнов с Azure Synapse Analytics, PostgreSQL и MongoDB для всестороннего анализа данных. ● Использование CosmosDB для управления метаданными и улучшенного управления данными. ● Проектирование ETL-конвейеров для трансформации и загрузки крупных наборов данных в хранилище данных. ● Использование PySpark для распределённой обработки данных и эффективной обработки больших объёмов данных. ● Применение Pandas и NumPy для очистки данных, трансформации и детального анализа меньших наборов данных. ● Автоматизация ETL-рабочих процессов с помощью Apache Airflow, обеспечивающая бесшовную трансформацию данных и их загрузку в хранилище данных. ● Развёртывание контейнеризированных приложений на кластерах Azure Kubernetes Service (AKS) для обеспечения масштабируемой и отказоустойчивой инфраструктуры. ● Управление развёртыванием Apache Airflow и Apache Superset в кластерах Kubernetes с использованием Helm. ● Интеграция Apache Superset с Azure Synapse Analytics для создания интерактивных панелей и отчетов. ● Построение аналитических конвейеров для генерации полезных инсайтов и улучшения процессов принятия решений. ● Использование Azure Virtual Machines для дополнительных вычислительных ресурсов и ресурсов хранения для работы со сложными рабочими нагрузками. ● Автоматизация развёртывания инфраструктуры с использованием Docker и Kubernetes для повышения масштабируемости и надёжности. ● Создание и оптимизация сложных SQL-запросов. ● Настройка решений для резервного копирования SQL-баз данных. ● Выполнение проверок качества данных, включая создание тест-кейсов и контрольных списков. ● Организация и настройка систем и объектов баз данных для максимальной эффективности и функциональности. ● Проведение исследовательского анализа данных.
Стек специалиста на проекте
Apache Superset, Synapse, GitLab, blob, Numpy, Data Lake, Pandas, MongoDB, Analytics, Hadoop, Storage, Cosmos DB, PySpark, Docker, Python, Apache AirFlow, Azure, aks, Kubernetes
Отрасль проекта
Cloud Services
Период работы
Декабрь 2022 - Май 2024  (1 год 6 месяцев)
Комплексные решения для отчетности, хранилищ данных (DWH) и бизнес-аналитики (BI) для заинтересованных сторон IBM.
Роль
Data Engineer
Обязанности
Проект направлен на создание комплексных решений для отчетности, хранилищ данных (DWH) и бизнес-аналитики (BI) для заинтересованных сторон IBM. Система упростила обработку данных и рабочие процессы отчетности за счёт интеграции инструментов продвинутой аналитики, что улучшило процесс принятия решений и операционную эффективность. Разработка велась в соответствии с методологией Agile для обеспечения итеративного улучшения и соответствия требованиям заинтересованных сторон. ● Разработка и создание интерактивных отчетов с использованием IBM Cognos Analytics для предоставления аналитики заинтересованным сторонам. ● Построение и поддержка моделей данных с использованием IBM Cognos Framework Manager, что обеспечило их согласованность и масштабируемость. ● Сотрудничество с разработчиками моделей данных для проектирования и оптимизации физической модели данных. ● Создание и документирование ETL-процессов для обеспечения бесперебойного потока данных и интеграции между различными системами. ● Проектирование процессов извлечения и трансформации данных на основе SQL для поддержки миграции систем и инициатив по обеспечению качества данных. ● Подготовка технической документации, описывающей процессы ETL, архитектурные решения и рабочие процессы поддержки для дальнейшего сопровождения. ● Участие в проектировании и реализации DevOps-пайплайнов, включая непрерывную интеграцию, автоматизированное развертывание и тестирование. ● Мониторинг и устранение неполадок в IBM DataStage и Jenkins, обеспечение их бесперебойной работы. ● Проведение детального анализа данных для выявления несоответствий между ожидаемыми и фактическими результатами. ● Настройка Docker Compose для упрощения развертывания приложений и компонентов ETL. ● Интеграция PostgreSQL для хранения промежуточных наборов данных, используемых в рабочих процессах отчетности. ● Использование Kubernetes для оркестрации контейнеров, что обеспечило надёжность и масштабируемость системы. ● Применение AWS S3 для резервного копирования и долговременного хранения данных. ● Анализ первопричин дефектов, связанных с данными, и внедрение эффективных решений для обеспечения их целостности. ● Поддержка клиентов IBM через платформу ServiceNow, предоставление решений для технических запросов и вызовов. ● Работа в тесном сотрудничестве с глобальной командой для согласования результатов проекта и обеспечения бесперебойной коммуникации между командами.
Стек специалиста на проекте
PostgreSQL, Python, Jenkins, Kubernetes, GitHub, DB2, Analytics, IBM, AWS S3, Docker Compose, Apache AirFlow, cloud, ServiceNow, Framework, cognos, datastage
Отрасль проекта
Cloud Services
Период работы
Июнь 2021 - Декабрь 2022  (1 год 7 месяцев)
Формат работы
Тип занятости
Фулл-тайм
Формат работы
Удаленно
Командировки
Не готов
Релокация
Не готов
Готов работать на зарубежных проектах
Нет

Похожие специалисты

AgroTech • E-commerce & Retail • Logistics & Transport
АП
Антон П.
Минск
Data аналитик
Senior
4 415,58 Р/час
glue
AWS
Redshift
Numpy
adyen
Git
Power BI
Pandas
Bitbucket
MongoDB
+38

Аналитик данных с опытом работы более 5 лет. Люблю аналитическую работу, умею эффективно интерпретировать, анализировать и прогнозировать данные с помощью современных инструментов. Проактивный командный игрок с отличными навыками коммуникации, способен быстро осваивать новые технологии и методологии. Ставлю требования бизнеса на первое место. Независимо от того, работаю я самостоятельно или в составе команды, моя цель - достигать результатов, которые превосходят ожидания и способствуют успеху бизнеса. Языки программирования Python, SQL. Инженерия данных Apache Hadoop, Apache Spark, PySpark, Apache Airflow. Облачные технологии AWS(Redshift, EC2, Lambda, Glue, S3, RDS, DynamoDB, EMR, Athena, etc.). Базы данных PostgreSQL, MySQL, Greenplum, MongoDB, Redis. Машинное обучение и Data Science Pandas, NumPy, Scikit-learn. BI и визуализация данных Power BI, Seaborn, Matplotlib. Моделирование данных Размерное моделирование (схема «звезда», схема «снежинка»), моделирование сущностей-связей, нормализация / денормализация, Data Vault 2.0. DevOps Docker, Docker Compose, Bash Scripting. Системы контроля версий Git, Bitbucket, GitHub. Достижения Улучшение предсказания спроса Разработал модель прогнозирования спроса на автомобили в разных районах города, что позволило оптимизировать распределение автомобилей и снизить время ожидания клиентов на 15%. Успешное проведение A/B тестирования Разработал и провел серию А/Б тестов, что позволило оптимизировать пользовательский интерфейс и улучшить конверсию на 7%, принеся дополнительный доход в размере $30,000 в месяц. Анализ эффективности каналов продвижения Провел анализ данных о рекламных каналах и их влиянии на продажи, что позволило оптимизировать бюджет маркетинга и увеличить эффективность кампаний на 15%.

Подробнее
E-commerce & Retail • FinTech & Banking
ДХ
Дарья Х.
Минск
Data аналитик
Senior
3 746,75 Р/час
Time series
Time Series Analysis
Time Series Forecasting
Forecasting
forecast
Predictive Analytics
Analytics
Classical ML
Classical ML models
MLflow
+136

▪ Data Scientist / Data Analyst c более чем 5 летним опытом в области анализа данных и машинного обучения в различных отраслях, включая банковское дело, финансовые услуги, e-commerce и стартапах. ▪ Применение передовых методов анализа данных и машинного обучения для глубокого анализа текущих данных и процессов, оптимизации операций и извлечения ценных инсайтов, а также их адаптации к бизнес-потребностям. ▪ Разработка и проектирование систем разной сложности в соответствии с техническими требованиями и задачами, включая высокоэффективные, высоконагруженные и масштабируемые микросервисные приложения. ▪ Глубокий анализ существующих решений, их улучшение и адаптация к требованиям бизнес-процессов. ▪ Коммуникабельность, мотивация и способность быстро вливаться в текущие процессы команды с целью достижения результатов.

Подробнее
E-commerce & Retail • FinTech & Banking • Logistics & Transport • Marketing, Advertising & Design • Urban technology
МХ
Марина Х.
Белград
Data аналитик
Middle+
3 596,53 Р/час
A/B testing
Apache Spark
AWS
Excel
Git
GitHub
Google Cloud Platform
Java
JupyterNoteBook
Lambda
+34

Опытный data аналитик с навыками работы в области E-commerce, Retail, Urban technology, FinTech, Banking, Marketing, Advertising & Design, Logistics & Transport. Имеет опыт работы на проектах по разработке аналитических платформ для бизнеса, систем рекомендаций на основе машинного обучения, оптимизации ETL-процессов в DWH и других. В рамках проектов выполнял задачи по анализу бизнес-показателей с использованием SQL и Python, разработке моделей прогнозирования, построению дашбордов в Power BI и Tableau, внедрению автоматизированных систем A/B тестирования и мониторинга качества данных. Достижения: - оптимизация SQL-запросов и снижение времени обработки данных; - разработка системы рекомендаций, которая увеличила конверсию на 15%; - внедрение feature engineering, что улучшило точность модели на 12%; - сокращение времени генерации отчётов на 60%; - уменьшение логистических затрат на 18%.

Подробнее

Недавно просмотренные специалисты