ЕБ
Екатерина Б.
Женщина
Беларусь, Минск, UTC+3
Ставка
4,000 Р/час
НДС не облагается
Специалист доступен с 4 декабря 2023 г.
Добавьте подходящих специалистов в список и оформите заявку для предварительного бронирования времени специалистов. После оформления заявки ваш персональный менеджер организует прохождение всех необходимых проверок с вами и каждым кандидатом из заявки. Специалист привлекается к проекту только после окончательного подтверждения его выхода с вашей стороны.
Подробнее
О специалисте
Специализация
Аналитик BI
Грейд
Навыки
Отрасли
Главное о специалисте
Дата-аналитик с опытом работы более 4 лет.
Высококвалифицированный и компетентный профессионал с глубоким пониманием различных технологий и их применения. Моя экспертиза позволяет мне быстро и эффективно создавать инновационные решения, используя инструменты и технологии из моего арсенала.
Языки программирования
Python.
BI
Power BI, DAX, Tableau, LOD, Data (Looker) Studio.
Инженерия данных
Apache Spark, PySpark, Apache Airflow, Apache NiFi.
Data science
Scikit-learn, Pandas, Dask, NumPy, Matplotlib, Plotly, Seaborn.
Cloud
GCP(BigQuery, BigTable, Cloud Storage, Cloud Functions, Dataflow, Datastore, Vertex AI и т.д.),
AWS(EC2, RDS, Lambda, Kinesis, S3, Databricks, Athena, QuickSight, EKS, Redshift, DynamoDB и т.д.).
Базы данных
Greenplum, PostgreSQL, MySQL, Redis, MongoDB.
DevOps
Docker, Docker Compose.
Брокеры сообщений
Kafka.
Системы контроля версий
Git, GitHub, GitLab.
Проекты
(4 года 3 месяца)
Сервис анализа авиационных перевозок
Роль
Дата-аналитик
Обязанности
Цели проекта: рассчитать финансовые показатели продаж, проанализировать количество рейсов в разных измерениях, провести RFM-анализ клиентов. Основная цель – предоставить дашборд для анализа авиационной ситуации. Повышая качество данных, компании начинают делать на их основе более качественную аналитику.
Обязанности и достижения
● Взаимодействие с представителями бизнеса для определения требований к аналитике и обеспечения высокой степени соответствия результатов анализа бизнес-целям;
● Активное участие в определении и приоритизации ключевых продуктовых KPI для достижения бизнес-целей;
● Разработка отчетов и функциональных дашбордов с Power BI;
● Выполнение расчетов DAX в Power BI;
● Создание визуальных отчетов, KPI-карточек и
дашбордов с Power BI;
● Построение ETL-процессов, очистка данных;
● Документирование моделей данных, правил
качества данных и процессов трансформации
данных;
● Создание точечных графиков для
визуализации взаимосвязи между двумя числовыми переменными с использованием Matplotlib;
● Использование Apache Spark для обработки и агрегации данных;
● Анализ данных с использованием статистических методов и предоставление отчетов;
● Создание визуализации результатов NLP модели;
● Настройка SQL-базы данных для обработки OLTP-данных;
● Разработка процедур обслуживания и их внедрение;
2
● Обработка и урегулирование инцидентов, связанных с данными;
● Вычисление KPI и метрик с помощью DAX калькуляций в Power BI;
● Разработка и использование продуктовых метрик для измерения успешности и влияния функциональных изменений в продукте;
● Фильтрация данных от аномалий, обработка отсутствующих значений, внедрение правил качества данных, создание тестовых наборов данных для этой цели;
● Проектирование и реализация масштабируемых, распределенных процессов обработки и анализа данных с использованием Dask;
● Выявление, анализ и интерпретация тенденций или закономерностей в сложных наборах данных;
● Разработка гипотез для А/Б тестов, основанных на бизнес-целях, и оценка их влияния на ключевые метрики продукта;
● Оптимизация тестовых стратегий, учитывая как количественные, так и качественные аспекты данных;
● Анализ данных с использованием AWS Athena;
● Создание гипотез о том, как увеличить
бизнес-KPI, и выведение требований к сбору
данных;
● Визуализация Pandas dataframe с
использованием Seaborn;
● Планирование процессов обработки данных с
использованием Apache Airflow;
● Интеграция и использование Amazon S3 для
хранения и обработки больших объемов
неструктурированных данных;
● Очистка данных, заполнение данных и
статистический анализ с использованием
Pandas;
● Выполнение математических и логических
операций над массивами с использованием NumPy;
3
● Создание и настройка Kafka-топиков для обеспечения эффективной передачи данных между компонентами системы;
● Выявление потенциальных выбросов в данных.
Стек специалиста на проекте
DAX, Databricks, Numpy, Power BI, Pandas, MongoDB, GitLab, Seaborn, Kafka, Apache Spark, Анализ, S3, Docker Compose, EC2, PySpark, Dask, Plotly, Docker, Python, Lambda, DynamoDB, Matplotlib, RFM-анализ, Apache AirFlow, MySQL
Отрасль проекта
Logistics & Transport
Период работы
Июль 2022 - Ноябрь 2023
(1 год 5 месяцев)
Финансовая платформа
Роль
Дата-аналитик
Обязанности
Финансовая платформа для поставщика услуг инфраструктуры информационных технологий. Эта платформа позволяет компаниям управлять информацией о сотрудниках и продажах. Также предусмотрены решения, которые ускорят рост экономических показателей на основе существующего состояния компании.
Обязанности и достижения
● Оптимизация производительности SQL-баз данных путем мониторинга и устранения медленных запросов, индексации и других проблем, связанных с производительностью;
● Исследование способов улучшения качества и надежности данных;
● Обеспечение качества и целостности данных в SQL-базах данных;
● Создание визуализаций данных с использованием Tableau;
● Администрирование Tableau Cloud, включая настройку доступа пользователей, планирование и публикацию контента, и мониторинг производительности сервера;
● Получение результатов моделей машинного обучения (ML) и их интерпретация с использованием GCP Vertex AI;
4
● Обработка больших объемов данных с использованием Dataflow;
● Определение и отслеживание различных KPI и метрик;
● Использование LOD выражений для выполнения сложных запросов в Tableau;
● Подготовка данных для обучения моделей машинного обучения (ML);
● Разработка алгоритмов машинного обучения для анализа обширных объемов исторических данных с целью предсказаний;
● Создание линейных графиков для отображения тенденций и паттернов в данных с использованием Matplotlib;
● Статистическое тестирование гипотез, оценка и представление результатов;
● Проведение статистического анализа;
● Очистка данных с использованием
Dataflow;
● Применение подходящих статистических
тестов для оценки статистической значимости наблюдаемых различий между группами с целью улучшения A/B-тестов и A/A-тестов;
● Визуализация данных с использованием Plotly;
● Разработка интерактивных дашбордов в Data (Looker) Studio;
● Создание тепловых карт для визуализации данных в сетчатом формате для отображения корреляций или интенсивности с Matplotlib;
● Предоставление визуального обзора распределения множества групп и категорий с использованием boxplots;
● Анализ и систематизация необработанных данных;
● Управление GCP BigQuery;
● Внедрение бессерверных трансформаций
данных с использованием GCP Cloud Functions;
5
● Настройка хранения изображений в GCP Cloud Storage;
● Успешная оптимизация запросов в Greenplum для повышения производительности аналитических операций;
● Создание макетов и бета-дашбордов с акцентом на пользовательский опыт, правильность и видимость;
● Выполнение разнообразных математических операций над массивами с использованием NumPy;
● Совмещение нескольких наборов данных с использованием Pandas.
Стек специалиста на проекте
Vert.x, BigQuery, Numpy, Data, Pandas, Redis, GitHub, Scikit-learn, Seaborn, Kafka, Apache Spark, Cloud Functions, cloud, Storage, Tableau, GCP, Docker Compose, PySpark, RStudio, Plotly, Docker, Python, Matplotlib, GreenPlum, PostgreSQL
Отрасль проекта
FinTech & Banking
Период работы
Сентябрь 2020 - Июнь 2022
(1 год 10 месяцев)
Аналитический сервис
Роль
Дата-аналитик
Обязанности
Проект по аналитике данных на основе построения надежной модели с использованием многослойной концепции архитектуры DWH. Извлечение данных из нескольких источников и приведение их к единому виду позволяет подготовить визуализированную отчетность для бизнес пользователей.
Обязанности и достижения
● Проведениепрофилированияианализа данных для обеспечения точности, полноты и согласованности данных;
● Обработкаданныхисозданиенаборов данных;
● Очисткаданных;
● Сотрудничествосдатаинженерамидля
устранения проблем с качеством данных;
● РазработкасложныхSQLзапросови
улучшение их производительности;
6
● Разработкасложныхпроцедуритриггеров в PostgreSQL для обеспечения целостности данных и выполнения бизнес-логики;
● Созданиепредставленийдлядашбордов;
● Очисткаданныхиобработка
отсутствующих значений;
● Исследовательскийанализисточников
данных;
● Аналитикаданныхсиспользованием
Power BI;
● Решениесложныхслучаевприсборе
данных с веб-сайтов и мобильных
приложений;
● РазработкаотчетовидашбордовPowerBI;
● ВыполнениезапросовифункцийDAXв
Power BI;
● Настройкарабочихпространстввслужбе
Power BI;
● ИспользованиеApacheNiFiдлясоздания
эффективных потоков данных и
интеграции различных источников данных;
● РазработкаDocker-образовдля
стандартизации окружений разработки и обеспечения переносимости приложений.
Стек специалиста на проекте
DAX, Redshift, Numpy, Power BI, Pandas, Redis, GitHub, Apache NiFi, Apache Spark, S3, Docker Compose, PySpark, Docker, Python, Lambda, DynamoDB, MySQL, PostgreSQL
Отрасль проекта
RnD
Период работы
Сентябрь 2019 - Август 2020
(1 год)
Формат работы
Формат работы
Офис
Командировки
Не готов
Релокация
Не готов
Готов работать на зарубежных проектах
Да
Образование
Высшее
Учебное заведение
-
Специальность
-
Завершение учебы
2022 г.