Павел К. Data инженер, Middle+

ID 19802
ПК
Павел К.
Мужчина
Россия, Санкт-Петербург, UTC+3
Ставка
3 246,75 Р/час
НДС не облагается
Специалист доступен с 3 июля 2025 г.

Добавьте подходящих специалистов в список и оформите заявку для предварительного бронирования времени специалистов. После оформления заявки ваш персональный менеджер организует прохождение всех необходимых проверок с вами и каждым кандидатом из заявки. Специалист привлекается к проекту только после окончательного подтверждения его выхода с вашей стороны.

Подробнее
О специалисте
Специализация
Data инженер
Грейд
Middle+
Навыки
Apache AirFlow
BI
Big Data
ClickHouse
DataLens
elt
ETL
Hadoop
HDFS
Microsoft
MS PowerPoint
PostgreSQL
Power BI
Python
S3
SQL
Tableau
Анализ данных
Анализ рынка
Аналитические исследования
Аналитическое мышление
Базы данных
большие данные
Деловая коммуникация
Подготовка и проведение презентаций
Прогнозирование
Работа с базами данных
Работа с большим объемом информации
Статистический анализ
СУБД
Отрасли
FinTech & Banking
Insurance
Проекты   (3 года 4 месяца)
Проект: Aston
Роль
Data Аналитик
Обязанности
Достижения: • Разработал модель прогнозирования спроса на облигации, что позволило повысить эффективность таргетированных предложений и увеличить конверсию за счет более точной персонализации • Оптимизировал процессы обработки данных, что позволило повысить производительность и сократить время анализа данных на 30% Описание проекта: Брокер-консультант, с помощью которого реализуются таргетированные предложения для клиентов о покупке ценных бумаг. На основании сырых данных, загруженных в Data Warehouse, подготавливаются профилированные аналитические таблицы, включающие в себя данные о клиентах, их аккаунтах, ценных бумагах и операциях вне портфеля. Состав Команды: инженеры, аналитики, архитектор Задачи: • Анализ и интерпретация данных с использованием инструментов визуализации, таких как Power BI и MS Excel, для представления результатов в понятной и наглядной форме • Разработка и оптимизация SQL-запросов для извлечения данных из баз данных PostgreSQL, ClickHouse, GreenPlum • Создание и поддержка схем данных в DrawSQL для структурирования и визуализации потоков данных • Работа с большими данными и выполнение ETL- процессов с использованием Apache Hadoop и Apache Spark • Разработка и выполнение скриптов на Python с использованием библиотек Pandas и NumPy для обработки и анализа данных • Применение PySpark для обработки и анализа больших объемов данных в распределенных системах • Управление контейнерами Docker для настройки и развертывания среды анализа данных • Систематизация и автоматизация процессов анализа данных с использованием Jupyter Notebook • Написание и поддержка скриптов на языке Linux для автоматизации задач • Участие в проектах в рамках Agile-методологий(Scrum, Kanban) с использованием инструментов Jira и Confuence для управления задачами и документирования • Проведение анализа результатов и предоставление рекомендаций на основе данных для поддержки принятия бизнес-решений Стек: PostgreSQL, ClickHouse, GreenPlum
Стек специалиста на проекте
Kanban, Data Warehouse, DrawSQL, agale, ClickHouse, SQL запросы, Numpy, Scrum, Pandas, Power BI, Linux, Apache Hadoop, Apache Spark, Excel, PySpark, Confluence, Docker, Python, GreenPlum, JupyterNoteBook, Microsoft, Jira, PostgreSQL
Отрасль проекта
FinTech & Banking
Период работы
Июнь 2024 - Декабрь 2024  (7 месяцев)
Проект: Тензор
Роль
Data-аналитик
Обязанности
Описание проекта: Инструмент веб-панели, который объединяет внешний источник данных, агрегирует и уточняет их, извлекает информацию и отображает ее в удобном современном интерфейсе для лиц, принимающих решения. Задачи: • Создание документов с анализом данных, включая отчеты, дашборды и рекомендации, а также документы картирования данных и технические спецификации для процессов ETL/ELT • Разработка сложных SQL-запросов для извлечения и анализа данных из PostgreSQL, Greenplum и ClickHouse • Разработка DMD/ERD для понимания структуры данных и отношений с использованием DrawSQL • Разработка сценариев очистки и трансформации данных, включающих способы устранения пропущенных значений, аномалий и дубликатов • Анализ данных в Hadoop-экосистеме, использование Apache (Hadoop, Hive, Hue) для аналитики больших объемов данных, хранящихся в HDFS • Понимание основных архитектурных принципов КХД; • Моделирование dds слоя; • Разработка Spark-скриптов для обработки и анализа данных в реальном времени и пакетной обработки • Создание интерактивных дашбордов и отчетов для визуализации результатов анализа, используя BI-инструменты и библиотеки Python для визуализации (Matplotlib, Seaborn) • Отслеживание и анализ качества данных, работа с инженерами данных для оптимизации процессов сбора и обработки данных • Анализ производительности SQL-запросов и Spark-задач, оптимизация для улучшения скорости и эффективности обработки данных • Оптимизация производительности ETL-процессов на больших объемах данных с PySpark • Сотрудничество с инженерами данных, разработчиками, бизнес-аналитиками и заинтересованными сторонами для обеспечения соответствия аналитических решений бизнес-целям • Разработка и представление презентаций и отчетов по результатам анализа для поддержки принятия решений на основе данных Достижения: • На основании глубокого анализа данных предложил и реализовал решение, которое помогло компании сократить операционные расходы на 15% за счет оптимизации цепочки поставок или улучшения планирования ресурсов • Провел анализ данных по поведению клиентов и сегментация целевой аудитории, что позволило увеличить конверсию в рамках маркетинговой кампании на 10% Стек: PySpark Python
Стек специалиста на проекте
PostgreSQL, Python, Apache, Hive, ClickHouse, Hadoop, Анализ данных, Matplotlib, GreenPlum, Seaborn, Спецификации, HDFS, PySpark, SQL запросы, DrawSQL, BI инструменты, hue, ETL ELT
Отрасль проекта
Insurance
Период работы
Сентябрь 2021 - Июнь 2024  (2 года 10 месяцев)
Формат работы
Тип занятости
Фулл-тайм
Формат работы
Удаленно
Командировки
Не готов
Релокация
Не готов
Готов работать на зарубежных проектах
Нет

Похожие специалисты

E-commerce & Retail • FinTech & Banking
КЯ
Кирилл Я.
Минск
Data инженер
Middle+
3 545,15 Р/час
aks
Analytics
Apache AirFlow
Apache Kafka
Apache NiFi
Apache Spark
Apache Superset
AWS
Azure
Azure SQL
+50

Data Engineer с опытом работы на проектах в сфере E-commerce & Retail и FinTech & Banking. На проектах занимался разработкой аналитических платформ, DWH и систем аналитики. Обязанности: - разработка ETL-пайплайнов в Apache Airflow и Apache NiFi; - обработка больших объёмов данных с использованием PySpark, Pandas, NumPy; - оптимизация интеграции Hadoop (HDFS); - агрегация данных в ClickHouse для BI-отчётов; - визуализация данных в Power BI и Superset; - мониторинг и оптимизация производительности запросов в Snowflake; - интеграция PostgreSQL и MS SQL; - использование Docker и Kubernetes для контейнеризации ETL-компонентов; - создание детальных технических проектных документов; - сотрудничество с командой аналитиков; - проведение тестирования системы; - настройка CI/CD-конвейеров с помощью GitLab CI/CD.

Подробнее
E-commerce & Retail • FinTech & Banking
ВВ
Владлена В.
Минск
Data инженер
Middle+
3 545,15 Р/час
Alembic
Apache AirFlow
athena
AWS
AWS glue
Bash
BI
BigQuery
Bitbucket
ClickHouse
+44

Владлена — data-инженер уровня middle+ из Минска (Беларусь). Обладает опытом работы с различными инструментами и технологиями, включая Alembic, Apache AirFlow, AWS, Docker, ETL, FastAPI, GitHub Actions, GitLab CI/CD, Python, SQLAlchemy и другие. Владлена участвовала в нескольких проектах в сферах FinTech & Banking и E-commerce & Retail: - Обрабатывала и трансформировала большие данные из разных источников в хранилище. - Разрабатывала и оптимизировала ETL-пайплайны на Apache Airflow, Python и SQL. - Интегрировала данные из различных источников в централизованное хранилище. - Оптимизировала SQL-запросы в Snowflake, PostgreSQL и других базах данных. - Настраивала механизмы ретраев, SLA и уведомлений в Airflow. - Автоматизировала процессы очистки, нормализации, дедупликации и агрегации данных.

Подробнее
FinTech & Banking • HRTech
ТБ
Тынарбек Б.
Москва
Data инженер
Senior
3 766,23 Р/час
ClickHouse
DWH
elt
ETL-процессы
GOlang
GreenPlum
Hadoop
Oracle
Python
s2t
+40

● Опыт работы на коммерческих проектах более 3,5 лет ● Обладает обширными знаниями в области проектирования и оптимизации ETL/ELT-процессов, разработки и поддержки DWH, а также работы с большими данными ● Специализируется на использовании современных технологий для обработки, хранения и анализа данных. ● Занимается проектированием и реализацией ELT, ETL-пайплайнов, работает с DWH для аналитики и отчетности. ● Имеет опыт написания и оптимизации SQL- запросов к БД (Oracle) ● Умеет настраивать и поддерживать кластеры ClickHouse; организовывать ETL-процессы для витрин данных. ● Занимается оптимизацией витрин данных на Hadoop и Greenplum; автоматизацией составления S2T для аналитиков ● Имеет опыт разработки на Python и Golang

Подробнее
E-commerce & Retail • IoT • Telecom
АБ
Андрей Б.
Минск
Data инженер
Senior
4 155,84 Р/час
DevOps
DWH
ETL ELT
Pl/SQL
Python
SQL
Моделирование
облачные сервисы
Оптимизация запросов
Разработка
+55

Андрей — Data инженер уровня Senior из Минска, Беларусь. Специализируется на разработке и оптимизации аналитических платформ и хранилищ данных (DWH). Имеет опыт работы с ETL/ELT-процессами, облачными сервисами AWS, инструментами Apache Airflow, Apache Kafka, Apache Spark, а также с базами данных PostgreSQL, MySQL, Oracle и Snowflake. Участвовал в проектах для отраслей E-commerce & Retail, IoT и Telecom. Среди проектов — разработка аналитической платформы для розничной сети, интеграция данных из CRM, ERP и POS-систем, автоматизация обновления данных и улучшение доступа к аналитике через BI-панели. Также занимался разработкой DWH для IT-компании, преобразованием сырых данных из Data Lake и их интеграцией в DWH для решения ML-задач. Обладает навыками работы с системами контроля версий Git, GitLab, Bitbucket, а также опытом настройки CI/CD-конвейеров. Создавал техническую документацию и сотрудничал с командами аналитиков для согласования решений по обработке данных.

Подробнее

Недавно просмотренные специалисты

FinTech & Banking • Logistics & Transport • Manufacturing • Travel, Hospitality & Restaurant business
ВР
Владимир Р.
Москва
Системный аналитик
Senior
3 636,36 Р/час
*nix
C#
Информационные системы
C/C++
Grafana
Сбор и анализ требований
Работа с интеграциями
UML
Бизнес требования
Kanban
+108

Специалист с опытом в программировании и аналитике, как бизнесовой, так и системной. Уверенно владеет SQL, что позволяет без труда писать запросы средней сложности, так же знание Python, Java, C# и ещё несколько базовых языков на среднем уровне. Активно использовал нотации, такие как BPMN и UML и т.п. Умение проектировать логические и физические модели данных для различных типов баз данных. В предыдущих проектах активно работал над улучшением коммуникации между различными командами, обеспечивая эффективность работ. Моя задача заключалась в создании прозрачной системы обмена информацией и координации усилий для достижения общих целей. Планирует развиваться в сторону архитектуры!

Подробнее