ПК
Павел К.
Мужчина
Россия, Санкт-Петербург, UTC+3
Ставка
3 246,75 Р/час
НДС не облагается
Специалист доступен с 3 июля 2025 г.
Добавьте подходящих специалистов в список и оформите заявку для предварительного бронирования времени специалистов. После оформления заявки ваш персональный менеджер организует прохождение всех необходимых проверок с вами и каждым кандидатом из заявки. Специалист привлекается к проекту только после окончательного подтверждения его выхода с вашей стороны.
Подробнее
О специалисте
Специализация
Data инженер
Грейд
Навыки
Отрасли
Проекты
(3 года 4 месяца)
Проект: Aston
Роль
Data Аналитик
Обязанности
Достижения:
• Разработал модель прогнозирования спроса
на облигации, что позволило повысить
эффективность таргетированных предложений
и увеличить конверсию за счет более точной
персонализации
• Оптимизировал процессы обработки данных,
что позволило повысить производительность и
сократить время анализа данных на 30%
Описание проекта:
Брокер-консультант, с помощью которого реализуются таргетированные предложения для клиентов о покупке ценных бумаг. На основании сырых данных, загруженных в Data Warehouse, подготавливаются профилированные аналитические таблицы, включающие в себя данные о клиентах, их аккаунтах, ценных бумагах и операциях вне портфеля.
Состав Команды:
инженеры, аналитики, архитектор
Задачи:
• Анализ и интерпретация данных с использованием инструментов визуализации, таких как Power BI и MS Excel, для представления результатов в понятной и наглядной форме
• Разработка и оптимизация SQL-запросов для извлечения данных из баз данных PostgreSQL, ClickHouse, GreenPlum
• Создание и поддержка схем данных в DrawSQL для структурирования и визуализации потоков данных
• Работа с большими данными и выполнение ETL- процессов с использованием Apache Hadoop и Apache Spark
• Разработка и выполнение скриптов на Python с использованием библиотек Pandas и NumPy для обработки и анализа данных
• Применение PySpark для обработки и анализа больших объемов данных в распределенных системах
• Управление контейнерами Docker для настройки и развертывания среды анализа данных
• Систематизация и автоматизация процессов анализа данных с использованием Jupyter Notebook
• Написание и поддержка скриптов на языке Linux для автоматизации задач
• Участие в проектах в рамках Agile-методологий(Scrum, Kanban) с использованием инструментов Jira и Confuence для управления задачами и документирования
• Проведение анализа результатов и предоставление рекомендаций на основе
данных для поддержки принятия бизнес-решений
Стек:
PostgreSQL, ClickHouse, GreenPlum
Стек специалиста на проекте
Kanban, Data Warehouse, DrawSQL, agale, ClickHouse, SQL запросы, Numpy, Scrum, Pandas, Power BI, Linux, Apache Hadoop, Apache Spark, Excel, PySpark, Confluence, Docker, Python, GreenPlum, JupyterNoteBook, Microsoft, Jira, PostgreSQL
Отрасль проекта
FinTech & Banking
Период работы
Июнь 2024 - Декабрь 2024
(7 месяцев)
Проект: Тензор
Роль
Data-аналитик
Обязанности
Описание проекта:
Инструмент веб-панели, который объединяет внешний источник данных, агрегирует и уточняет их, извлекает информацию и отображает ее в удобном современном интерфейсе для лиц, принимающих решения.
Задачи:
• Создание документов с анализом данных, включая отчеты, дашборды и рекомендации, а также документы картирования данных и технические спецификации для процессов ETL/ELT
• Разработка сложных SQL-запросов для извлечения и анализа данных из PostgreSQL, Greenplum и ClickHouse
• Разработка DMD/ERD для понимания структуры данных и отношений с использованием DrawSQL
• Разработка сценариев очистки и трансформации данных, включающих способы устранения пропущенных значений, аномалий и дубликатов
• Анализ данных в Hadoop-экосистеме, использование Apache (Hadoop, Hive, Hue) для аналитики больших объемов данных, хранящихся в HDFS
• Понимание основных архитектурных принципов КХД;
• Моделирование dds слоя;
• Разработка Spark-скриптов для обработки и анализа данных в реальном времени и пакетной обработки
• Создание интерактивных дашбордов и отчетов для визуализации результатов анализа, используя BI-инструменты и библиотеки Python для визуализации (Matplotlib, Seaborn)
• Отслеживание и анализ качества данных, работа с инженерами данных для оптимизации процессов сбора и обработки данных
• Анализ производительности SQL-запросов и Spark-задач, оптимизация для улучшения скорости и эффективности обработки данных
• Оптимизация производительности ETL-процессов на больших объемах данных с PySpark
• Сотрудничество с инженерами данных, разработчиками, бизнес-аналитиками и заинтересованными сторонами для обеспечения соответствия аналитических решений бизнес-целям
• Разработка и представление презентаций и отчетов по результатам анализа для поддержки принятия решений на основе данных
Достижения:
• На основании глубокого анализа данных предложил и реализовал решение, которое помогло компании сократить операционные расходы на 15% за счет оптимизации цепочки поставок или улучшения планирования ресурсов
• Провел анализ данных по поведению клиентов и сегментация целевой аудитории, что позволило увеличить конверсию в рамках маркетинговой кампании на 10%
Стек:
PySpark Python
Стек специалиста на проекте
PostgreSQL, Python, Apache, Hive, ClickHouse, Hadoop, Анализ данных, Matplotlib, GreenPlum, Seaborn, Спецификации, HDFS, PySpark, SQL запросы, DrawSQL, BI инструменты, hue, ETL ELT
Отрасль проекта
Insurance
Период работы
Сентябрь 2021 - Июнь 2024
(2 года 10 месяцев)
Формат работы
Тип занятости
Фулл-тайм
Формат работы
Удаленно
Командировки
Не готов
Релокация
Не готов
Готов работать на зарубежных проектах
Нет