Владислав Ж. Data аналитик, Middle+

ID 32241
ВЖ
Владислав Ж.
Мужчина, 28 лет
Россия, Воронеж, UTC+3
Ставка
3 766,23 Р/час
НДС не облагается
Специалист доступен с 10 октября 2025 г.

Добавьте подходящих специалистов в список и оформите заявку для предварительного бронирования времени специалистов. После оформления заявки ваш персональный менеджер организует прохождение всех необходимых проверок с вами и каждым кандидатом из заявки. Специалист привлекается к проекту только после окончательного подтверждения его выхода с вашей стороны.

Подробнее
О специалисте
Специализация
Data аналитик
Грейд
Middle+
Навыки
Работа с базами данных
Анализ данных
XML
Kibana
Oracle
Системный анализ
SoapUI
XSLT
Работа с большим объемом информации
MS Word
Atlassian
MS Excel
Jira
SQL
Python
PostgreSQL
Apache AirFlow
Git
Power BI
Pandas
ClickHouse
ETL
GreenPlum
Hadoop
DWH
Docker
MySQL
Базы данных
Spark
Tableau
Отрасли
FinTech & Banking
Realty & Constructoring
Знание языков
Английский — B1
Главное о специалисте
Data аналитик уровня Middle+ с более 5 годами опыта. Специализируюсь на анализе данных, работе с базами данных и большим объёмом информации. Имею опыт работы в финтех. Инициативный и целеустремленный аналитик с сильным аналитическим мышлением и глубокими техническими знаниями. Умею эффективно работать в команде с различными заинтересованными сторонами для достижения общих организационных целей. Постоянно стремлюсь к улучшению процессов и внедрению инновационных решений.
Проекты   (5 лет 8 месяцев)
Axenix
Роль
Ведущий системный аналитик
Обязанности
Работа на проектах ВТБ и Почта банка. Состав команды: 1–2 бизнес-аналитика, 4–6 инженеров данных (ETL/DWH), архитектор данных, QA, проектный менеджер. Задачи: - Выявление требований к данным, сценариев их использования и анализ в КХД и отчетности в тесном взаимодействии с бизнес-подразделениями. - Проектирование логической модели данных КХД (детальный слой витрины данных) и ETL-процессов интеграции данных с различными системами-источниками. - Анализ причин расхождений данных в различных витринах КХД, участие в определении эталонных данных. - Проектирование и внедрение моделей данных Data Vault 2.0 для хранения и обработки данных из различных источников. - Создание хранилищ данных (Data Warehousing) с использованием подходов Hubs, Links и Satellites. - Проведение тестирования и приемки готового функционала. - Интеграция Kafka с базами данных. - Управление проектами в GitLab, включая формулирование требований и ведение детальной документации. - Анализ собранных данных для выявления ключевых требований и ограничений. - Разработка спецификаций и документации, описывающей требования к системе. - Создание моделей бизнес-процессов и информационных потоков с использованием различных методологий и инструментов (UML, BPMN). - Анализ и проектирование RESTful API для взаимодействия между системами. - Создание документации API, включая спецификации OpenAPI (Swagger). - Настройка аутентификации и авторизации для безопасного доступа к API. - Разработка технической документации, описывающей интеграционные процессы и архитектуру системы. • DWH: Greenplum, Postgres, Oracle, • ETL: Airflow, Python (pandas, SQLAlchemy), Kafka, • Big Data: Hadoop (HDFS, Hive), • BI: Power BI / Qlik / Redash, • Управление: Jira, Confluence, GitLab.
Достижения
• Спроектировал витрины данных для расчёта банковских метрик (остатки по счетам, транзакции, кредиты), что ускорило подготовку управленческой отчётности. • Анализировал и устранял расхождения в данных между системами источниками и DWH, что снизило количество инцидентов в отчётности для ЦБ РФ. • Разработал модели Data Vault для интеграции новых источников (CRM, карточные системы), что обеспечило масштабируемость хранилища. • Настроил интеграцию Kafka с DWH для потоковой обработки транзакционных данных (ближе к near real-time).
Стек специалиста на проекте
PostgreSQL, Jira, Confluence, BPMN, Python, UML, Power BI, Oracle, REST API, Swagger, GitLab, Hive, Hadoop, Pandas, SQLAlchemy, Redash, GreenPlum, Kafka, DWH, Apache AirFlow, OpenAPI, qlik, Data Vault 2.0
Отрасль проекта
FinTech & Banking
Период работы
Октябрь 2022 - Октябрь 2025  (3 года 1 месяц)
Лига цифровой экономики
Роль
Системный аналитик
Обязанности
Состав команды: 1 бизнес-заказчик + подразделения риск-менеджмента/финансов, 2–3 аналитика, 3–5 инженеров (DWH/ETL), тимлид тестировщики. Задачи: - Разработка спецификаций и документации, описывающей требования к системе. - Определение и документирование текущих и целевых процессов. - Перевод бизнес-требований в технические задания для разработчиков. - Участие в разработке тестовых сценариев и данных для проверки соответствия системы требованиям. - Написание технических заданий, ПМИ, БФТ. - Написание сложных SQL-запросов (JOIN, оконные функции, подзапросы). - Общение с заказчиком и выявление требований. - Работа с Power BI для коммуникации с заказчиком. - Использование Informatica PowerCenter для автоматизации SQL-запросов. - Проектирование и создание дашбордов в QlickView (ресурсы, телекоммуникационные показатели, ритейл). • DWH: MS SQL Server, PostgreSQL, • ETL: SSIS / Airflow, Python (pandas), • Big Data: Hadoop (HDFS, Hive), • BI: Tableau, Power BI, • Документация: BPMN/UML (draw.io), Confluence, Jira, Swagger (для API).
Достижения
• Описал требования и построил витрины данных для отчётности по кредитному портфелю (PD/LGD/EAD), что обеспечило соответствие требованиям риск-менеджмента. • Автоматизировал выгрузки и валидацию данных для отчётности по требованиям ЦБ РФ, что снизило ручные трудозатраты. • Спроектировал API-слой для интеграции фронтовых банковских систем с DWH, задокументировал через Swagger. • Участвовал в проекте по аналитике транзакций и выявлению подозрительных операций (AML), что позволило сократить количество ложных срабатываний.
Стек специалиста на проекте
PostgreSQL, API, Jira, Confluence, SQL, Python, Draw.io, Power BI, Swagger, Hive, Hadoop, Pandas, BI, ETL, Big Data, DWH, Microsoft, Tableau, Apache AirFlow, HDFS, SSIS, Identity Server
Отрасль проекта
FinTech & Banking
Период работы
Ноябрь 2021 - Сентябрь 2022  (11 месяцев)
РТ Лабс
Роль
Системный аналитик
Обязанности
- Формирование разовой и регулярной отчетности - Работа с БД, анализ данных - Обработка заявок внешних пользователей на изменение/добавление/обновление информации в БД - Сопровождение внедрений, регрессионное тестирование - Решение инцидентов, обсуждение багов со смежными группами, создания задач в инструменте Jira - Доработка обучающего материала в Confluence - Написание и доработка sql скриптов - Поиск и обработка логов (kibana) - Работа с интеграциями api (rest) - Составление логической модели данных - Обучение пользователей и технической поддержки по работе с системой
Стек специалиста на проекте
REST, API, Jira, Confluence, SQL, Kibana, Базы данных, Анализ данных
Отрасль проекта
Realty & Constructoring
Период работы
Октябрь 2019 - Май 2021  (1 год 8 месяцев)
Формат работы
Тип занятости
Фулл-тайм
Формат работы
Удаленно
Командировки
Не готов
Релокация
Не готов
Готов работать на зарубежных проектах
Нет
Образование
Высшее
Учебное заведение
Воронежский государственный технический университет
Специальность
Дорожно-транспортный факультет, Эксплуатация транспортно-технологических машин и
Завершение учебы
2019 г.

Похожие специалисты

E-commerce & Retail • FinTech & Banking • HRTech • Manufacturing
ДН
Давид Н.
Ростов-на-Дону
Data аналитик
Middle+
3 896,1 Р/час
ClickHouse
Docker
Git
GreenPlum
Hadoop
Informatica
PostgreSQL
Python
Django
SQL
+38

Data-инженер с опытом работы в проектах для отраслей FinTech & Banking, HRTech, E-commerce & Retail и Manufacturing. На проекте «Омниканальность» занимался проектированием и реализацией интеграционных потоков, работал с Oracle 19c, Kafka, Informatica PWC, Airflow, Spark, GreenPlum, PostgreSQL, Python, Hive и ClickHouse. В рамках проекта по построению аналитического хранилища по схеме DataVault создавал, поддерживал и обслуживал веб-сервер на YandexCloud и проектировал базу данных на PostgreSQL. Для проекта «Построение аналитических панелей» готовил витрины данных и формировал аналитическую отчётность. Во время проекта для Mosgiprotransmos проектировал и поддерживал базу данных (PostgreSQL) и интеграционный поток (Python+Airflow), работал с Yandex Cloud, SQL, Python, Clickhouse, Object Storage, Yandex Functions и bash.

Подробнее

Недавно просмотренные специалисты