Каталог специалистов

Найдите проверенных специалистов для решения ваших задач
В нашей базе более 27250 проверенных специалистов
banner
Найден 1 специалист в публичном доступе
Новые специалисты
Специализация
Ключевые навыки
Частичное совпадение Полное совпадение
Грейд
Цена, ₽/час
Цена включает НДС
Дата бронирования
Подкатегории
Страна
Город
Опыт работы
Формат работы
Тип занятости
Готов выйти в штат
Отрасли работы
Готов работать на зарубежных проектах
Владение языком
Пол
Возраст
Найден 1 специалист в публичном доступе
ODS
E-commerce & Retail • FinTech & Banking
АШ
Алексей Ш.
Москва
Data инженер
Senior
4 110,32 Р/час
Apache
BPMN
capture
cdc
Clang
Data
Data Vault 2.0
DWH
ER Diagram
Iceberg
+33

Алексей — Data инженер уровня Middle+ из Москвы. Специализируется на разработке и поддержке систем обработки данных. Имеет опыт работы в отраслях FinTech & Banking и E-commerce & Retail. Ключевые навыки: Apache, BPMN, Data Vault 2.0, DWH, ETL/ELT, Kafka, S3, ClickHouse, PySpark, Spark Streaming, построение дашбордов. Участвовал в следующих проектах: - Создание корпоративного хранилища данных (S3 + Apache Iceberg) в FinTech & Banking. Разработал ingest-конвейер Oracle → Kafka → S3 (raw) → Iceberg (curated), реализовал schema evolution и partition pruning в Iceberg, подготовил техническую документацию. - ETL-процессы, DWH и аналитика продаж в E-commerce & Retail. Переписал сложные ETL-процессы, разработал витрины данных в ClickHouse, настроил CI/CD, развернул Docker-окружение, реализовал обработку Kafka-топиков, оркестрировал загрузку данных из различных источников. - Аналитика и автоматизация финансовых процессов в FinTech & Banking. Увеличил конверсию CTR SMS-предложений по кредитам, оптимизировал баннер в мобильном приложении, автоматизировал формирование финансовых отчётов, разработал Power BI-дашборд и realtime Grafana-дашборды. Ключевые навыки: • Хранилища данных (DWH, ODS): опыт построения с нуля, разработка стейджинг-, core- и витринных таблиц, работа с Data Vault 2.0. • S3, Apache Iceberg – работа с данными и хранилищами. • Kafka – интеграция источников, передача данных, обеспечение идемпотентности и надежности доставки. • CDC (Change Data Capture) – настройка на логах БД. • Построение архитектурных схем, проектирование процессов передачи и хранения данных. • Описание архитектурных решений и протоколов работы в случае сбоев (резервные БД, отказоустойчивость). • Подготовка технической документации, включая требования Центробанка. • Схемы взаимодействия таблиц (BPMN, ER-диаграммы).

Подробнее
Нет подходящего специалиста?
Создайте бесплатный запрос на поиск в закрытом каталоге платформы