Каталог специалистов направления Разработка и ИТ

Найдите проверенных специалистов для решения ваших задач
В нашей базе более 28950 проверенных специалистов
banner
Найдено 2 специалиста в публичном доступе
Новые специалисты
Ключевые навыки
Частичное совпадение Полное совпадение
Грейд
Цена, ₽/час
Цена включает НДС
Дата бронирования
Подкатегории
Страна
Город
Опыт работы
Формат работы
Тип занятости
Готов выйти в штат
Отрасли работы
Готов работать на зарубежных проектах
Владение языком
Пол
Возраст
Найдено 2 специалиста в публичном доступе
ODS
E-commerce & Retail • Manufacturing
АШ
Антон Ш.
Москва
Data аналитик
Senior
3 981,88 Р/час
Apache AirFlow
Apache NiFi
Azure SQL
ClickHouse
Data Vault 2.0
DataLens
DBT
DWH
GreenPlum
Hive
+29

Антон — Data аналитик уровня Senior из Москвы с опытом работы 3 года 5 месяцев. Специализируется на проектировании и поддержке промышленных DWH. Имеет опыт работы в отраслях E-commerce & Retail и Manufacturing. Участвовал в проекте по миграции DWH, где занимался экстренным переносом данных из Azure SQL в MS SQL Server, последующей миграцией на Greenplum с применением методологии Data Vault 2.0. Разрабатывал даги в Airflow на Python, работал с большими объёмами данных и HDFS-подобными хранилищами. Создал тестовое DWH и методические материалы для обучения стажёров, что сократило срок их адаптации на 2 месяца. Также участвовал в проекте по проектированию и поддержке промышленных DWH, где занимался миграцией DWH с Legacy-систем на MS SQL, построением пайплайнов через Apache NiFi, использованием ClickHouse для потоковой аналитики и Kafka для стриминга. Ключевые навыки: • Проектирование и поддержка промышленных DWH (Greenplum, MS SQL Server, PostgreSQL, ClickHouse). • Опыт миграции данных: с Azure SQL на MS SQL, с MS SQL на Greenplum (с применением Data Vault 2.0). • Реинжиниринг моделей совместно с бизнесом, формирование витрин (ODS, Data Marts, Business Vault). • Разработка тестовых DWH и методических материалов для адаптации сотрудников. • Построение пайплайнов данных с использованием Airflow, Apache NiFi, DBT. • Разработка DAG-ов в Airflow на Python, настройка расписаний и обработка ошибок. • Реализация CDC и потоковых процессов через Kafka. • Оптимизация ETL-процессов (ускорение загрузки на 30% благодаря PL/pgSQL) • Работа с распределёнными хранилищами: Hive, S3, HDFS-подобные системы. • Использование Trino для объединённого доступа к SQL-like БД. • Опыт обработки больших объёмов данных (таблицы T-1, объёмы в петабайтах). • Перенос товарных справочников и оптимизация загрузки с раскладкой по Data Vault 2.0. • Автоматизация наполнения Open Metadata через Python-скрипты • Разработка единой методики тестирования и проверка 15 аналитических витрин.

Подробнее
E-commerce & Retail • FinTech & Banking
АШ
Алексей Ш.
Москва
Data инженер
Senior
4 110,32 Р/час
Apache
BPMN
capture
cdc
Clang
Data
Data Vault 2.0
DWH
ER Diagram
Iceberg
+33

Алексей — Data инженер уровня Middle+ из Москвы. Специализируется на разработке и поддержке систем обработки данных. Имеет опыт работы в отраслях FinTech & Banking и E-commerce & Retail. Ключевые навыки: Apache, BPMN, Data Vault 2.0, DWH, ETL/ELT, Kafka, S3, ClickHouse, PySpark, Spark Streaming, построение дашбордов. Участвовал в следующих проектах: - Создание корпоративного хранилища данных (S3 + Apache Iceberg) в FinTech & Banking. Разработал ingest-конвейер Oracle → Kafka → S3 (raw) → Iceberg (curated), реализовал schema evolution и partition pruning в Iceberg, подготовил техническую документацию. - ETL-процессы, DWH и аналитика продаж в E-commerce & Retail. Переписал сложные ETL-процессы, разработал витрины данных в ClickHouse, настроил CI/CD, развернул Docker-окружение, реализовал обработку Kafka-топиков, оркестрировал загрузку данных из различных источников. - Аналитика и автоматизация финансовых процессов в FinTech & Banking. Увеличил конверсию CTR SMS-предложений по кредитам, оптимизировал баннер в мобильном приложении, автоматизировал формирование финансовых отчётов, разработал Power BI-дашборд и realtime Grafana-дашборды. Ключевые навыки: • Хранилища данных (DWH, ODS): опыт построения с нуля, разработка стейджинг-, core- и витринных таблиц, работа с Data Vault 2.0. • S3, Apache Iceberg – работа с данными и хранилищами. • Kafka – интеграция источников, передача данных, обеспечение идемпотентности и надежности доставки. • CDC (Change Data Capture) – настройка на логах БД. • Построение архитектурных схем, проектирование процессов передачи и хранения данных. • Описание архитектурных решений и протоколов работы в случае сбоев (резервные БД, отказоустойчивость). • Подготовка технической документации, включая требования Центробанка. • Схемы взаимодействия таблиц (BPMN, ER-диаграммы).

Подробнее
Нет подходящего специалиста?
Создайте бесплатный запрос на поиск в закрытом каталоге платформы