Каталог специалистов направления Разработка и ИТ

Найдите проверенных специалистов для решения ваших задач
В нашей базе более 28700 проверенных специалистов
banner
Найдено 6 специалистов в публичном доступе
Новые специалисты
Ключевые навыки
Частичное совпадение Полное совпадение
Цена, ₽/час
Цена включает НДС
Дата бронирования
Подкатегории
Страна
Город
Опыт работы
Формат работы
Тип занятости
Готов выйти в штат
Отрасли работы
Готов работать на зарубежных проектах
Владение языком
Пол
Возраст
Найдено 6 специалистов в публичном доступе
anchor
E-commerce & Retail • FinTech & Banking
АШ
Алексей Ш.
Москва
Аналитик DWH
Middle+
2 623,37 Р/час
anchor
Apache
Apache AirFlow
BPMN
cdc
CI/CD
ClickHouse
connect
Data Vault 2.0
debezium
+31

Middle+ Data Engineer и аналитик с почти 4 годами опыта в разработке и оптимизации процессов обработки данных в финансовом секторе и ритейле. Специализируется на проектировании и реализации ETL/ELT-процессов, создании корпоративных хранилищ данных (S3, Apache Iceberg, ClickHouse), интеграции через Kafka и Debezium, а также разработке BI-дашбордов (Streamlit, Power BI, Grafana). Имеет опыт работы с большими объемами данных (таблицы до 2 ТБ), оптимизации процессов с использованием Polars, PySpark и Airflow, а также внедрения CI/CD и контейнеризации (Docker). Реализовал проекты по автоматизации отчетности, прогнозированию продаж и интеграции данных, что привело к значительным улучшениям бизнес-показателей, включая сокращение затрат и повышение точности прогнозов.

Подробнее
E-commerce & Retail • FinTech & Banking
АШ
Алексей Ш.
Москва
Data инженер
Senior
4 110,32 Р/час
Apache
BPMN
capture
cdc
Clang
Data
Data Vault 2.0
DWH
ER Diagram
Iceberg
+33

Алексей — Data инженер уровня Middle+ из Москвы. Специализируется на разработке и поддержке систем обработки данных. Имеет опыт работы в отраслях FinTech & Banking и E-commerce & Retail. Ключевые навыки: Apache, BPMN, Data Vault 2.0, DWH, ETL/ELT, Kafka, S3, ClickHouse, PySpark, Spark Streaming, построение дашбордов. Участвовал в следующих проектах: - Создание корпоративного хранилища данных (S3 + Apache Iceberg) в FinTech & Banking. Разработал ingest-конвейер Oracle → Kafka → S3 (raw) → Iceberg (curated), реализовал schema evolution и partition pruning в Iceberg, подготовил техническую документацию. - ETL-процессы, DWH и аналитика продаж в E-commerce & Retail. Переписал сложные ETL-процессы, разработал витрины данных в ClickHouse, настроил CI/CD, развернул Docker-окружение, реализовал обработку Kafka-топиков, оркестрировал загрузку данных из различных источников. - Аналитика и автоматизация финансовых процессов в FinTech & Banking. Увеличил конверсию CTR SMS-предложений по кредитам, оптимизировал баннер в мобильном приложении, автоматизировал формирование финансовых отчётов, разработал Power BI-дашборд и realtime Grafana-дашборды. Ключевые навыки: • Хранилища данных (DWH, ODS): опыт построения с нуля, разработка стейджинг-, core- и витринных таблиц, работа с Data Vault 2.0. • S3, Apache Iceberg – работа с данными и хранилищами. • Kafka – интеграция источников, передача данных, обеспечение идемпотентности и надежности доставки. • CDC (Change Data Capture) – настройка на логах БД. • Построение архитектурных схем, проектирование процессов передачи и хранения данных. • Описание архитектурных решений и протоколов работы в случае сбоев (резервные БД, отказоустойчивость). • Подготовка технической документации, включая требования Центробанка. • Схемы взаимодействия таблиц (BPMN, ER-диаграммы).

Подробнее
FinTech & Banking • Media
ТБ
Тимур Б.
Москва
Data инженер
Senior
4 155,84 Р/час
anchor
Apache AirFlow
Apache Kafka
Apache Spark
CI/CD
ClickHouse
Data Vault
DBT
defect
Docker
+32

Тимур — Data инженер уровня Senior из Москвы, специализация — работа с данными. Имеет высшее образование по специальности «Управление и информатика в технических системах». Ключевые навыки: Anchor, Apache AirFlow, Apache Kafka, Apache Spark, CI/CD, ClickHouse, Data Vault, DBT, Docker, DWH, ETL, Git, GitLab, Grafana, Hadoop, Identity Server, Linux, Microsoft, OLAP, OLTP, Oracle Pl/SQL, PostgreSQL, Prometheus, Python, SQL, SSAS, SSIS, HDFS, Hive, Spark. Опыт работы на проектах: - Mediascope (с 2023 года, отрасль — Media): разработка и оптимизация ETL-пайплайнов для обработки рекламных данных на Spark, реализация унифицированной системы конфигурации Airflow DAG’ов, загрузка данных в Data Lake с интеграцией Kafka и Spark Streaming, внедрение системы алертинга и мониторинга кластера, интеграция ML-модели Whisper для транскрибации рекламных видео в текст. - Ингосстрах Банк (1 год 7 месяцев, отрасль — FinTech & Banking): реализация клиентского Web-сервиса с интерактивными отчётами по банковским продуктам на основе собранных в Oracle датасетов, унификация и очистка данных со всех неупорядоченных источников, работа с командной строкой Linux, Greenplum, знакомство с Teradata. Построение и развитие банковского DWH на Oracle Обработка потоков данных (clickstream, IoT) в экосистеме Hadoop (Spark, HDFS, Hive) Наполнение Big Data Platform (подключение различных источников, создание, очистка и стандартизация датасетов) Дизайн системы оповещений и метрик состояния Hadoop-кластера с помощью Grafana + Prometheus Проект по транскрибации нескольких миллионов роликов с помощью ML

Подробнее
E-commerce & Retail • Manufacturing • Telecom
АЛ
Андрей Л.
Москва
Инженер БД
Senior
4 285,71 Р/час
anchor
Ansible
Apache
Apache AirFlow
Apache Spark
Avro
Azure
Bash
Big Data
cdc
+64

Андрей — инженер баз данных уровня Senior из Москвы с опытом работы в сферах Telecom, Manufacturing и E-commerce & Retail. Специализируется на проектировании и оптимизации хранилищ данных, работе с Big Data и ETL-процессами. Владеет широким спектром технологий и инструментов, включая Apache AirFlow, Apache Spark, Hadoop, PostgreSQL, Oracle, Microsoft SQL Server, ClickHouse, Greenplum и другие. Имеет опыт работы на следующих проектах: - МегаФон: миграция корпоративного хранилища данных, проектирование многоуровневой архитектуры DWH, внедрение практик DataOps. - Тера Интегро: разработка и оптимизация распределённых DWH, создание алерт-систем на базе Zabbix, потоковая обработка данных. - НЛМК: миграция данных, оптимизация PostgreSQL, поддержка проектов и разрешение инцидентов, разработка ETL-процессов. - IQVIA: разработка и оптимизация хранилищ данных, стриминговая обработка данных, моделирование данных, обработка больших данных с использованием Apache Spark.

Подробнее
Нет подходящего специалиста?
Создайте бесплатный запрос на поиск в закрытом каталоге платформы