ВК
Владислав К.
Мужчина, 20 лет
Беларусь, Гомель, UTC+3
Ставка
3 116,88 Р/час
НДС не облагается
Специалист доступен с 22 августа 2025 г.
Добавьте подходящих специалистов в список и оформите заявку для предварительного бронирования времени специалистов. После оформления заявки ваш персональный менеджер организует прохождение всех необходимых проверок с вами и каждым кандидатом из заявки. Специалист привлекается к проекту только после окончательного подтверждения его выхода с вашей стороны.
Подробнее
О специалисте
Специализация
Инженер БД
Грейд
Навыки
Отрасли
Проекты
(2 года 5 месяцев)
ИНФРАСТРУКТУРА УПРАВЛЕНИЯ БАНКОВСКОЙ АНАЛИТИКОЙ
Роль
Data-инженер
Обязанности
Разработка, развертывание и мониторинг модульных DAG'ов в Airflow для оркестрации пайплайнов;
Взаимодействие с DevOps-инженерами по вопросам развертывания и мониторинга приложений в Kubernetes;
Разработка оптимизированных SQL-запросов для анализа больших наборов данных, обеспечение точности, корректности и соответствия бизнес-требованиям;
Оптимизация SSIS-пакетов, минимизация времени выполнения за счет настройки индексов и параметров потоков данных;
Разработка адаптеров для интеграции внешних API и внутренних систем, обеспечивающая унифицированный доступ к данным в корпоративной экосистеме;
Поддержка стандартов кодирования T-SQL и проведение ревью скриптов коллег для повышения качества кода;
Разработка Python-скриптов для эффективной конвертации данных между форматами;
Совершенствование механизмов передачи данных в рамках ETL, повышающее скорость трансформации и загрузки в аналитические хранилища;
Разработка динамически генерируемых DAG’ов в Airflow c использованием Python;
Разработка CI/CD-пайплайнов с использованием GitLab;
Настройка логирования и мониторинга выполнения PySpark-джобов для обнаружения узких мест;
Профилирование и оптимизация Python-кода в ETL-заданиях;
Разработка ETL-скриптов на PySpark для извлечения, обработки и загрузки данных из MS SQL и PostgreSQL в целевое хранилище;
Реализация процедур резервного копирования и восстановления пакетов ETL для обеспечения отказоустойчивости;
Контейнеризация приложений с помощью Docker и Docker Compose;
Отслеживание финансовых метрик и разработка мер по минимизации рисков;
Проведение код-ревью Python-кода и SQL-запросов;
Документация SQL-решений и правил написания запросов.
Стек специалиста на проекте
PostgreSQL, Docker, SQL, Python, Power BI, Kubernetes, GitLab, Pandas, Numpy, Apache Spark, T-SQL, Microsoft, Docker Compose, Apache AirFlow, PySpark
Отрасль проекта
FinTech & Banking
Период работы
Июль 2024 - По настоящее время
(1 год 2 месяца)
СИСТЕМА ОНЛАЙН-ТОРГОВЛИ
Роль
Data-инженер
Обязанности
Оптимизация SQL-запросов и структуры таблиц в PostgreSQL для обеспечения высокой производительности OLTP-операций;
Создание хранимых процедур (скриптов) в PostgreSQL;
Проектирование и реализация ETL-процессов на PySpark для трансформации данных в аналитическом хранилище;
Разработка и оптимизация DAG'ов в Apache Airflow для оркестрации пайплайнов обработки данных о заказах и клиентах;
Контейнеризация приложений с помощью Docker и Docker Compose;
Разработка и поддержка сложных SQL-запросов и триггеров в PostgreSQL;
Реализация PySpark-джобов для преобразования форматов файлов перед архивированием;
Разработка Python-скриптов для извлечения данных из REST API сторонних сервисов;
Мониторинг и управление выполнением DAG в Apache Airflow для обеспечения стабильности и своевременности процессов;
Адаптировал и запускал PySpark-джобы в управляемых кластерах Yandex Data Proc, обеспечивая эффективную обработку больших объемов данных о заказах и клиентской активности;
Настройка конвертации XML в форматы для аналитической обработки;
Разработка интерфейсов взаимодействия между C#-модулями и SQL-серверами для безопасной и эффективной работы;
Разработка unit-тестов с использованием Python и фреймворка PyTest для ETL-компонентов;
Внедрял стандарты работы с данными на платформе, обеспечивая их каталогизацию, документирование и соответствие внутренним регламентам;
Создавал и внедрял систему мониторинга для оперативного отслеживания состояния витрин данных, гарантируя их качество и своевременное обновление.
Стек специалиста на проекте
PostgreSQL, Docker, C#, SQL, Python, GitHub, Data, Pandas, Numpy, Object, Apache Spark, Storage, Docker Compose, Apache AirFlow, Yandex Cloud, PySpark, cloud, proc, compute, service
Отрасль проекта
E-commerce & Retail
Период работы
Апрель 2023 - Июль 2024
(1 год 4 месяца)
Формат работы
Тип занятости
Фулл-тайм
Формат работы
Удаленно
Командировки
Не готов
Релокация
Не готов
Готов работать на зарубежных проектах
Нет