МУ
Максим У.
Мужчина, 32 года
Россия, Казань, UTC+3
Ставка
2 714,28 Р/час
НДС не облагается
Специалист доступен с 3 июля 2025 г.
Добавьте подходящих специалистов в список и оформите заявку для предварительного бронирования времени специалистов. После оформления заявки ваш персональный менеджер организует прохождение всех необходимых проверок с вами и каждым кандидатом из заявки. Специалист привлекается к проекту только после окончательного подтверждения его выхода с вашей стороны.
Подробнее
О специалисте
Специализация
Разработчик баз данных
Грейд
Навыки
Отрасли
Знание языков
Английский — B2
Главное о специалисте
Специализируюсь на работе с различными базами данных, настройкой ETL процессов, построением интеграций с различными ресурсами, а также автоматизированном сборе (парсинг, скраппинг) структурированной/неструктурированной информации.
Принимал участие в проектах компаний широкого перечня отраслей: видеохостинги, коммерческие банки, агентства недвижимости, а также финтех и производственные стартапы. Осуществлял разметку контента с помощью искусственного интеллекта, настраивал пайплайны для машинного обучения, оптимизировал отказоустойчивость процессов, аналитически собрал процесс для динамической сверки строимости разметки ручной и LLM. Разработал бэкенд коммерческого приложения для корпоративных клиентов банка. Руководил командой хранилища данных европейского стартапа для постройки архитектуры хранилища данных, подготовки к масштабированию, настройки системы качества данных и разработки интеграций с внешними сервисами.
Проекты
(9 лет)
Видеохостинг
Роль
Аналитик-разработчик (Архитектор DWH)
Обязанности
Осуществил миграцию ETL процессов из Nirvana в Airflow для интеграции инструментов
ДзенПлатформы в контур ВК. Разработал и реализовал методику расчета затрат на разметку
крауд-платформ против разметки с помощью LLM. Разработал промты для определения
категории видео/постов/рекламы исходя из текста, изображения, аудио, иногда - раскадровки.
Доработал узкие места ETL процессов, которые влияли на результаты разметки. Обучил
несколько ML-моделей на catboost для классификации контента по категориям. Собрал
дашборды(Datalens) для руководителей для анализа качества, скорости и стоимости разметки.
Основной стек: Ytsaurus, Nirvana, Hitman, Airflow, Oneflow, Datalens
Стек специалиста на проекте
ETL, Apache AirFlow, CatBoost, Работа с интеграциями, DataLens, hitman, llm, ytsaurus
Отрасль проекта
Media
Период работы
Ноябрь 2024 - Июнь 2025
(8 месяцев)
Корпоративный блок Банка
Роль
Дата-инженер/Разработчик (Архитектор DWH)
Обязанности
Изначально работал в команде сборки фичей для витрин данных для корпоративного блока
Банк: разработка фичей для расчета клиентских метрик; разработка интеграций с внешними
источниками для обогащения существующих витрин; разработка инструментов для
автоматизации миграции данных: сбор метаинформации об объектах, удаление мусора,
создание объектов по подобию, создание тестовых слоев данных, оптимизация объектов.
Написал временное решение взамен Airflow - шедулер, запускающий по расписанию SQL
скрипты. Начал разрабатывать методологию валидации клиентских атрибутов для
формирования знаний о покупателях продуктов экосистемы и улучшения конверсии.
Далее работал в команде разработки коммерческого продукта, где доработал бэкенд
приложения для интеграции данных из различных источников (API, веб-сайты, облачные
хранилища, 1С) в корпоративное хранилище данных (DWH), которое разворачивалось в
контуре Сбера. Написал интеграцию с Apache Nifi для создания базовых ETL процессов для
миграции данных. Написал интеграцию с 1С миграции данных в Postgres: получение списка
объектов в составе схем, получение атрибутного состава, слияние нескольких объектов, чтобы
получить вид "как в интерфейсе программы".
Стек специалиста на проекте
PostgreSQL, API, SQL, Kubernetes, GreenPlum, ETL, DWH, 1С, Apache AirFlow, Apache NiFi, Superset
Отрасль проекта
FinTech & Banking
Период работы
Август 2022 - Ноябрь 2024
(2 года 4 месяца)
Европейский стартап в области производства
Роль
Тимлид команды хранилища данных (Архитектор DWH)
Обязанности
Руководил командой из двух дата-инженеров: разработали аналитические витрины по заказу
бизнес-пользователей; построили систему контроля качества данных с оповещением в BI об
ошибках; спроектировали несколько специфических операторов для Airflow для работы с
Salesforce, Zendesk, ActivityRecords; переписали модели источников в Looker, чтобы
пользователи могли сами накликать дашборд.
Периодически выполняли технические работы для улучшения масштабируемости баз данных
(после добавления новых юрлиц в состав холдинга), отказоустойчивости ETL
(администрирование работы воркеров) и добавления фичей, которые могли бы ускорить
работу аналитиков.
Стек специалиста на проекте
BI, Zendesk, Apache AirFlow, Salesforce, Snowflake, DBT, Построение дашбордов, Looker BI
Отрасль проекта
Manufacturing
Период работы
Ноябрь 2021 - Декабрь 2022
(1 год 2 месяца)
Формат работы
Тип занятости
Фулл-тайм, Парт-тайм (20 ч/день)
Формат работы
Удаленно
Командировки
Не готов
Релокация
Не готов
Готов работать на зарубежных проектах
Нет
Дипломы и сертификаты
Аттестат ФСФР серии 2.0 2018 г.
Образование
Высшее
Учебное заведение
НИУ ВШЭ
Специальность
Фондовый рынок и инвестиции
Завершение учебы
2016 г.