Тимофей М. Data инженер, Middle+

ID 22529
ТМ
Тимофей М.
Мужчина, 29 лет
Россия, Екатеринбург, UTC+5
Ставка
3 896,1 Р/час
НДС не облагается
Специалист доступен с 21 августа 2025 г.

Добавьте подходящих специалистов в список и оформите заявку для предварительного бронирования времени специалистов. После оформления заявки ваш персональный менеджер организует прохождение всех необходимых проверок с вами и каждым кандидатом из заявки. Специалист привлекается к проекту только после окончательного подтверждения его выхода с вашей стороны.

Подробнее
О специалисте
Специализация
Data инженер
Грейд
Middle+
Навыки
Apache AirFlow
Application
Atlassian
Bitbucket
ClickHouse
Confluence
CSS
Docker
ETL
Express.js
Git
Hadoop
HDFS
Hive
HTML
JavaScript
Jenkins
Jira
Kafka
Linux
Microsoft
MySQL
Oracle
Oracle Pl/SQL
Python
Spark
SQL
SSIS
ssms
Teradata
Grafana
API
AppsFlyer
AppStore Connect
CloudPayments
Firebase
Hooks
metabase
operate
PostgreSQL
Prometheus
Redash
Stripe
Построение дашбордов
Отрасли
FinTech & Banking
GameDev
Знание языков
Английский — B2
Главное о специалисте
Кандидат обладает 6-летним опытом работы в роли Data Engineer, включая опыт работы с Oracle, Teradata, Grafana, SQL, Python, Spark, Hadoop, Airflow и Hive. Он успешно разрабатывал и администрировал системы обработки данных, создавал аналитические витрины и дашборды, а также интегрировал базы данных с различными системами. Кандидат инициативен, коммуникабелен и умеет работать как индивидуально, так и в команде. Его навыки и опыт полностью соответствуют требованиям вакансии.
Проекты   (6 лет 6 месяцев)
Мобильное приложение геотрекер для детей и родителей.
Роль
Data Engineer
Обязанности
Проект: Мобильное приложение геотрекер для детей и родителей. Это мобильное приложение геотрекер для детей и родителей, есть во всех мобильных сторах, клиенты из 180+ стран Команда: Core команда, включающая Data Engineer, аналитики и продуктовые команды. Задачи: · Разрабатывал и поддерживал потоки данных MySQL - PostgreSQL - Kafka - ClickHouse. · Администрировал Apache Airflow, разрабатывал DAG, Operator, Hook. · Разрабатывал расчёты и их логику, создавал аналитические витрины и дашборды. · Интегрировал базы данных через API с маркетинговыми системами (AppsFlyer, Firebase). · Интегрировал базы данных через API с платёжными системами (AppStoreConnect, GooglePlay, CloudPayments, Stripe). · Оптимизировал и ускорял SQL запросы и расчёты. · Создавал систему мониторинга и алертов для повышения качества данных. · Подготавливал данные для команды аналитиков и продуктовых команд. · Активно участвовал в Agile-церемониях, включая планирование спринта, подготовку и ретроспективные собрания.
Достижения
Создание аналитических витрин и дашбордов, которые обеспечили команды аналитиков и продуктовые команды необходимыми данными для принятия решений. · Интеграция баз данных с маркетинговыми и платёжными системами через API, что улучшило взаимодействие между различными системами и повысило точность данных. · Оптимизация SQL запросов и расчётов, что привело к значительному ускорению обработки данных и повышению производительности системы. · Разработка системы мониторинга и алертов, что позволило своевременно выявлять и устранять проблемы с данными, повышая их качество. · Активное участие в Agile-церемониях, что способствовало улучшению процессов разработки и повышению эффективности командной работы
Стек специалиста на проекте
Grafana, Hooks, Аналитика данных, core, Базы данных, Мобильное приложение, ClickHouse, operate, SQL запросы, Spark, AppStore Connect, Hive, Data, API, Teradata, Oracle, Firebase, Prometheus, Hadoop, AppsFlyer, CloudPayments, Redash, Kafka, SQL, Docker, Python, Stripe, Аналитика, metabase, Apache AirFlow, MySQL, engineer, PostgreSQL, Построение дашбордов
Отрасль проекта
GameDev
Период работы
Октябрь 2022 - По настоящее время  (2 года 11 месяцев)
Система автоматического мониторинга и валидации данных для DS/ML моделей
Роль
Data Engineer / Analyst
Обязанности
Проект: Система автоматического мониторинга и валидации данных для DS/ML моделей Команда: 1 Data Engineer / Analyst, 1 Data Scientist, 1 DevOps инженер, проджект-менеджер, техлид. Задачи:: Выполнял задачи по сбору и обработке данных для создания витрин, используемых для обучения моделей DS/ML. Разрабатывал и внедрял системы автоматического мониторинга для периодической валидации DS/ML моделей, направленных на снижение кредитного риска. Проводил ad hoc валидацию витрин и моделей для обеспечения их точности и надежности. Разрабатывал и поддерживал инфраструктуру для обработки больших данных, используя Hadoop (HDFS, YARN, Hive), Spark и другие технологии. Выполнял анализ данных с использованием Python, Pandas и SQL для выявления трендов и аномалий. Использовал Git для управления версиями кода и обеспечения согласованности в команде. Активно участвовал в Agile-церемониях, включая планирование спринта, ретроспективные собрания и ежедневные стендапы. Обучал новых членов команды и проводил сессии по обмену знаниями для повышения общего уровня компетенции команды. Оказывал техническую поддержку Data Scientist и DevOps инженеру в вопросах, связанных с обработкой данных и мониторингом моделей. Создавал информативные отчеты по результатам мониторинга и валидации моделей для представления руководству и заинтересованным сторонам. Сбор, обработка данных и создание витрин для DS / ML специалистов для последующего обучения моделей на этих данных. Постановка на авто мониторинг (периодическую валидацию) DS / ML моделей по снижению кредитного риска для поиска моделей у которых снизилась точность предсказаний.
Достижения
Эффективное использование современных технологий, таких как Hadoop, Spark и Python, для обработки больших данных и анализа.
Стек специалиста на проекте
Git, SQL, Python, DevOps, Teradata, Oracle, Linux, Grafana, Yarn, Hive, Data, Spark, Hadoop, Pandas, Анализ данных, Apache AirFlow, AD, HDFS, scientists, analyst, engineer
Отрасль проекта
FinTech & Banking
Период работы
Март 2019 - Октябрь 2022  (3 года 8 месяцев)
Система для обработки и анализа данных в банковской сфере.
Роль
Data Engineer / Oracle Developer
Обязанности
Проект: Система для обработки и анализа данных в банковской сфере. (ETL процессы и расчет KPI). Команда: Data Engineer, Oracle Developer, разработчики ETL процессов, аналитики данных, проджект-менеджер. Задачи: · Разрабатывал и сопровождал ETL процессы для сбора, обработки, расчета и отправки данных с использованием Oracle, MS SQL Server, MS SSMS, MS SSIS, Teradata, GreenPlum. · Создавал и поддерживал программные модули на Oracle SQL и PL/SQL. · Разработал систему для сбора данных и расчета KPI для 6000 отделений Сбербанка, включая анализ данных с терминалов очередей (5 млн событий в день). · Разработал и внедрил систему расчета премии для сотрудников отдела Телемаркетинг (400 человек). · Участвовал в загрузке данных из различных баз данных (Oracle, MS SQL Server, Teradata, GreenPlum) с использованием MS SSMS и MS SSIS для последующей обработки. · Активно участвовал в Agile-церемониях, включая планирование спринта, подготовку и ретроспективные собрания.
Достижения
Создал систему для автоматического расчета KPI для 6000 отделений Сбербанка, что позволило сократить время на подготовку отчетов с 2 недель до 2 дней.
Стек специалиста на проекте
SQL, Python, Teradata, Oracle, Grafana, Hive, Data, Spark, Hadoop, GreenPlum, ETL, Pl/SQL, Oracle SQL, Microsoft, Apache AirFlow, SSIS, Identity Server, developer, ssms, KPI, engineer
Отрасль проекта
FinTech & Banking
Период работы
Март 2019 - Октябрь 2022  (3 года 8 месяцев)
Формат работы
Тип занятости
Фулл-тайм
Формат работы
Удаленно
Командировки
Готов
Релокация
Не готов
Готов работать на зарубежных проектах
Нет
Дипломы и сертификаты
New Professions Lab https://lk-spark-de.newprolab.com/certificate/timofey.melnikov.1636980925.pdf, Apache Spark для задач Data Engineering 2021 г.
Корпоративный университет Сбербанка Учебно-методическая лаборатория МФТИ, Экосистема Hadoop 2021 г.
Образование
Высшее
Учебное заведение
Финансовый университет при Правительстве Российской Федерации, Москва Факультет информационных технологий и анализа больших данных, Прикладная информатика.
Специальность
Управление большими данными
Завершение учебы
2025 г.
Высшее
Учебное заведение
Уральский федеральный университет имени первого Президента России Б.Н. Ельцина, Екатеринбург Высшая школа экономики и менеджмента,
Специальность
Экономика и менеджмент
Завершение учебы
2018 г.

Похожие специалисты

E-commerce & Retail • FinTech & Banking • Government & Public Sector
КН
Кирилл Н.
Ростов-на-Дону
Data инженер
Middle+
3 896,1 Р/час
Ansible
Apache AirFlow
Astra Linux
Atlassian
Bash
Bitbucket
Cassandra
Celery
CI/CD
Docker
+66

Кирилл — data-инженер из Ростова-на-Дону. Обладает опытом работы на проектах в сферах FinTech & Banking, Government & Public Sector и E-commerce & Retail. На проекте для компании из сферы FinTech & Banking занимался обработкой больших объёмов информации, анализом данных, разработкой дата-пайплайнов и организацией data quality. Использовал Python, bash, Hadoop, Greenplum, PL/pgSQL, Atlassian, Jupyter, Hue, Hive, Airflow, Superset, Power Bi, PySpark, Pandas, PyArrow. Для государственной компании разрабатывал детальный слой и строил витрины, писал пайплайны по доставке и обработке данных. Использовал Python, Apache Airflow, Git, Posgresql. В качестве python-разработчика для госструктуры создавал скрипты для автоматизации бизнес-процессов и администрирования оборудования, а также писал процедуры для баз данных. В работе использовал Python, Bash, FastAPI, Sqlalchemy, ansible, postman, Git, pgsql, Linux, Docker, Prometheus, Grafana и др. Опыт работы на позиции python-разработчика включал аналитику данных и контроль data quality, разработку скриптов по автоматизации и эксплуатацию измерительной техники. Использовал Python, bash, MySQL, Postgresql, Astra Linux, SecretNet. На последнем месте работы в сфере E-commerce & Retail занимался интеграцией реляционных и нереляционных источников, настройкой мониторинга и алертинга, нормализацией и очисткой данных. Работал со стеком из MongoDB, Postgres, S3, YandexCloud, Greenplum, Python, SQL, Ni-Fi, Airflow, Kafka, k8s, Jenkins, Github, ELK, Grafana, Vault.

Подробнее
AI & Robotics • E-commerce & Retail • Logistics & Transport • Telecom
СМ
Сергей М.
Набережные Челны
Data инженер
Senior
4 367,22 Р/час
Adobe Photoshop
Agile
Apache AirFlow
apache hive
Apache NiFi
Big Data
CI/CD
ClickHouse
Confluence
+65

Сергей — Data-инженер уровня Senior из Набережных Челнов. Специализируется на работе с большими данными и имеет опыт в отраслях E-commerce & Retail, AI & Robotics, Logistics & Transport, Telecom. Ключевые навыки: работа с базами данных (PostgreSQL, Oracle, MySQL), ETL/ELT-процессы, Apache Airflow, ClickHouse, Hadoop, Kafka, Scala, Spark, DataLens, Power BI, Confluence, Git, Kubernetes. Имеет опыт работы на следующих проектах: - Проект для крупного ритейла: миграция данных из различных источников, оптимизация процессов обработки данных, использование DBT, Trino, Helm, Groovy-скрипты для доработки компонентов Apache NiFi. - EasyCode: организация DWH-хранилища, автоматизация ETL/ELT-процессов, работа с ClickHouse, PostgreSQL, Google Sheets, визуализация данных в DataLens. - Мега маркет: разработка цифровых решений для e-commerce, миграция данных в ClickHouse и Greenplum, работа с Firebase, MsSQL, Яндекс.Метрика, Google Analytics. - KazanExpress: автоматизация отчётности и визуализация данных, создание дашбордов в DataLens, формирование витрин данных в ClickHouse. - МТС: формирование отчётности по продажам B2C и B2B, работа с MySQL, Oracle BI, Power BI.

Подробнее
FinTech & Banking • Logistics & Transport • Media • Telecom
РД
Роман Д.
Београд
Data инженер
Middle+
3 596,53 Р/час
Python
PostgreSQL
Apache AirFlow
GreenPlum
SQL
Git
Docker
Kafka
Hadoop
Oracle
+41

Роман — опытный Data-инженер уровня Middle+ с опытом работы более 4 года. Он обладает широким спектром навыков в области разработки и аналитики данных, включая знание Python, PostgreSQL, Apache AirFlow, GreenPlum, SQL, Git, Docker, Kafka, Hadoop, Oracle, ETL, DWH, PySpark, Jira, Hive, Clickhouse, Data, MySQL, BI, API, FastAPI, Pl/SQL, MongoDB, Redis, Spark, Apache Spark, Bash, Confluence, GitLab CI/CD, Grafana, HDFS, CI/CD, GitLab, oozie, Scala, Akka, HTTP, REST, Jenkins, Jupyter Notebook. Роман работал над проектами в таких отраслях, как медиа, телекоммуникации, логистика и транспорт, финтех и банкинг. На проектах он занимался созданием и поддержкой ETL-конвейеров, рефакторингом кода, настройкой мониторинга и алертинга, проектированием решений для DWH и разработкой REST API. Опыт Романа включает работу в IT-компании, где он участвовал в создании изолированной среды разработки для аналитиков, а также в телекоммуникационной компании, автомобильном бизнесе и банке. В последнем проекте он разработал витрину данных, которая сэкономила компании порядка 80 млн рублей в квартал.

Подробнее
E-commerce & Retail • EdTech • RnD
АК
Алексей К.
Белград
Data инженер
Senior
4 110,32 Р/час
Python
Hadoop
Apache AirFlow
AWS
AWS RDS
Bash
beams
Big Data
BigQuery
C++
+106

Алексей — опытный Data инженер с более чем шестилетним опытом работы в проектах RnD, E-commerce & Retail и EdTech. В портфолио Алексея есть несколько успешных проектов: Customer360, разработка программного обеспечения для бухгалтерского учёта для одного из крупнейших розничных продавцов товаров для дома, Apache Superset по визуализации данных для целей BI, внутренний проект, направленный на решение проблем повторного развёртывания групп DAG Airflow на учётных записях Kohls и IAS, IAS Python Upgrade, настройка и поддержка кластера Hadoop/Spark, разработка приложений на Hadoop/Spark для научных целей. Алексей участвовал в разработке и поддержке групп DAG Airflow для преобразования данных, включая сшивание данных; разработал и спроектировал Metadag Airflow DAG, которая автоматизирует и повышает уровень понимания процессов в команде C360; выполнил общую миграцию из локальных в облачные сервисы; получил большой опыт в разработке приложений Flask, выполнении миграций БД с использованием SQLAlchemy и Alembic; разработал внутреннюю систему контроля доступа для приложения Superset; разработал пакет Python3 airflow-redeploy, который упрощает процесс повторного развёртывания групп DAG через официальный REST API и плагин REST API.

Подробнее
FinTech & Banking • Media
ТБ
Тимур Б.
Москва
Data инженер
Senior
4 155,84 Р/час
anchor
Apache AirFlow
Apache Kafka
Apache Spark
CI/CD
ClickHouse
Data Vault
DBT
defect
Docker
+32

Тимур — Data инженер уровня Senior из Москвы, специализация — работа с данными. Имеет высшее образование по специальности «Управление и информатика в технических системах». Ключевые навыки: Anchor, Apache AirFlow, Apache Kafka, Apache Spark, CI/CD, ClickHouse, Data Vault, DBT, Docker, DWH, ETL, Git, GitLab, Grafana, Hadoop, Identity Server, Linux, Microsoft, OLAP, OLTP, Oracle Pl/SQL, PostgreSQL, Prometheus, Python, SQL, SSAS, SSIS, HDFS, Hive, Spark. Опыт работы на проектах: - Mediascope (с 2023 года, отрасль — Media): разработка и оптимизация ETL-пайплайнов для обработки рекламных данных на Spark, реализация унифицированной системы конфигурации Airflow DAG’ов, загрузка данных в Data Lake с интеграцией Kafka и Spark Streaming, внедрение системы алертинга и мониторинга кластера, интеграция ML-модели Whisper для транскрибации рекламных видео в текст. - Ингосстрах Банк (1 год 7 месяцев, отрасль — FinTech & Banking): реализация клиентского Web-сервиса с интерактивными отчётами по банковским продуктам на основе собранных в Oracle датасетов, унификация и очистка данных со всех неупорядоченных источников, работа с командной строкой Linux, Greenplum, знакомство с Teradata. Построение и развитие банковского DWH на Oracle Обработка потоков данных (clickstream, IoT) в экосистеме Hadoop (Spark, HDFS, Hive) Наполнение Big Data Platform (подключение различных источников, создание, очистка и стандартизация датасетов) Дизайн системы оповещений и метрик состояния Hadoop-кластера с помощью Grafana + Prometheus Проект по транскрибации нескольких миллионов роликов с помощью ML

Подробнее

Недавно просмотренные специалисты

FinTech & Banking • Government & Public Sector
ПМ
Павел М.
Москва
Архитектор
Senior
4 805,19 Р/час
методологии
ArtemisMQ
gateway
Работа с интеграциями
UML
reactive
river
EDA
Mesh
Базы данных
+57

Активный, ответственный и целеустремлённый специалист с сильным математическим образованием, системным мышлением и аналитическим складом ума. Практикую системный подход к поставленным задачам, работаю на результат. С интересом осваиваю новые технологии, стремлюсь к обучению и саморазвитию. В трудностях вижу в возможность получить уникальный опыт. Помимо проектирования распределенных систем и борьбы за проценты uptime, убежден, что лучшие решения рождаются на стыке технологий, математики и понимания бизнеса. Для меня архитектура — это инженерия в чистом виде: найти надежное решение сложной проблемы. Горжусь тем, что мои архитектурные решения (как в Газпромбанке, так и в РТ Лабс) напрямую влияли на бизнес-метрики: рост продаж кредитов, снижение time-to-market. Вне работы люблю задачи, требующие терпения и системного подхода и ощущения “потока”. Ищу проект, где смогу применить весь спектр навыков — от глубокого тех.погружения до стратегического видения — для создания по-настоящему мощной и современной ИТ-платформы. Самая интересная и/или технически сложная задача из опыта? Проектирование и внедрение системы аналитики поверх централизованного логирования. В рамках этой задачи требовалась обработка Big Data: Работа с огромными объемами логов (ELK, Hadoop, Spark). Распределенность и отказоустойчивость: Система развернута в двух дата-центрах (active-active), требующая сложной синхронизации и обеспечения бесперебойной работы. Работа в режиме реального времени. Для выявления аномалий применялись ML/AI Куда хотелось бы развиваться: технически или в менеджмент? Технически Какими задачами хотелось бы заниматься? Внедрением новых технологий: AI/ML, гибридные облака Иные высоконагруженные, отказоустойчивые системы Повышение эффективности разработки и снижение time-to-market: Разработка и внедрение технологической стратегии и roadmap Масштабирование и оптимизация производительности Какими задачами не хотелось бы заниматься? Менеджментом

Подробнее
AI & Robotics • E-commerce & Retail
КЧ
Клим Ч.
Краснодар
QA авто
Middle+
3 372,08 Р/час
Регрессионное тестирование
Selenium WebDriver
IOS
Agile/Scrum
proxy
Gitlab CI
архитектура
Тестирование интеграций
GitLab
Разработка
+48

Клим — опытный QA-специалист с грейдом Middle+. Он обладает навыками работы с различными инструментами и технологиями, такими как Androidx, API, Bash, Charles, Confluence, Cross-browser testing, Cypress, DevTools, Git, GitLab CI, HarmonyOS, Jira, PostgreSQL, Postman, Proxy, REST, Selenium, Smoke testing, SOAP, Testing, WebDriver, а также навыками разработки и тестирования. Клим имеет опыт работы на проектах в сфере e-commerce & Retail и AI & Robotics. Он участвовал в разработке маркетплейса по продаже продуктов и товаров для дома для сети магазинов SPAR, где занимался анализом требований, написанием тестовой документации, тестированием и анализом систем на основе микросервисной архитектуры (MSA), автоматизацией тестирования при помощи Selenium WebDriver и JavaScript, проведением мобильного тестирования на iOS/Android/HarmonyOS и другими задачами. Также Клим работал над проектом по созданию ПО для генерации контента с помощью искусственного интеллекта, где выполнял аналогичные задачи. Кроме того, он участвовал в разработке и внедрении новых плагинов для заказчиков, интеграции между сайтами, а также выполнял различные проекты на заказ. Общая продолжительность работы Клима на проектах составляет 4 года и 1 месяц.

Подробнее