Кирилл Е. Data инженер, Senior

ID 14929
КЕ
Кирилл Е.
Мужчина
Сербия, Белград, UTC+1
Ставка
3 853,43 Р/час
вкл. НДС 5% (142.86 Р)
Специалист доступен с 13 сентября 2025 г.

Добавьте подходящих специалистов в список и оформите заявку для предварительного бронирования времени специалистов. После оформления заявки ваш персональный менеджер организует прохождение всех необходимых проверок с вами и каждым кандидатом из заявки. Специалист привлекается к проекту только после окончательного подтверждения его выхода с вашей стороны.

Подробнее
О специалисте
Специализация
Data инженер
Грейд
Senior
Навыки
SQL
Pandas
ClickHouse
BI
Power BI
Data Studio
metabase
Python
PostgreSQL
Numpy
Asynco
CatBoost
Firebase
Google Analytics
Яндекс.Метрика
Jira
Confluence
Scrum
Agile
GitHub
App Script
Power Query
DAX
Asyncio
Lite
API
BPMN
UML
Hadoop
Git
GitLab
Bitbucket
MS Excel
GoogleSheets
Отрасли
E-commerce & Retail
FinTech & Banking
Знание языков
Русский — C2
Английский — B2
Главное о специалисте
Кирилл — опытный Data инженер с шестилетним опытом работы на проектах в сфере E-commerce & Retail и FinTech & Banking. Он обладает глубокими знаниями и навыками в области работы с данными, включая SQL, Python, Power BI, Data Studio, Clickhouse, PostgreSQL, Numpy, Asynco, CatBoost, Firebase, Google Analytics, Яндекс.Метрика, Jira, Confluence, Scrum, Agile, GitHub, Google Sheets, App Script, Excel, Power Query, DAX, Asyncio, Lite, API, BPMN, UML, Hadoop, git, Gitlab, Bitbucket. На своих предыдущих местах работы Кирилл занимался разработкой и внедрением аналитических решений, оптимизацией процессов загрузки данных, работой с API для интеграции данных из различных внешних систем и сервисов, регулярным аудитом и нормализацией данных. Также он проводил обучение и онбординг для сотрудников.
Проекты   (8 лет)
IT компания
Роль
Data инженер
Обязанности
Обязанности: 1. Проводил сбор и анализ требований для будущих дашбордов; 2. Разрабатывал и внедрял аналитические решения с использованием Power BI, Data Studio; 3. Оптимизировал процессы загрузки данных; 4. Работал с API для интеграции данных из различных внешних систем и сервисов; 5. Проводил регулярный аудит и нормализацию данных для обеспечения их актуальности и консистентности; 6. Проводил обучение и онбординг для сотрудников; 7. Подключение к внешнему API для получения данных из CRM; 8. Сохранение и получение данных из базы с помощью SQL; 9. Визуализация данных с помощью Power BI; 10. Изучение новых данных и проверка гипотез с помощью Python (Pandas, NumPy, Asyncio, CatBoost); 11. Создание парсеров, обработчиков; 13. Проектирование и описание интеграция REST API, Kafka; 14. Построение логической модели; 15. Проектирование моделей ML; 16. Знания GraphQL; 17. Оптимизация запросов; 18. Работа с ETL - процессами; 19. Работа с системами контроля версий (git, GitLab, Bitbucket).
Стек специалиста на проекте
PostgreSQL, Git, API, SQL, Python, Power BI, Bitbucket, GitLab, GitHub, Pandas, DAX, Numpy, MS Excel, Power Query, Asyncio, CatBoost, GoogleSheets, App Script, Lite
Отрасль проекта
E-commerce & Retail
Период работы
Январь 2024 - По настоящее время  (1 год 9 месяцев)
INOSTUDIO
Роль
Data инженер
Обязанности
Обязанности: 1. Разработал и внедрил методологии работы над проектами; 2. Вел ключевые проекты компании; 3. Проводил оценку новых проектов; 4. Координация работы команды с другими отделами и руководством; 5. Проводил отраслевые исследования; 6. Сбор данных о пользователях и их поведении в мобильном приложении с помощью Firebase, Google Analytics, Яндекс.Метрика; 7. Разработка фичей и пользовательского опыта с помощью BPMN; 8. Разработка архитектуры и пайпланов с помощью UML; 9. Использование систем ведения документации.
Стек специалиста на проекте
BPMN, Agile, UML, Google Analytics, Scrum, Firebase, Яндекс.Метрика
Отрасль проекта
E-commerce & Retail
Период работы
Ноябрь 2022 - Январь 2024  (1 год 3 месяца)
ВТБ
Роль
Data Инженер
Обязанности
Обязанности: 1. Построил систему показателей на базе DataStudio, DataLens, Google sheets (суммарно создано более 250 показателей); 2. Написал более 100 SQL запросов; 3. Описывал требования для повышения качества данных; 4. Проводил клиентский анализ (Сегментирование, расчет Unit экономики, выявление паттернов поведения клиента); 5. Разрабатывал KPI для продукта и команды; 6. Создавал прогнозные и финансовые модели; 7. Работа с DWH с помощью Postgres; 8. Сбор данных о пользователях и их поведении в мобильном приложении с помощью Firebase, Google Analytics, Яндекс.Метрика; 9. Работа над Ad-hoc задачами с помощью Excel, Power Query, DAX; 10. Визуализация активности пользователей с помощью Data Studion; 11. Работа с ETL - процессами, сериализация и транспортирование данных в контур банка; 12. Проектирование и описание интеграция REST API, Kafka; 13. Работа с распределенными базами данных (Hadoop); 14. Оптимизация запросов; 15. Использование систем ведения документации.
Стек специалиста на проекте
PostgreSQL, SQL, Google Analytics, Firebase, ClickHouse, Hadoop, DAX, MS Excel, Power Query, Data Studio, Яндекс.Метрика, GoogleSheets, App Script
Отрасль проекта
FinTech & Banking
Период работы
Апрель 2020 - Октябрь 2022  (2 года 7 месяцев)
Формат работы
Тип занятости
Фулл-тайм
Формат работы
Удаленно
Командировки
Не готов
Релокация
Не готов
Готов работать на зарубежных проектах
Нет
Образование
Высшее
Учебное заведение
СПбГУП
Специальность
Экономика (Бакалавр)
Завершение учебы
2017 г.
Высшее
Учебное заведение
СПбГЭУ
Специальность
Экономика (Магистр)
Завершение учебы
2020 г.

Похожие специалисты

AI & Robotics • E-commerce & Retail • Logistics & Transport • Telecom
СМ
Сергей М.
Набережные Челны
Data инженер
Senior
4 367,22 Р/час
Adobe Photoshop
Agile
Apache AirFlow
apache hive
Apache NiFi
Big Data
CI/CD
ClickHouse
Confluence
+65

Сергей — Data-инженер уровня Senior из Набережных Челнов. Специализируется на работе с большими данными и имеет опыт в отраслях E-commerce & Retail, AI & Robotics, Logistics & Transport, Telecom. Ключевые навыки: работа с базами данных (PostgreSQL, Oracle, MySQL), ETL/ELT-процессы, Apache Airflow, ClickHouse, Hadoop, Kafka, Scala, Spark, DataLens, Power BI, Confluence, Git, Kubernetes. Имеет опыт работы на следующих проектах: - Проект для крупного ритейла: миграция данных из различных источников, оптимизация процессов обработки данных, использование DBT, Trino, Helm, Groovy-скрипты для доработки компонентов Apache NiFi. - EasyCode: организация DWH-хранилища, автоматизация ETL/ELT-процессов, работа с ClickHouse, PostgreSQL, Google Sheets, визуализация данных в DataLens. - Мега маркет: разработка цифровых решений для e-commerce, миграция данных в ClickHouse и Greenplum, работа с Firebase, MsSQL, Яндекс.Метрика, Google Analytics. - KazanExpress: автоматизация отчётности и визуализация данных, создание дашбордов в DataLens, формирование витрин данных в ClickHouse. - МТС: формирование отчётности по продажам B2C и B2B, работа с MySQL, Oracle BI, Power BI.

Подробнее
E-commerce & Retail • FinTech & Banking • Government & Public Sector
КН
Кирилл Н.
Ростов-на-Дону
Data инженер
Middle+
3 896,1 Р/час
Ansible
Apache AirFlow
Astra Linux
Atlassian
Bash
Bitbucket
Cassandra
Celery
CI/CD
Docker
+66

Кирилл — data-инженер из Ростова-на-Дону. Обладает опытом работы на проектах в сферах FinTech & Banking, Government & Public Sector и E-commerce & Retail. На проекте для компании из сферы FinTech & Banking занимался обработкой больших объёмов информации, анализом данных, разработкой дата-пайплайнов и организацией data quality. Использовал Python, bash, Hadoop, Greenplum, PL/pgSQL, Atlassian, Jupyter, Hue, Hive, Airflow, Superset, Power Bi, PySpark, Pandas, PyArrow. Для государственной компании разрабатывал детальный слой и строил витрины, писал пайплайны по доставке и обработке данных. Использовал Python, Apache Airflow, Git, Posgresql. В качестве python-разработчика для госструктуры создавал скрипты для автоматизации бизнес-процессов и администрирования оборудования, а также писал процедуры для баз данных. В работе использовал Python, Bash, FastAPI, Sqlalchemy, ansible, postman, Git, pgsql, Linux, Docker, Prometheus, Grafana и др. Опыт работы на позиции python-разработчика включал аналитику данных и контроль data quality, разработку скриптов по автоматизации и эксплуатацию измерительной техники. Использовал Python, bash, MySQL, Postgresql, Astra Linux, SecretNet. На последнем месте работы в сфере E-commerce & Retail занимался интеграцией реляционных и нереляционных источников, настройкой мониторинга и алертинга, нормализацией и очисткой данных. Работал со стеком из MongoDB, Postgres, S3, YandexCloud, Greenplum, Python, SQL, Ni-Fi, Airflow, Kafka, k8s, Jenkins, Github, ELK, Grafana, Vault.

Подробнее
EdTech • Hardware
СП
Сергей П.
Санкт-Петербург
Data инженер
Lead
4 349,14 Р/час
Agile
Apache
Apache Hadoop
Apache Spark
Apache Superset
arch
arrow
Bash
C/C++
CentOS
+63

• Сильные технические и математические навыки, умение быстро осваивать инструменты и алгоритмы для работы с данными благодаря богатому и глубокому опыту сфере анализа и исследований • Приобрел успешный опыт в Data Science, начиная от научных исследований (c 2010), потом практических задач для ИТ инфраструктуры инновационного экопарка переработки отходов, и сейчас в проектировании функциональных требований к архитектуре и в сборке и разработке ML моделей и подходов для сложных аналитических систем (умного озера, СУДД, банка, телекоммуникаций) • Эксперт в языке Python (PyCharm & Jupyter) для решения задач по Data Science и для анализа данных (также есть опыт веб разработки в Django & Flask) • Работает с библиотеками, такими как Pandas (+Dask), NumPy, Matplotlib (seaborn, plotly), Statsmodels, SciPy, Scikit-learn и Keras, NTLK, PySpark • Моделировал данные для машинного обучения • Знаком с архитектурой и компонентами экосистемы Big Data, включая GreenPlum, HDFS и облачные хранилища, такие как S3 (MinIO) • Понимает особенности работы с колончатыми базами данных, особенности написания запросов и их последовательной оптимизации, влияние вида запроса на скорость работы и нагрузку на базу данных, задачи и операции, которые требуют специфического решения для колончатых баз данных • Обладает опытом работы с BI инструментами, включая Power BI, Apache Superset (эксперт), Zeppelin • Имеет опыт использования контейнеризации и оркестрации с Docker, включая CI/CD процессы в GitLab • Знаком с ETL инструментами Apache AirKow, DBT, Spark • Также владеет знанием языков программирования C, C++, Java Script, HTML, CSS • Управляет проектами и пользуется инструментами Jira, ConНuence • Обладает опытом работы в Agile среде (- Scrum, Kanban) с использованием инструментов управления проектами, таких как Jira и ConНuence Coursera. Введение в квантовые вычисления. Нейронные сети и глубокое обучение.

Подробнее

Недавно просмотренные специалисты

Blockchain
ДБ
Дмитрий Б.
Омск
Frontend разработчик
Middle+
3 506,49 Р/час
Git
JavaScript
Jira
Figma
REST API
Swagger
Redux
GitLab
TypeScript
Next.js
+18

Дмитрий — опытный frontend-разработчик с грейдом Middle+. Он обладает навыками работы с React, JavaScript, Next.js, TypeScript, Redux Toolkit, zustand, deckgl и другими инструментами. Дмитрий участвовал в разработке Единой цифровой платформы управления транспортной системы городской агломерации. В рамках проекта он разработал раздел для сбора данных и визуализации статистики по модулю управления общественным транспортом, реализовал слои и кластеры на интерактивных картах, работал над авторизацией и управлением правами доступа, разработал модуль планирования и управления маршрутами общественного транспорта. Кроме того, Дмитрий разработал часть компонентов для UI-кита и интегрировал их в приложение. Также Дмитрий участвовал в создании B2B портала реализации неликвидной продукции металлургической организации ОМК. На этом проекте он реализовал каталог товаров и механизмы фильтрации, поиска, пагинации и сортировки, выявил проблему с помощью Lighthouse и оптимизировал работу с большими объёмами данных, осуществил настройку Webpack и статических анализаторов кода, разработал функционал корзины, личного кабинета и каталога товаров.

Подробнее
BioTech, Pharma, Health care & Sports • E-commerce & Retail • Logistics & Transport • Realty & Constructoring
СА
Сергей А.
Челябинск
Java разработчик
Senior
3 896,1 Р/час
JDBS
micrometer
Grafana
GitLab
Postman
Spring Data
ClickHouse
Spring Cloud
Keycloak
Java
+43

Опытный Java Backend-разработчик с широкими знаниями в области проектирования серверной части приложений и работы с базами данных. Стремлюсь к написанию эффективного и легко поддерживаемого кода, который способствует масштабируемости и стабильности системы. Умею работать как в команде, так и самостоятельно, хорошо организован. Мои сильные стороны: вниманием к деталям, усидчивость и ответственность при выполнении задач. Владею английским языком на уровне B1. Ключевые навыки и технологии: • Проектирование и разработка RESTful API. • Работа с реляционными базами данных. • Углубленная работа с операционной системой Linux • Оптимизация запросов и производительности базы данных. • Разработка высоконагруженных систем. • Внедрение и поддержка микросервисной архитектуры и сервис-ориентированной архитектуры. • Тестирование приложений с использованием JUnit, Mockito. • Опыт работы с Docker и Kubernetes для контейнеризации приложений. • Участие в код-ревью и улучшение качества кода. • Интеграция с внешними API. • Владение английским на уровне B1.

Подробнее
Cloud Services • FinTech & Banking • Marketing, Advertising & Design
АМ
Антон М.
Москва
Data Scientist
Senior
4 025,97 Р/час
Git
SQL
Python
Machine learning
Spark
Pandas
Numpy
Matplotlib
Scikit-learn
PyTorch
+19

Владею инструментами для работы с данными на всех этапах: - сбор данных из внешних источников (парсинг) или работа с внутренними базами данных - анализ данных в jupyter notebook - моделирование - вывод моделей в продакшн: airflow, docker - проведение A/B тестов и оценка их результатов: умею работать с ratio метриками Умею писать понятный код на python, с логированием и автотестами. Владею инструментами bigdata: умею писать map reduce задачи, а также владею pyspark, имею опыт с Cassandra. Люблю NLP во всех его проявлениях. Обладаю навыками необходимыми для менторинга младших коллег, умею давать развивающую обратную связь. Понимаю каким образом должна выглядеть инфраструктура данных для продуктивного моделирования. Имею опыт создания витрин признаков, написания регламентов по работе с данными, формализации пайплайнов моделирования.

Подробнее