Алибек Д. Data инженер, Middle+

ID 20759
АД
Алибек Д.
Мужчина
Казахстан, Алматы, UTC+5
Ставка
3 468,09 Р/час
вкл. НДС 5% (128.57 Р)
Специалист доступен с 26 октября 2025 г.

Добавьте подходящих специалистов в список и оформите заявку для предварительного бронирования времени специалистов. После оформления заявки ваш персональный менеджер организует прохождение всех необходимых проверок с вами и каждым кандидатом из заявки. Специалист привлекается к проекту только после окончательного подтверждения его выхода с вашей стороны.

Подробнее
О специалисте
Специализация
Data инженер
Грейд
Middle+
Навыки
Linux
Oracle Pl/SQL
Python
Git
Qlik Sense
Informatica Power Center
GreenPlum
Vertica
Spark
Hadoop
Hive
Apache AirFlow
Docker
PostgreSQL
ETL
Apache Kafka
ClickHouse
Нереляционные БД (NoSQL)
Oracle BI
СУБД
Отрасли
FinTech & Banking
Знание языков
Русский — C2
Английский — B1
Главное о специалисте
Алибек — data-инженер уровня middle+. На текущем месте работы руководит командой инженеров по работе с корпоративными данными. Занимается построением и оптимизацией приложений Spark, проектирует и разрабатывает модели данных, схемы баз данных и рабочие процессы интеграции данных. Создаёт мониторинг системы всех процессов на Grafana, работает с различными форматами файлов и уверенно владеет БД. Взаимодействует с бизнес-пользователями для понимания их потребностей в отчётности и аналитике, проектирует и реализует информационные панели и визуализации Qlik Sense.
Проекты   (6 лет 3 месяца)
IT компания
Роль
Data Engineer
Обязанности
Обязанности: 1. Руководство командой инженеров по работе с корпоративными данными; 2. Построение нового ЗД для скорингового процесса; 3. Разработка построения и оптимизация приложений Spark с использование Pyspark для парсинга и трансформации масштабных и сложных наборов данных; 4. Проектирование и разработка моделей данных, схем баз данных и рабочих процессов интеграции данных с использованием SQL и PL/SQL; 5. Создание мониторинга системы всех процессов: Grafana (Telegram alerts and notifications); 6. Опыт работы с инструментами управления рабочими процессами, такими как Airflow, и инструментами интеграции данных, такими как Ni-Fi; 7. Работа м форматами файлов Orc, Parquet, Json, XML, CSV; 8. Построение и поддержка структур Data Mart для обеспечения потребностей в отчетности и анализе с использованием Informatica Power Center и Airflow; 9. Взаимодействие с бизнес - пользователями для понимания их потребностей в отчетности и аналитике, проектирование и реализация информационных панелей и визуализаций Qlik Sense; 10. Уверенное владение БД; 11. Составление сложных SQL запросы/процедуры/функции и разработка на SQL-диалекте (PL/SQL и pgSQL); 12. Работа с большими нагруженными системами (системы принятия решения/моментальной обработки данных/высоконагруженные системы); 13. Оптимизация запросов; 14. Работа с многопоточностью; 15. Организация распределенной обработки.
Стек специалиста на проекте
PostgreSQL, Git, Jira, Confluence, SQL, Python, Oracle, Grafana, Hive, Spark, Hadoop, GreenPlum, Pl/SQL, Kafka, Vertica, Apache AirFlow, HDFS, DBT, qlik, Informatica PC/DEI
Отрасль проекта
FinTech & Banking
Период работы
Август 2022 - По настоящее время  (3 года 3 месяца)
Банк Центр Кредит
Роль
Data Engineer
Обязанности
Обязанности: 1. Разработка и поддержка ETL - процессов с использованием Informatica Power Center для извлечения данных из различных источников, их преобразования и загрузки в целевые системы; 2. Проектирование и создание моделей данных, схем баз данных и рабочих процессов интеграции данных с применением SQL и PL/SQL; 3. Разработка и оптимизация SQL - запросов для эффективного извлечения данных и анализа; 4. Сотрудничество с HR и управленческими командами для непрерывного улучшения хранилища данных и аналитических возможностей в области мотивации сотрудников; 5. Уверенное владение БД; 6. Составление сложных SQL запросы/процедуры/функции и разработка на SQL-диалекте (PL/SQL и pgSQL).
Стек специалиста на проекте
PostgreSQL, Git, Jira, Confluence, Python, Oracle, MongoDB, ETL, Pl/SQL, qlik, Нереляционные БД (NoSQL), Informatica PC
Отрасль проекта
FinTech & Banking
Период работы
Апрель 2022 - Июль 2022  (4 месяца)
Сбер
Роль
Data Engineer
Обязанности
Обязанности: 1. Разработка и проектирование моделей данных и рабочих процессов интеграции данных с использованием SQL и PL/SQL; 2. Создание и поддержка процессов ETL с применением Informatica Power Center для извлечения данных из различных источников, их преобразования и загрузки в целевые системы; 3. Разработка и оптимизация SQL-запросов для эффективного извлечения и анализа данных; 4. Построение и поддержка структур Data Mart для нужд отчетности и аналитики; 5. Взаимодействие с бизнес - пользователями для понимания их потребностей в отчетности и аналитике, проектирование и реализация дэшбордов и визуализаций в Qlik Sense; 6. Сотрудничество с межфункциональными командами для понимания бизнес - требований и перевода их в технические спецификации; 7. Уверенное владение БД; 8. Составление сложных SQL запросы/процедуры/функции и разработка на SQL-диалекте (PL/SQL и pgSQL).
Стек специалиста на проекте
PostgreSQL, Git, Python, Oracle, Pl/SQL, qlik, Informatica PC
Отрасль проекта
FinTech & Banking
Период работы
Январь 2021 - Март 2022  (1 год 3 месяца)
Формат работы
Тип занятости
Фулл-тайм
Формат работы
Удаленно
Командировки
Не готов
Релокация
Не готов
Готов работать на зарубежных проектах
Нет
Образование
Высшее
Учебное заведение
Алматинский университет энергетики и связи
Специальность
Системы информационной безопасности
Завершение учебы
2021 г.
Высшее
Учебное заведение
Алматинский университет энергетики и связи
Специальность
Системы информационной безопасности
Завершение учебы
2019 г.

Похожие специалисты

AI & Robotics • E-commerce & Retail • Logistics & Transport • Telecom
СМ
Сергей М.
Набережные Челны
Data инженер
Senior
4 367,22 Р/час
Adobe Photoshop
Agile
Apache AirFlow
apache hive
Apache NiFi
Big Data
CI/CD
ClickHouse
Confluence
+67

Сергей — Data-инженер уровня Senior из Набережных Челнов. Специализируется на работе с большими данными и имеет опыт в отраслях E-commerce & Retail, AI & Robotics, Logistics & Transport, Telecom. Ключевые навыки: работа с базами данных (PostgreSQL, Oracle, MySQL), ETL/ELT-процессы, Apache Airflow, ClickHouse, Hadoop, Kafka, Scala, Spark, DataLens, Power BI, Confluence, Git, Kubernetes. Имеет опыт работы на следующих проектах: - Проект для крупного ритейла: миграция данных из различных источников, оптимизация процессов обработки данных, использование DBT, Trino, Helm, Groovy-скрипты для доработки компонентов Apache NiFi. - EasyCode: организация DWH-хранилища, автоматизация ETL/ELT-процессов, работа с ClickHouse, PostgreSQL, Google Sheets, визуализация данных в DataLens. - Мега маркет: разработка цифровых решений для e-commerce, миграция данных в ClickHouse и Greenplum, работа с Firebase, MsSQL, Яндекс.Метрика, Google Analytics. - KazanExpress: автоматизация отчётности и визуализация данных, создание дашбордов в DataLens, формирование витрин данных в ClickHouse. - МТС: формирование отчётности по продажам B2C и B2B, работа с MySQL, Oracle BI, Power BI.

Подробнее
FinTech & Banking • Media
ТБ
Тимур Б.
Москва
Data инженер
Senior
4 155,84 Р/час
anchor
Apache AirFlow
Apache Kafka
Apache Spark
CI/CD
ClickHouse
Data Vault
DBT
defect
Docker
+32

Тимур — Data инженер уровня Senior из Москвы, специализация — работа с данными. Имеет высшее образование по специальности «Управление и информатика в технических системах». Ключевые навыки: Anchor, Apache AirFlow, Apache Kafka, Apache Spark, CI/CD, ClickHouse, Data Vault, DBT, Docker, DWH, ETL, Git, GitLab, Grafana, Hadoop, Identity Server, Linux, Microsoft, OLAP, OLTP, Oracle Pl/SQL, PostgreSQL, Prometheus, Python, SQL, SSAS, SSIS, HDFS, Hive, Spark. Опыт работы на проектах: - Mediascope (с 2023 года, отрасль — Media): разработка и оптимизация ETL-пайплайнов для обработки рекламных данных на Spark, реализация унифицированной системы конфигурации Airflow DAG’ов, загрузка данных в Data Lake с интеграцией Kafka и Spark Streaming, внедрение системы алертинга и мониторинга кластера, интеграция ML-модели Whisper для транскрибации рекламных видео в текст. - Ингосстрах Банк (1 год 7 месяцев, отрасль — FinTech & Banking): реализация клиентского Web-сервиса с интерактивными отчётами по банковским продуктам на основе собранных в Oracle датасетов, унификация и очистка данных со всех неупорядоченных источников, работа с командной строкой Linux, Greenplum, знакомство с Teradata. Построение и развитие банковского DWH на Oracle Обработка потоков данных (clickstream, IoT) в экосистеме Hadoop (Spark, HDFS, Hive) Наполнение Big Data Platform (подключение различных источников, создание, очистка и стандартизация датасетов) Дизайн системы оповещений и метрик состояния Hadoop-кластера с помощью Grafana + Prometheus Проект по транскрибации нескольких миллионов роликов с помощью ML

Подробнее

Недавно просмотренные специалисты

Blockchain • E-commerce & Retail
ДГ
Данил Г.
Калининград
QA авто
Senior
4 155,84 Р/час
PostgreSQL
Git
HTML
CSS
Docker
API
Jira
Confluence
SQL
Python
+20

Специалист в области QA автотестирования (в частности на Python) В роли Auto QA Lead/Auto QA в проекте SOKOLOV работал с тремя командами разработки, включающими до 35 инженеров. Создал фреймворк UI-E2E-автотестов и управлял более чем 640 тестами (500 UI и 140 API). Внедрил процесс автотестов, сократив время регрессионного тестирования с 5 дней до 1 дня. Обучил навыкам написания автотестов 10 тестировщиков. На проекте X5 RETAIL GROUP занимался автоматизацией тестирования для API и UI с использованием Python и Selenium. Запускал тесты в CI/CD GitLab, в том числе из пайплайна разработчиков. Работал в баг-трекинговой системе JIRA, youTrack. Во время работы в GS Labs составлял план тестирования продукта по спецификации, писал тест-кейсы, создавал и отлаживал тестовые фреймворки для UI, работал с Postman для эпизодических проверок API.

Подробнее
Cloud Services • Information Security • Insurance • Telecom
ЕК
Егор К.
Гродно
Java разработчик
Middle+
3 746,75 Р/час
PostgreSQL
Git
MySQL
Docker
REST
Java
JavaScript
Jira
SQL
JUnit
+33

Понимание концепций объектно-ориентированного программирования (ООП) и шаблонов проектирования Знание возможностей языка Java, таких как коллекции, потоки и лямбда-выражения Опыт работы с Java-фреймворками, такими как Spring и Hibernate Знание баз данных и опыт работы с SQL и JDBC Знание инструментов сборки, таких как Maven и Gradle Понимание лучших практик разработки программного обеспечения, таких как методологии Agile и непрерывная интеграция/непрерывная поставка (CI/CD). Node.js: Понимание особенностей и концепций языка JavaScript Опыт работы с Node.js и его основными модулями Опыт работы с популярными платформами Node.js, такими как Express и Nest.js. Знание асинхронного программирования (Promise, async/await) и событийно-ориентированной архитектуры

Подробнее
E-commerce & Retail
АС
Антон С.
Москва
DevOps
Senior
3 699,29 Р/час
PostgreSQL
Apache Kafka
Docker
REST
JSON
SQL
Bash
ArgoCD
Linux
MongoDB
+36

Антон — DevOps-инженер с грейдом Senior, имеет высшее образование по специальности «Инженерно-психологическое обеспечение информационных технологий». Опыт работы на проектах составляет 8 лет 8 месяцев. Ключевые навыки: Ansible, Apache Kafka, ArgoCD, Bash, CI/CD, ClickHouse, Docker, Docker Compose, GitHub Actions, GitLab CI/CD, Grafana, HAProxy, Helm, HTTP/HTTPS, Jenkins, JSON, Kubernetes, Linux, MongoDB, MS Windows, Nginx, PostgreSQL, Prometheus, Redis, REST, SQL, YML, автоматизация, базы данных, брокеры сообщений, контейнеризация, логирование, мониторинг, обмен данными, оркестрация, языки программирования. Участвовал в следующих проектах: - Проект по отправке сообщений клиентов по SMS, электронной почте и мессенджерам (Viber, WhatsApp). Задачи включали настройку и поддержку мониторинга системы, администрирование и автоматизацию процессов развёртывания, настройку и управление процессами, оптимизацию инфраструктуры, обеспечение безопасности системы и контроль логирования. - Комплексное веб-приложение для оптимизации обработки и анализа финансовых операций. Задачи включали обновление GitLab, настройку CI/CD через GitLab, автоматизацию Deploy на dev/preprod, настройку логирования Prometheus и Grafana для мониторинга серверов и другие. - Проект по аналитике рекламных компаний на Wildberries. Задачи включали внедрение и оптимизацию конвейеров GitLab CI/CD, мониторинг и ведение логов, подготовку и управление инфраструктурой как кодом, развёртывание и управление кластерами Kubernetes и другие.

Подробнее