Алибек Д. Data инженер, Middle+

ID 20759
АД
Алибек Д.
Мужчина
Казахстан, Алматы, UTC+5
Ставка
3 468,09 Р/час
вкл. НДС 5% (128.57 Р)
Специалист доступен с 30 августа 2025 г.

Добавьте подходящих специалистов в список и оформите заявку для предварительного бронирования времени специалистов. После оформления заявки ваш персональный менеджер организует прохождение всех необходимых проверок с вами и каждым кандидатом из заявки. Специалист привлекается к проекту только после окончательного подтверждения его выхода с вашей стороны.

Подробнее
О специалисте
Специализация
Data инженер
Грейд
Middle+
Навыки
Linux
Oracle Pl/SQL
Python
Git
Qlik Sense
Informatica Power Center
GreenPlum
Vertica
Spark
Hadoop
Hive
Apache AirFlow
Docker
PostgreSQL
ETL
Apache Kafka
ClickHouse
Нереляционные БД (NoSQL)
Oracle BI
СУБД
Отрасли
FinTech & Banking
Знание языков
Русский — C2
Английский — B1
Главное о специалисте
Алибек — data-инженер уровня middle+. На текущем месте работы руководит командой инженеров по работе с корпоративными данными. Занимается построением и оптимизацией приложений Spark, проектирует и разрабатывает модели данных, схемы баз данных и рабочие процессы интеграции данных. Создаёт мониторинг системы всех процессов на Grafana, работает с различными форматами файлов и уверенно владеет БД. Взаимодействует с бизнес-пользователями для понимания их потребностей в отчётности и аналитике, проектирует и реализует информационные панели и визуализации Qlik Sense.
Проекты   (6 лет 1 месяц)
IT компания
Роль
Data Engineer
Обязанности
Обязанности: 1. Руководство командой инженеров по работе с корпоративными данными; 2. Построение нового ЗД для скорингового процесса; 3. Разработка построения и оптимизация приложений Spark с использование Pyspark для парсинга и трансформации масштабных и сложных наборов данных; 4. Проектирование и разработка моделей данных, схем баз данных и рабочих процессов интеграции данных с использованием SQL и PL/SQL; 5. Создание мониторинга системы всех процессов: Grafana (Telegram alerts and notifications); 6. Опыт работы с инструментами управления рабочими процессами, такими как Airflow, и инструментами интеграции данных, такими как Ni-Fi; 7. Работа м форматами файлов Orc, Parquet, Json, XML, CSV; 8. Построение и поддержка структур Data Mart для обеспечения потребностей в отчетности и анализе с использованием Informatica Power Center и Airflow; 9. Взаимодействие с бизнес - пользователями для понимания их потребностей в отчетности и аналитике, проектирование и реализация информационных панелей и визуализаций Qlik Sense; 10. Уверенное владение БД; 11. Составление сложных SQL запросы/процедуры/функции и разработка на SQL-диалекте (PL/SQL и pgSQL); 12. Работа с большими нагруженными системами (системы принятия решения/моментальной обработки данных/высоконагруженные системы); 13. Оптимизация запросов; 14. Работа с многопоточностью; 15. Организация распределенной обработки.
Стек специалиста на проекте
PostgreSQL, Git, Jira, Confluence, SQL, Python, Oracle, Grafana, Hive, Spark, Hadoop, GreenPlum, Pl/SQL, Kafka, Vertica, Apache AirFlow, HDFS, DBT, qlik, Informatica PC/DEI
Отрасль проекта
FinTech & Banking
Период работы
Август 2022 - По настоящее время  (3 года 1 месяц)
Банк Центр Кредит
Роль
Data Engineer
Обязанности
Обязанности: 1. Разработка и поддержка ETL - процессов с использованием Informatica Power Center для извлечения данных из различных источников, их преобразования и загрузки в целевые системы; 2. Проектирование и создание моделей данных, схем баз данных и рабочих процессов интеграции данных с применением SQL и PL/SQL; 3. Разработка и оптимизация SQL - запросов для эффективного извлечения данных и анализа; 4. Сотрудничество с HR и управленческими командами для непрерывного улучшения хранилища данных и аналитических возможностей в области мотивации сотрудников; 5. Уверенное владение БД; 6. Составление сложных SQL запросы/процедуры/функции и разработка на SQL-диалекте (PL/SQL и pgSQL).
Стек специалиста на проекте
PostgreSQL, Git, Jira, Confluence, Python, Oracle, MongoDB, ETL, Pl/SQL, qlik, Нереляционные БД (NoSQL), Informatica PC
Отрасль проекта
FinTech & Banking
Период работы
Апрель 2022 - Июль 2022  (4 месяца)
Сбер
Роль
Data Engineer
Обязанности
Обязанности: 1. Разработка и проектирование моделей данных и рабочих процессов интеграции данных с использованием SQL и PL/SQL; 2. Создание и поддержка процессов ETL с применением Informatica Power Center для извлечения данных из различных источников, их преобразования и загрузки в целевые системы; 3. Разработка и оптимизация SQL-запросов для эффективного извлечения и анализа данных; 4. Построение и поддержка структур Data Mart для нужд отчетности и аналитики; 5. Взаимодействие с бизнес - пользователями для понимания их потребностей в отчетности и аналитике, проектирование и реализация дэшбордов и визуализаций в Qlik Sense; 6. Сотрудничество с межфункциональными командами для понимания бизнес - требований и перевода их в технические спецификации; 7. Уверенное владение БД; 8. Составление сложных SQL запросы/процедуры/функции и разработка на SQL-диалекте (PL/SQL и pgSQL).
Стек специалиста на проекте
PostgreSQL, Git, Python, Oracle, Pl/SQL, qlik, Informatica PC
Отрасль проекта
FinTech & Banking
Период работы
Январь 2021 - Март 2022  (1 год 3 месяца)
Формат работы
Тип занятости
Фулл-тайм
Формат работы
Удаленно
Командировки
Не готов
Релокация
Не готов
Готов работать на зарубежных проектах
Нет
Образование
Высшее
Учебное заведение
Алматинский университет энергетики и связи
Специальность
Системы информационной безопасности
Завершение учебы
2021 г.
Высшее
Учебное заведение
Алматинский университет энергетики и связи
Специальность
Системы информационной безопасности
Завершение учебы
2019 г.

Похожие специалисты

FinTech & Banking • Media
ТБ
Тимур Б.
Москва
Data инженер
Senior
4 155,84 Р/час
anchor
Apache AirFlow
Apache Kafka
Apache Spark
CI/CD
ClickHouse
Data Vault
DBT
defect
Docker
+32

Тимур — Data инженер уровня Senior из Москвы, специализация — работа с данными. Имеет высшее образование по специальности «Управление и информатика в технических системах». Ключевые навыки: Anchor, Apache AirFlow, Apache Kafka, Apache Spark, CI/CD, ClickHouse, Data Vault, DBT, Docker, DWH, ETL, Git, GitLab, Grafana, Hadoop, Identity Server, Linux, Microsoft, OLAP, OLTP, Oracle Pl/SQL, PostgreSQL, Prometheus, Python, SQL, SSAS, SSIS, HDFS, Hive, Spark. Опыт работы на проектах: - Mediascope (с 2023 года, отрасль — Media): разработка и оптимизация ETL-пайплайнов для обработки рекламных данных на Spark, реализация унифицированной системы конфигурации Airflow DAG’ов, загрузка данных в Data Lake с интеграцией Kafka и Spark Streaming, внедрение системы алертинга и мониторинга кластера, интеграция ML-модели Whisper для транскрибации рекламных видео в текст. - Ингосстрах Банк (1 год 7 месяцев, отрасль — FinTech & Banking): реализация клиентского Web-сервиса с интерактивными отчётами по банковским продуктам на основе собранных в Oracle датасетов, унификация и очистка данных со всех неупорядоченных источников, работа с командной строкой Linux, Greenplum, знакомство с Teradata. Построение и развитие банковского DWH на Oracle Обработка потоков данных (clickstream, IoT) в экосистеме Hadoop (Spark, HDFS, Hive) Наполнение Big Data Platform (подключение различных источников, создание, очистка и стандартизация датасетов) Дизайн системы оповещений и метрик состояния Hadoop-кластера с помощью Grafana + Prometheus Проект по транскрибации нескольких миллионов роликов с помощью ML

Подробнее
AI & Robotics • E-commerce & Retail • Logistics & Transport • Telecom
СМ
Сергей М.
Набережные Челны
Data инженер
Senior
4 367,22 Р/час
Adobe Photoshop
Agile
Apache AirFlow
apache hive
Apache NiFi
Big Data
CI/CD
ClickHouse
Confluence
+65

Сергей — Data-инженер уровня Senior из Набережных Челнов. Специализируется на работе с большими данными и имеет опыт в отраслях E-commerce & Retail, AI & Robotics, Logistics & Transport, Telecom. Ключевые навыки: работа с базами данных (PostgreSQL, Oracle, MySQL), ETL/ELT-процессы, Apache Airflow, ClickHouse, Hadoop, Kafka, Scala, Spark, DataLens, Power BI, Confluence, Git, Kubernetes. Имеет опыт работы на следующих проектах: - Проект для крупного ритейла: миграция данных из различных источников, оптимизация процессов обработки данных, использование DBT, Trino, Helm, Groovy-скрипты для доработки компонентов Apache NiFi. - EasyCode: организация DWH-хранилища, автоматизация ETL/ELT-процессов, работа с ClickHouse, PostgreSQL, Google Sheets, визуализация данных в DataLens. - Мега маркет: разработка цифровых решений для e-commerce, миграция данных в ClickHouse и Greenplum, работа с Firebase, MsSQL, Яндекс.Метрика, Google Analytics. - KazanExpress: автоматизация отчётности и визуализация данных, создание дашбордов в DataLens, формирование витрин данных в ClickHouse. - МТС: формирование отчётности по продажам B2C и B2B, работа с MySQL, Oracle BI, Power BI.

Подробнее

Недавно просмотренные специалисты