Каталог специалистов направления Разработка и ИТ

Найдите проверенных специалистов для решения ваших задач
В нашей базе более 29750 проверенных специалистов
banner
Найдено 639 специалистов в публичном доступе
Новые специалисты
Специализация
Ключевые навыки
Частичное совпадение Полное совпадение
Цена, ₽/час
Цена включает НДС
Дата бронирования
Подкатегории
Страна
Город
Опыт работы
Формат работы
Тип занятости
Готов выйти в штат
Отрасли работы
Готов работать на зарубежных проектах
Владение языком
Пол
Возраст
Найдено 639 специалистов в публичном доступе
Apache AirFlow
AI & Robotics
ДС
Данила С.
Воронеж
Data инженер
Middle
1 000 Р/час
Python
PostgreSQL
ClickHouse
MongoDB
ETL
Apache AirFlow
Apache Superset
Pandas
Linux
Docker
+17

Добрый день! Я Data Engineer с опытом в разработке, автоматизации и архитектуре решений. Ранее занимался голосовыми роботами, сейчас сфокусирован на данных: ETL, витрины, хранилища, мониторинг и аналитика. Могу закрыть задачи от сбора до визуализации. Работал с ClickHouse, PostgreSQL, MongoDB, Airflow, Superset, FastAPI, Docker. Умею ставить пайплайны с нуля, оптимизировать SQL и писать на Python. 🚀 Что умею и делаю: Разработка и поддержка витрин (Superset + ClickHouse), выгрузка данных в любой формат, обработка, форматирование, генерация отчётов в excel/csv и т.п. Проектирование и реализация ETL (Airflow, Python) Мониторинг, алерты, CI/CD (GitLab, Docker) Построение архитектуры решений (OLTP/OLAP) Интеграции со сторонними системами Оптимизация и рефакторинг легаси-кода Ищу команду, где могу принести пользу и расти вместе. Работаю на результат, люблю нестандартные задачи и ясность в коммуникации.

Подробнее
Logistics & Transport
НН
Никита Н.
Уфа
Data инженер
Middle
1 688,31 Р/час
Apache AirFlow
Apache Kafka
Apache Spark
Apache Superset
Bash
Big Data
ClickHouse
Docker
GitHub
GreenPlum
+20

Никита — Data инженер уровня Middle из Уфы. Специализируется на работе с большими данными. Имеет опыт работы в отрасли логистики и транспорта. Ключевые навыки: Apache AirFlow, Apache Kafka, Apache Spark, Apache Superset, Bash, Big Data, ClickHouse, Docker, GitHub, GreenPlum, Hadoop, Jupyter Notebook, PostgreSQL, PySpark, Python, Redash, SQL, оптимизация кода, Pandas, .Net 4.0. Принимал участие в проекте по разработке и внедрению ETL-процессов с использованием Apache Airflow, PySpark, Pandas для обработки больших объёмов данных. В рамках проекта занимался реализацией интеграции с PostgreSQL, созданием и поддержанием витрины данных, разработкой и оптимизацией Data Warehouse, поддержанием качества данных, оптимизацией запросов на SQL и Python, настройкой мониторинга системы. Достижения на проекте: оптимизация SQL-запросов в ClickHouse с использованием библиотеки dbt, сокращение времени выполнения запроса и количества строк кода в 10 раз, выявление 12 проблем в обработке данных, уменьшение времени обработки данных на 11%. Общая продолжительность работы на проектах — 2 года 2 месяца.

Подробнее
    Показывать по
    18