Каталог специалистов направления Разработка и ИТ

Найдите проверенных специалистов для решения ваших задач
В нашей базе более 31400 проверенных специалистов
banner
Найден 671 специалист в публичном доступе
Новые специалисты
Специализация
Ключевые навыки
Частичное совпадение Полное совпадение
Цена, ₽/час
Цена включает НДС
Дата бронирования
Подкатегории
Страна
Город
Опыт работы
Формат взаимодействия
Объем участия в проекте
Готов выйти в штат
Отрасли работы
Готов работать на зарубежных проектах
Владение языком
Пол
Возраст
Найден 671 специалист в публичном доступе
Apache AirFlow
AI & Robotics
ДС
Данила С.
Воронеж
Data инженер
Middle
1 000 Р/час
Python
PostgreSQL
ClickHouse
MongoDB
ETL
Apache AirFlow
Apache Superset
Pandas
Linux
Docker
+17

Добрый день! Я Data Engineer с опытом в разработке, автоматизации и архитектуре решений. Ранее занимался голосовыми роботами, сейчас сфокусирован на данных: ETL, витрины, хранилища, мониторинг и аналитика. Могу закрыть задачи от сбора до визуализации. Работал с ClickHouse, PostgreSQL, MongoDB, Airflow, Superset, FastAPI, Docker. Умею ставить пайплайны с нуля, оптимизировать SQL и писать на Python. 🚀 Что умею и делаю: Разработка и поддержка витрин (Superset + ClickHouse), выгрузка данных в любой формат, обработка, форматирование, генерация отчётов в excel/csv и т.п. Проектирование и реализация ETL (Airflow, Python) Мониторинг, алерты, CI/CD (GitLab, Docker) Построение архитектуры решений (OLTP/OLAP) Интеграции со сторонними системами Оптимизация и рефакторинг легаси-кода Ищу команду, где могу принести пользу и расти вместе. Работаю на результат, люблю нестандартные задачи и ясность в коммуникации.

Подробнее
EdTech • Manufacturing • Media
ДВ
Денис В.
Тула
Backend разработчик
Senior
1 571,43 Р/час
Математический анализ
OpenCV
deep
Tensorflow
ClickHouse
Computer Vision
Numpy
REST
Git
API
+42

Более 5 лет я являюсь backend-разработчиком, специализирующимся на разработке систем компьютерного зрения, глубокого и машинного обучения, анализа данных и подготовки данных. Я вёл разработку таких проектов как: 1) Система детекции производственных операций, на базе системы видео наблюдения и детектирующей нейронной сети, с целью повышения производительности производства. 2) Система перекрёстного детектирования объектов на разных камерах, но с общей зоной видимости, с целью расширения зоны контроля и сопровождения. 3) Разработка Системы подсчёта покупателей на кассе супермаркета, на базе системы видео наблюдения и детектирующей нейронной сети, с целью регулирования загруженности сотрудников супермаркета и повышения проходимости через кассы. 4) Разработка системы оцифровки изображений с открытых источников данных по автомобилям, на базе нейронных сетей Tesseract и EasyOCR, с цель сбора, агрегирования и поиска информации по автомобилям. 5) Разработка системы "цифрового измерителя", на базе систем видео наблюдения, с целью измерения основных геометрических параметров изделия на производстве (длинна, высота, количество технологических пропилов, количество технологических шипов) 6) Разработка системы классификации и распознавания документов, на базе LLM-нейронной сети (Gemma 3), с целью оптимизации документооборота и ускорения процесса принятия, заполнения и анализа документов. Помимо процесса разработки, мои обязанности входило: а) Разработка отказоустойчивого REST-API сервиса для обеспечения доступа к результатам работы систем б) Подготовка серверов для работы с Нейросетями, настройка оборудования, оптимизация трафика Будут рады с вами сотрудничать, спасибо! Стек технологий: LInux(Ubuntu/Debian), Golang, С, Python3, Matlab, TensorFlow, Pythorch, Scikit-learn, Pandas, OpenCV, FastAPI, Git, Docker, PostgreSQL, Airflow

Подробнее
Logistics & Transport
НН
Никита Н.
Уфа
Data инженер
Middle
1 688,31 Р/час
Apache AirFlow
Apache Kafka
Apache Spark
Apache Superset
Bash
Big Data
ClickHouse
Docker
GitHub
GreenPlum
+20

Никита — Data инженер уровня Middle из Уфы. Специализируется на работе с большими данными. Имеет опыт работы в отрасли логистики и транспорта. Ключевые навыки: Apache AirFlow, Apache Kafka, Apache Spark, Apache Superset, Bash, Big Data, ClickHouse, Docker, GitHub, GreenPlum, Hadoop, Jupyter Notebook, PostgreSQL, PySpark, Python, Redash, SQL, оптимизация кода, Pandas, .Net 4.0. Принимал участие в проекте по разработке и внедрению ETL-процессов с использованием Apache Airflow, PySpark, Pandas для обработки больших объёмов данных. В рамках проекта занимался реализацией интеграции с PostgreSQL, созданием и поддержанием витрины данных, разработкой и оптимизацией Data Warehouse, поддержанием качества данных, оптимизацией запросов на SQL и Python, настройкой мониторинга системы. Достижения на проекте: оптимизация SQL-запросов в ClickHouse с использованием библиотеки dbt, сокращение времени выполнения запроса и количества строк кода в 10 раз, выявление 12 проблем в обработке данных, уменьшение времени обработки данных на 11%. Общая продолжительность работы на проектах — 2 года 2 месяца.

Подробнее
    Показывать по
    18