Каталог специалистов

Найдите проверенных специалистов для решения ваших задач
В нашей базе более 26250 проверенных специалистов
banner
Найдено 4 специалиста в публичном доступе
Новые специалисты
Ключевые навыки
Частичное совпадение Полное совпадение
Цена, ₽/час
Цена включает НДС
Дата бронирования
Подкатегории
Страна
Город
Опыт работы
Формат работы
Тип занятости
Готов выйти в штат
Отрасли работы
Готов работать на зарубежных проектах
Владение языком
Пол
Возраст
Найдено 4 специалиста в публичном доступе
cloudinary
FinTech & Banking • FoodTech • Government & Public Sector • Logistics & Transport • Manufacturing
АВ
Артур В.
Тюмень
Java разработчик
Senior
3 506,49 Р/час
методологии
Compose
ELK
Grafana
assertj
архитектура
AWS
GitLab
Разработка
брокеры сообщений
+110

Мой путь в IT — это постоянный поиск баланса между технической глубиной и решением бизнес-задач. За 5 лет работы с Java я убедился: даже самый сложный код имеет ценность только тогда, когда он становится частью системы, которая работает для людей. В проектах, где требовалось масштабировать сервисы или интегрировать разнородные системы, я учился видеть не только код, но и контекст. Например, оптимизация процессов обработки данных или внедрение инструментов для прозрачности инфраструктуры — это не просто задачи из джуры, а шаги к тому, чтобы заказчик получил результат быстрее и без потерь. Мне близок подход, где разработчик — не просто исполнитель, а участник диалога. Будь то проектирование микросервисов, настройка CI/CD или менторство коллег — я стараюсь работать так, чтобы код и процессы становились надежным фундаментом, а не временным решением. Ищу команду, где смогу применять этот опыт. Готов решать задачи, требующие как технической экспертизы, так и умения слушать, анализировать и предлагать. Самая интересная задача: Реализация интеграции с 5 разнородными источниками данных (PostgreSQL, Elasticsearch, внешние API) для генерации PDF-документов в реальном времени. · Нужно было обеспечить синхронную работу с системами, которые имели разные форматы данных и latency. · Добавил асинхронную обработку через Kafka: данные собирались в фоне, а пользователь получал уведомление о готовности документа. · Использовал Redis для кэширования шаблонов и часто запрашиваемых данных Самая технически сложная задача: Обработка 5000+ событий в секунду с IoT-датчиков в реальном времени без потерь данных. · Kafka не справлялась с пиковой нагрузкой: сообщения терялись, потребители отставали. · Данные о температуре плавки и составе сплавов критичны для качества продукции. Решение которое внедлил для решения проблемы: · Перераспределил партиции Kafka, увеличив их количество, и настроил сжатие сообщений. · Внедрил Apache NiFi как буферный слой для предобработки данных перед отправкой в Kafka

Подробнее
Нет подходящего специалиста?
Создайте бесплатный запрос на поиск в закрытом каталоге платформы