Добавьте подходящих специалистов в список и оформите заявку для предварительного бронирования времени специалистов. После оформления заявки ваш персональный менеджер организует прохождение всех необходимых проверок с вами и каждым кандидатом из заявки. Специалист привлекается к проекту только после окончательного подтверждения его выхода с вашей стороны.
Меня зовут Хачатур, и я Python-разработчик с глубоким увлечением создания надёжных и эффективных бэкенд-решений. Одной из причин, по которой я выбрал эту профессию, является возможность решать сложные задачи и видеть, как мои решения влияют на конечных пользователей.
Последние 4+ года я активно работал с фреймворком Django, FastApi , создавая API с помощью REST. Моя экспертиза включает в себя развертывание приложений с использованием Nginx, Gunicorn и Docker.
Мне всегда было интересно следить за вашей компанией и вашими достижениями в области IT. Я впечатлен вашим подходом к аспекту работы компании, например, к качеству продукта или инновационным решениям, и я уверен, что могу внести свой вклад в вашу команду, используя мой опыт и знания. Ваши ценности и стремление к постоянному развитию делают вашу компанию особенным местом для работы, и я был бы рад стать частью вашей команды.
С нетерпением жду возможности обсудить мой потенциальный вклад в успех вашей команды. Я также готов выполнить тестовое задание, чтобы продемонстрировать свои навыки и квалификацию.
Благодарю за рассмотрение моей кандидатуры.
С уважением, Хачатур
https://www.linkedin.com/in/yasinyan23pydev/
Telegram: tg@yasinyan23
Телефон: 7-919-163-51-12
Проекты
(2 года 5 месяцев)
Микросервисная система для оценки кредитоспособности
Роль
ведущий разработчик
Обязанности
- Настроил потоковую обработку данных с использованием Apache Kafka, что обеспечило эффективную работу с данными в реальном времени.
- Внедрил распределенный параллельный анализ данных с помощью Apache Spark, что позволило быстро обрабатывать большие объемы информации.
- Реализовал кэширование данных с использованием Redis, что ускорило доступ к часто используемым данным и снизило нагрузку на систему.
- Настроил мониторинг и алертинг с помощью Prometheus и Grafana, что обеспечило стабильную работу системы и быструю реакцию на сбои.
- Разработал механизмы резервного копирования данных и автоматического восстановления системы, что повысило отказоустойчивость и надежность проекта.
Система аналитики и отчетности для финансового клиента
Роль
Python Software Engineer
Обязанности
Работал над созданием системы аналитики и отчетности для финансовой компании, с целью улучшения управления данными и интеграции различных компонентов системы. Проект включал разработку микросервиса для стандартизированной работы с данными из различных источников, что повысило гибкость и скорость разработки новых функций.
-Разработал микросервис на Python Flask для создания стандартизированного API для работы с данными из внешних API, баз данных и файловых систем.
-Реализовал интеграцию с различными источниками данных, используя Django ORM, что улучшило производительность и гибкость системы.
-Контейнеризировал приложение с использованием Docker, что упростило развертывание и масштабирование системы.
-Настроил логирование и мониторинг микросервиса, что улучшило контроль за состоянием системы и сократило время на отладку.
Стек специалиста на проекте
PostgreSQL, Docker, API, Python, Microservices, Аналитика, Django ORM, Flask, Логирование и мониторинг, Работа с интеграциями, Разработка, развертывание, данных, Django 4, Django 5
Отрасль проекта
Telecom
Период работы
Май 2021 - Февраль 2023
(1 год 10 месяцев)
Система мониторинга и анализа данных в реальном времени
Роль
Python Software Engineer
Обязанности
Реализовал систему для мониторинга и анализа данных в реальном времени, обеспечив высокую производительность и масштабируемость при обработке больших объемов информации. Проект включал внедрение механизмов для выявления паттернов и аномалий, а также обеспечения отказоустойчивости системы.
- Настроил потоковую обработку данных с использованием Apache Kafka, что обеспечило эффективную работу с данными в реальном времени.
- Внедрил распределенный параллельный анализ данных с помощью Apache Spark, что позволило быстро обрабатывать большие объемы информации.
- Реализовал кэширование данных с использованием Redis, что ускорило доступ к часто используемым данным и снизило нагрузку на систему.
- Настроил мониторинг и алертинг с помощью Prometheus и Grafana, что обеспечило стабильную работу системы и быструю реакцию на сбои.
- Разработал механизмы резервного копирования данных и автоматического восстановления системы, что повысило отказоустойчивость и надежность проекта.
Стек специалиста на проекте
Python, FastAPI, Kafka, Мониторинг, анализ, данных