МА
Михаил А.
Мужчина, 39 лет
Россия, Тула, UTC+3
Ставка
3 246,75 Р/час
НДС не облагается
Специалист доступен с 16 августа 2025 г.
Добавьте подходящих специалистов в список и оформите заявку для предварительного бронирования времени специалистов. После оформления заявки ваш персональный менеджер организует прохождение всех необходимых проверок с вами и каждым кандидатом из заявки. Специалист привлекается к проекту только после окончательного подтверждения его выхода с вашей стороны.
Подробнее
О специалисте
Специализация
Системный аналитик
Грейд
Навыки
Отрасли
Главное о специалисте
Михаил — системный аналитик уровня Senior из Тулы. Специализируется на анализе и проектировании систем с использованием различных технологий и методологий. Имеет опыт работы в отраслях FinTech & Banking, HRTech, E-commerce & Retail, Media.
Участвовал в разработке масштабируемой системы выявления фрод-активности на основе AI и анализа поведения устройств, где провёл аудит архитектуры антифрод-платформы и сформировал техническое видение масштабируемой системы обработки до 10 млн событий в сутки.
Принимал участие в создании цифровой платформы для поиска вакансий и специалистов в области беспилотных систем, где разработал архитектуру API-слоя между UI, ML-модулями и микросервисами.
Работал над внутренней платформой для автоматизации инженерных и закупочных процессов в производственной компании, где провёл аудит бизнес-процессов проектирования и закупки, зафиксировал узкие места и предложил улучшения.
Также участвовал в разработке in-house платформы для автоматизации работы редакции: от хранения и обработки материалов до публикации контента.
Общая продолжительность работы на проектах — 6 лет 11 месяцев.
Проекты
(7 лет 3 месяца)
AI-антифрод система с поведенческой аналитикой и фингерпринтингом устройств Fintech / Antifraud / AI
Роль
Системный аналитик (ведущий аналитик/техлид по аналитике)
Обязанности
Проект по разработке масштабируемой системы выявления фрод-активности на основе AI и анализа поведения устройств. Система обрабатывает до 10 млн событий в сутки, собирает фингерпринты, применяет ML-модели для анализа паттернов поведения, в том числе на основе данных из даркнета. Включает модульную архитектуру с REST API, аналитическую панель и собственный пайплайн обработки событий.
Команда: ML-инженеры, backend/frontend разработчики, аналитики, архитектор, product owner
Описание:
Проект по разработке масштабируемой системы выявления фрод-активности на основе AI и анализа поведения устройств. Система обрабатывает до 10 млн событий в сутки, собирает фингерпринты, применяет ML-модели для анализа паттернов поведения, в том числе на основе данных из даркнета. Включает модульную архитектуру с REST API, аналитическую панель и собственный пайплайн обработки событий.
Задачи:
Провёл аудит архитектуры антифрод-платформы и сформировал техническое видение масштабируемой системы обработки до 10 млн событий/сутки.
Спроектировал модульную архитектуру сбора и нормализации поведенческих данных (device fingerprint, сессии, пользовательские события), с использованием Kafka как шины событий.
Разработал спецификации REST API и контракты взаимодействия между микросервисами, включая ML-модуль, витрины, real-time фильтры и административную панель (FastAPI + OpenAPI/Swagger).
Описал поток данных от ingestion до хранения в Clickhouse / PostgreSQL, включая структуру фичей для feature engineering и обучение моделей.
Проектировал схемы фичей и агрегации с использованием сложных SQL-запросов в Clickhouse и PostgreSQL.
Совместно с ML-командой сформулировал требования к алгоритмам на базе autoencoder, Isolation Forest, Random Forest, участвовал в согласовании параметров explainability.
Разработал структуры хранения событий и агрегатов в PostgreSQL, реализовал бизнес-логику обработки в виде функций и процедур на PL/pgSQL.
Использовал ERD для проектирования взаимосвязей между таблицами событий, признаков и результатов проверки.
Спроектировал архитектуру NLP-модуля для анализа заказов в даркнете (на базе TensorFlow, sklearn), с классификацией и извлечением фрод-трендов.
Разработал структуру и требования к визуальному интерфейсу аналитической панели (в связке с Grafana, Figma, Miro): отображение атак, сигнатур поведения, интерактивные фильтры.
Описал нефункциональные требования: масштабируемость, отказоустойчивость, прозрачность модели, explainability, соответствие требованиям комплаенса.
Курировал backeand и разрабатывал ml\ai пайпалны для антирфда
Поддерживал и актуализировал системную документацию (включая Confluence, Markdown, Draw.io, JSON/XML схемы, Miro-доски).
Разрабатывал сложные SQL-запросы с оконными функциями (ROW_NUMBER, RANK, LAG, LEAD) и вложенными подзапросами для агрегации и фильтрации событий при построении витрин данных.
Проектировал витрины данных в ClickHouse (DWH), участвовал в организации Data Lake на базе Hadoop для хранения необработанных логов и сессий. Использовал формат хранения Parquet.
Организовал первичное хранилище событий в Data Lake на Hadoop, для последующего анализа и обучения ML-моделей
Достижения
Введена в эксплуатацию аналитическая панель — обеспечивает real-time мониторинг фрод-активности и динамическую фильтрацию инцидентов.
Модели достигли Recall > 90%, Precision > 85%, обеспечив высокую чувствительность при значительном снижении FP.
Снижено количество ложноположительных срабатываний на 40%, доля ручных проверок уменьшена до 15% (вместо 100%).
Повышена прозрачность работы ML-блока: реализован формат explainability и визуализация решений в аналитической панели.
Обеспечено согласование архитектуры между командами разработки, ML и бизнес-аналитики, что ускорило выход MVP на 2 месяца.
Стек специалиста на проекте
autoencoder, isolation forest, first, Grafana, Визуализация, анализ, Обучение, Tensorflow, ClickHouse, JSON, XML, mlмодели, Swagger, FastAPI, Аудит, Miro, Kafka, Sklearn, Документация, NLP, PL/pgSQL, Confluence, SQL, Python, Markdown, Radon, Аналитика, Apache AirFlow, Figma, Draw.io, OpenAPI, REST API, Pl/SQL, PostgreSQL
Отрасль проекта
FinTech & Banking
Период работы
Август 2025 - По настоящее время
(менее месяца)
AI-продукт для поиска работы в сфере беспилотных технологий HR Tech / AI / Robotics
Роль
Системный аналитик
Обязанности
Команда: ML-инженеры, разработчики (backend, frontend), дизайнеры, продакт-менеджер, аналитики
Описание:
Разработка цифровой платформы для поиска вакансий и специалистов в области беспилотных систем (UAV, robotics, AI), включающей AI-поиск, рекомендательные алгоритмы, текстовый анализ, работу с профилями пользователей и модуль аналитики. В рамках проекта были реализованы MVP и полноценный релиз с микросервисной архитектурой.
Задачи:
Разработал архитектуру API-слоя (на основе FastAPI + OpenAPI) между UI, ML-модулями и микросервисами: поиск, рекомендации, аналитика.
Проектировал схемы данных и ER-диаграммы для PostgreSQL, нормализовал структуры хранения резюме, вакансий и профилей.
Составил SQL-запросы и пайплайны поведенческой аналитики (Python + Pandas + SQL), анализируя воронки, фичи для ML и поведение пользователей.
Писал SQL-запросы (PostgreSQL, MySQL), включая сложные аналитические запросы
Выполнял поведенческий анализ пользователей на уровне SQL и Python (анализ кликов, времени взаимодействия, конверсий)
Проектировал и документировал логику рекомендательного движка (на базе sklearn, PyTorch), описывал взаимодействие с ML-командой.
Проектировал схемы данных и ERD для PostgreSQL, оптимизировал структуру хранения резюме и вакансий.
Реализовал сложные процедуры и триггеры на PL/pgSQL для автоматической нормализации и обогащения данных.
Настроил архитектуру событийной шины на Kafka — спроектировал топики, форматы сообщений (JSON), маршруты доставки событий между сервисами.
Участвовал в разработке NLP-модуля, обрабатывающего тексты вакансий и резюме: классификация, извлечение навыков и сущностей.
Сформулировал нефункциональные требования: latency, масштабируемость, SLA для API и AI-сервисов.
Проводил ревью требований, писал технические задания, декомпозировал фичи и поддерживал документацию в Confluence + Miro + Jira.
Курировал тестирование и работу прототипов в Docker-среде под Linux, обеспечивал корректную интеграцию с backend'ом и ML-сервисами.
Создавал SQL-запросы с оконными функциями для анализа поведения пользователей и построения фичей для моделей рекомендаций
Настроил пайплайн обработки событий в Kafka с выгрузкой в Snowflake (DWH) для анализа поведенческих паттернов
Описал ключевые пользовательские сценарии поиска и рекомендаций в виде BPMN-диаграмм.
Настроил событийную шину на Kafka в связке с корпоративным ESB для маршрутизации сообщений между микросервисами.
Спроектировал и документировал интеграции с внешними HR-сервисами через SOAP API и REST API.
Разработал ER-диаграммы и схемы взаимодействия сервисов в UML (диаграммы классов, последовательности).
Достижения
Обеспечил выпуск и поддержку в проде платформы с AI-поиском и рекомендациями, охватившей 5000+ пользователей в сегменте UAV.
Повысил точность рекомендаций: +22% релевантности за счёт качественных фичей и адаптации ML-моделей к поведению.
Снизил нагрузку на аналитическую команду за счёт автоматизированного парсинга и кластеризации вакансий (NLP + ML).
Ускорил согласование между ML- и backend-командами за счёт стандартизированной API-документации (Swagger + Confluence).
Построена масштабируемая архитектура, адаптированная под B2B-клиентов (интеграции через Kafka, REST API, Docker).
Стек специалиста на проекте
PostgreSQL, Docker, JSON, Jira, Confluence, SQL, Python, SOAP, Bash, REST API, Linux, Swagger, *nix, Pandas, FastAPI, Miro, ESB, PyTorch, Sklearn, Kafka, Аналитика, NLP, Документация, OpenAPI, анализ, -, AI рекомендации
Отрасль проекта
HRTech
Период работы
Январь 2023 - Июль 2024
(1 год 7 месяцев)
B2B-платформа с интеллектуальной CRM и системой документооборота B2B / Enterprise Software / ProcurementTech
Роль
Системный аналитик / координатор разработки
Обязанности
Команда: Backend и frontend разработчики, аналитики, ML-инженер, архитектор, продуктовый заказчик
Описание:
Разработка внутренней платформы для автоматизации инженерных и закупочных процессов в производственной компании. Решение включало в себя кастомную CRM, интеллектуальный поиск по заявкам, рекомендательную систему для поставщиков, модуль документооборота, а также дашборды для мониторинга заявок и сроков. Проект был ориентирован на сокращение издержек и повышение прозрачности B2B-операций.
Задачи:
Провёл аудит бизнес-процессов проектирования и закупки, зафиксировал узкие места и предложил улучшения, отразив их в виде BPMN-диаграмм и структурированных таблиц атрибутов.
Спроектировал архитектуру CRM-системы с модульной логикой (обработка заявок, статусы, напоминания, уведомления) и модуль документооборота с маршрутами согласований.
Формализовал требования через интервью с заказчиком, оформил в виде ТЗ и поддерживал документацию в Confluence и Jira.
Разработал спецификации API в формате OpenAPI/Swagger для интеграции между модулями (CRM, документы, AI-поиск).
Спроектировал модели данных и связи в PostgreSQL, участвовал в разработке ER-диаграмм и нормализации хранилищ заявок и поставщиков.
Курировал внедрение рекомендательной системы: контентная фильтрация, kNN, косинусная близость, работал с sklearn и TensorFlow.
Внедрил real-time обработку заявок с использованием FastAPI + Kafka и распределённой логики оповещений.
Координировал команду разработки (анализ, декомпозиция, спринты), контролировал соответствие реализации требованиям.
Проводил аналитику закупочной активности с помощью Pandas + SQL: повторные закупки, отклонения, SLA.
Разрабатывал ER-диаграммы для PostgreSQL и Oracle при проектировании модулей CRM и документооборота.
Писал процедуры, пакеты и скрипты на PL/SQL (Oracle) для миграции данных и интеграций в рамках переноса ХД на Greenplum.
Реализовывал бизнес-логику внутри PostgreSQL на PL/pgSQL для обработки заявок и формирования отчётов.
Зафиксировал текущие процессы проектирования и закупки в виде BPMN-диаграмм, выделил узкие места и предложил улучшения.
Спроектировал архитектуру интеграций между модулями CRM, документооборота и внешними системами через корпоративную ESB.
Разработал спецификации API, включая SOAP-сервисы для взаимодействия с ERP.
Создал UML-диаграммы компонентов и последовательностей для документирования архитектурных решений.
Спроектировал модульную архитектуру сбора и нормализации поведенческих данных (device fingerprint, сессии, пользовательские события) с использованием Kafka и интеграционной шины (ESB) для маршрутизации данных между сервисами.
Разработал спецификации REST и SOAP API для интеграции внешних источников данных и внутренних модулей (ML, аналитика, админ-панель).
Описал поток данных от ingestion до хранения в ClickHouse/PostgreSQL, моделируя взаимодействия в UML (диаграммы последовательности, компоненты).
Моделировал бизнес-процессы антифрод-проверок в BPMN для согласования с архитектором и заказчиком.
Достижения
Разработана и внедрена интеллектуальная CRM-система, адаптированная под специфику производственного инжиниринга и снабжения.
Внедрён AI-механизм автоподсказок (на основе контентной фильтрации и kNN), улучшивший релевантность рекомендаций и повысивший повторные закупки.
Обеспечено сокращение времени обработки заявки на 30% благодаря автоматизации контроля сроков, уведомлений и согласований.
Удалось снизить долю неактуальных поставщиков на 40% за счёт интеллектуальной фильтрации и анализа истории заказов.
Повышена прозрачность внутренних процессов благодаря интегрированной визуализации статусов и этапов по каждой заявке (дашборды + статусы).
Стек специалиста на проекте
PostgreSQL, Jira, Confluence, BPMN, Python, SOAP, REST API, Swagger, Tensorflow, Pandas, FastAPI, Miro, ESB, Sklearn, Kafka, Декомпозиция и структуризация задач, OpenAPI, анализ, knn, Контентная фильтрация
Отрасль проекта
E-commerce & Retail
Период работы
Март 2022 - Декабрь 2022
(10 месяцев)
Формат работы
Тип занятости
Фулл-тайм
Формат работы
Удаленно
Командировки
Не готов
Релокация
Не готов
Готов работать на зарубежных проектах
Нет
Образование
Высшее
Учебное заведение
Белорусский Государственный Университет
Специальность
Экономика, Финансы и кредит
Завершение учебы
2008 г.