Каталог специалистов

Найдите проверенных специалистов для решения ваших задач
В нашей базе более 24250 проверенных специалистов
banner
Найдено 35 специалистов в публичном доступе
Новые специалисты
Ключевые навыки
Частичное совпадение Полное совпадение
Цена, ₽/час
Цена включает НДС
Дата бронирования
Подкатегории
Страна
Город
Опыт работы
Формат работы
Тип занятости
Готов выйти в штат
Отрасли работы
Готов работать на зарубежных проектах
Владение языком
Пол
Возраст
Найдено 35 специалистов в публичном доступе
Snowflake
Cloud Services • E-commerce & Retail • EdTech • FinTech & Banking • IoT • Logistics & Transport • RnD
ЕИ
Евгений И.
Таганрог
.NET разработчик
Senior
2 857,14 Р/час
C#
Git
PostgreSQL
.NET Core
JavaScript
.NET
Docker
Entity Framework
ASP.NET
ASP.NET Core
+46

Евгений — опытный .NET-разработчик с навыками в широком спектре технологий, включая C#, JavaScript, Docker, Kubernetes и другие. Опыт работы на проектах: - Модуль интеграции с СБП (FinTech & Banking): интеграция с системой СБП внутри банковской системы, разработка модуля B2B-оплаты, повышение конверсии оплат на 15% за счёт добавления функционала обеспечения идемпотентности. - Система обработки данных в реальном времени (IoT): автоматизация процесса лицензирования в Jenkins. - Система верификации результатов распознавания экзаменационных бланков (EdTech): создание Angular-приложения и REST API с помощью ASP.NET Boilerplate. - Интернет-магазин программных продуктов (E-commerce & Retail): расширение функционала публичного сайта и админпанели, добавление функционала сезонных скидок. - ETL-сервис (Cloud Services): реализация более 10 сервисов-интеграций. - Система распознавания автомобильных номеров (Logistics & Transport): разработка модуля распознавания, обучение моделей машинного обучения. - Внутренняя CRM-система (RnD): расширение функционала системы, перенос трудно вычисляемых задач в фоновый режим.

Подробнее
FinTech & Banking • RnD
ПА
Павел А.
Нови-Сад
Python разработчик
Senior
3 506,49 Р/час
Apache AirFlow
astra
AWS
Bash
BI-система
Big Data
Boto3
cdk
cloudera
DBT
+44

Главное о специалисте Старший инженер-программист и архитектор решений с более чем 20-летним опытом в разработке корпоративных систем, построении аналитических платформ, обработке данных и управлении проектами. Специализация в интеграции больших данных (Big Data), облачных решениях AWS и архитектуре высоконагруженных систем. Ведет разработку от проектирования архитектуры до промышленной эксплуатации. Имеет опыт управления командами разработки и данными, успешно реализовывал проекты в финансовом секторе, телекоммуникациях и системной интеграции. Ключевые навыки Языки: Python, SQL, Java, Scala, Bash Big Data: Hadoop, Spark, Hive, Impala Потоковые данные: Kafka, Spark Streaming Оркестрация: Airflow, Oozie, Kestra Облачные технологии: AWS (S3, Lambda, Redshift, DynamoDB, CDK, boto3) Инфраструктура: Terraform, Docker, Linux Базы данных: PostgreSQL, Snowflake, Neo4j BI-системы: Oracle BI EE DevOps: Mlflow, DBT Портальные решения: MS SharePoint, IBM WebSphere Portal Администрирование кластеров: Hortonworks, Cloudera CDH (установка, настройка, поддержка)

Подробнее
E-commerce & Retail • FinTech & Banking
КЯ
Кирилл Я.
Минск
Data инженер
Middle+
3 545,15 Р/час
aks
Analytics
Apache AirFlow
Apache Kafka
Apache NiFi
Apache Spark
Apache Superset
AWS
Azure
Azure SQL
+50

Data Engineer с опытом работы на проектах в сфере E-commerce & Retail и FinTech & Banking. На проектах занимался разработкой аналитических платформ, DWH и систем аналитики. Обязанности: - разработка ETL-пайплайнов в Apache Airflow и Apache NiFi; - обработка больших объёмов данных с использованием PySpark, Pandas, NumPy; - оптимизация интеграции Hadoop (HDFS); - агрегация данных в ClickHouse для BI-отчётов; - визуализация данных в Power BI и Superset; - мониторинг и оптимизация производительности запросов в Snowflake; - интеграция PostgreSQL и MS SQL; - использование Docker и Kubernetes для контейнеризации ETL-компонентов; - создание детальных технических проектных документов; - сотрудничество с командой аналитиков; - проведение тестирования системы; - настройка CI/CD-конвейеров с помощью GitLab CI/CD.

Подробнее
E-commerce & Retail • FinTech & Banking
ВВ
Владлена В.
Минск
Data инженер
Middle+
3 545,15 Р/час
Alembic
Apache AirFlow
athena
AWS
AWS glue
Bash
BI
BigQuery
Bitbucket
ClickHouse
+44

Владлена — data-инженер уровня middle+ из Минска (Беларусь). Обладает опытом работы с различными инструментами и технологиями, включая Alembic, Apache AirFlow, AWS, Docker, ETL, FastAPI, GitHub Actions, GitLab CI/CD, Python, SQLAlchemy и другие. Владлена участвовала в нескольких проектах в сферах FinTech & Banking и E-commerce & Retail: - Обрабатывала и трансформировала большие данные из разных источников в хранилище. - Разрабатывала и оптимизировала ETL-пайплайны на Apache Airflow, Python и SQL. - Интегрировала данные из различных источников в централизованное хранилище. - Оптимизировала SQL-запросы в Snowflake, PostgreSQL и других базах данных. - Настраивала механизмы ретраев, SLA и уведомлений в Airflow. - Автоматизировала процессы очистки, нормализации, дедупликации и агрегации данных.

Подробнее
E-commerce & Retail
ГВ
Герман В.
Минск
Data инженер
Middle+
3 545,15 Р/час
Alembic
Apache
Apache AirFlow
Apache Spark
athena
Avro
AWS
AWS glue
Bash scripting
Bitbucket
+55

Data-инженер с опытом работы в отрасли электронной коммерции и ритейла более 3 лет. Участвовал в проекте по внедрению платформы снабжения и планирования для крупного производственного предприятия. Выполнял обязанности по управлению командой дата-инженеров, обсуждал архитектуру системы, подключался к источникам данных, оптимизировал SQL-запросы, создавал конвейеры Airflow, работал с Pandas, разрабатывал хранимые процедуры, настраивал соединения Kafka, проектировал витрины данных и HDFS. Работал над созданием простого в интеграции приложения для персонализированной бизнес-аналитики на базе искусственного интеллекта. Занимался разработкой конечных точек Flask, нормализацией данных, контролем операций хранилища данных, разработкой моделей DBT, использовал Pandas, NumPy и SciPy, разрабатывал функции с помощью AWS Lambda. Принимал участие в разработке платформы для сбора и обработки больших объёмов данных из различных источников. Администрировал базы данных, разрабатывал и оптимизировал сложные SQL-запросы, использовал Apache Spark, обрабатывал крупномасштабные наборы данных с помощью AWS EMR, выполнял статистические вычисления с помощью SciPy.

Подробнее
    Показывать по
    18