- Страна
- Сербия
Откликайтесь
на вакансии с ИИ

Data Platform Engineer
Интересная позиция в глобальном финтехе с современным стеком технологий и возможностью удаленной работы. Компания имеет четкую нишу и масштаб, что обещает профессиональный рост и сложные задачи.
Сложность вакансии
Роль требует глубоких знаний как в Data Engineering (dbt, Airflow), так и в DevOps (Terraform, Kubernetes), что делает порог входа достаточно высоким. Необходим опыт работы с облачными платформами (AWS/GCP) и владение Python на продвинутом уровне.
Анализ зарплаты
Зарплата не указана, но для позиции Data Platform Engineer в Белграде с опытом 3-5 лет рыночные показатели обычно находятся в диапазоне 4500–6500 евро до налогов. Это соответствует международным стандартам для финтех-сектора в данном регионе.
Сопроводительное письмо
Составьте идеальное письмо к вакансии с ИИ-агентом

Откликнитесь в Paymentology уже сейчас
Присоединяйтесь к Paymentology и создавайте глобальную платежную инфраструктуру будущего — откликайтесь прямо сейчас!
Описание вакансии
**Data Platform Engineer
Paymentology, Belgrade**
At Paymentology, we’re redefining what’s possible in the payments space. As the first truly global issuer-processor, we give banks and fintechs the technology and talent to launch and manage Mastercard and Visa cards at scale - across more than 60 countries.
What you get to do:
🌸Design and implement cloud-based data platform infrastructure using Infrastructure as Code (Terraform), with a strong focus on scalability, security, reliability, and cost-efficiency.
🌸Build and maintain CI/CD pipelines that automate data engineering workflows, data pipeline deployments, and infrastructure provisioning, ensuring faster deployment cycles and minimizing errors.
🌸Implement and operate observability solutions — integrating monitoring, logging, and metrics to ensure platform reliability, performance visibility, and fast incident response.
🌸Collaborate closely with data engineers and cross-functional teams to design and implement data pipelines, data models, and platform capabilities that meet performance and business requirements.
🌸Apply best practices for high availability, disaster recovery, security and cost optimization, while documenting infrastructure patterns, data architecture decisions, and operational procedures.
What it takes to succeed:
💦3-5 years of hands-on experience in Data Engineering, Platform Engineering, or DataOps roles.
💦Proven track record in designing and implementing reliable, scalable data platforms and data infrastructure — not just supporting, but owning end-to-end delivery.
💦Hands-on experience with modern data engineering tools such as dbt, Apache Airflow or Apache Kafka is required.
💦Hands-on proficiency with Infrastructure as Code (Terraform) and cloud architecture patterns on AWS or GCP.
💦Deep experience with AWS or GCP, including data storage and processing services (e.g., BigQuery, Snowflake, S3, Redshift).
💦Practical experience with Kubernetes and containerised workloads for orchestrating data platform services.
💦Experience implementing observability stacks for data platform monitoring, logging, metrics, and alerting.
💦Strong programming skills in Python, SQL, and Bash to build data pipelines, automate workflows, and perform data processing.
💦Excellent problem-solving skills and the ability to work effectively in a collaborative, fully remote environment.
💦A strong inclination to deepen expertise in data architecture, data modelling, and MLOps capabilities.
#engineer #serbia
Создайте идеальное резюме с помощью ИИ-агента

Навыки
- Terraform
- CI/CD
- dbt
- Apache Airflow
- Apache Kafka
- AWS
- GCP
- BigQuery
- Snowflake
- Amazon S3
- Amazon Redshift
- Kubernetes
- Python
- SQL
- Bash
- MLOps
Возможные вопросы на собеседовании
Проверка опыта работы с инструментами автоматизации инфраструктуры, указанными в вакансии.
Расскажите о самом сложном проекте, где вы использовали Terraform для развертывания дата-платформы. С какими трудностями вы столкнулись?
Вакансия требует навыков построения CI/CD для данных.
Как вы организуете процесс CI/CD для dbt-проектов или пайплайнов в Airflow, чтобы минимизировать ошибки в продакшене?
Упоминается важность мониторинга и инцидент-менеджмента.
Какие метрики вы считаете критическими для мониторинга здоровья облачной дата-платформы и какие инструменты для этого использовали?
Проверка навыков работы с контейнеризацией в контексте данных.
В каких случаях вы бы предпочли запускать задачи обработки данных в Kubernetes, а не в нативных облачных сервисах вроде AWS Glue или GCP Dataflow?
Оценка способности оптимизировать затраты на облако.
Какие стратегии оптимизации стоимости хранения и обработки данных в BigQuery или Snowflake вы применяли на практике?
Похожие вакансии
MLOps Engineer (Senior)
Data Scientist (AutoML)
Team Lead MLOps / Tech Lead
Data Science / ML Engineer
Data инженер Middle+ Senior
Data инженер Middle
1000+ офферов получено
Устали искать работу? Мы найдём её за вас
Quick Offer улучшит ваше резюме, подберёт лучшие вакансии и откликнется за вас. Результат — в 3 раза больше приглашений на собеседования и никакой рутины!
- Страна
- Сербия