yandex
zetaglobal
Страна
Чехия
+500% приглашений

Откликайтесь
на вакансии с ИИ

Ускорим процесс поиска работы
SeniorГибридПолная занятость

Senior Data Engineer— AdTech Data Platform

Оценка ИИ

Отличная вакансия в публичной американской компании (NYSE: ZETA) с сильным инженерным стеком и сложными задачами. Работа в Праге над глобальным продуктом — это высокий престиж и профессиональный рост.


Вакансия из Quick Offer Global, списка международных компаний
Пожаловаться

Сложность вакансии

ЛегкоСложно
Оценка ИИ

Высокая сложность обусловлена требованиями к опыту (7+ лет), необходимостью работы с экстремальными нагрузками (миллиарды событий) и глубокими знаниями стека Kafka/Flink/Spark.

Анализ зарплаты

Медиана6 500 €
Рынок5 000 € – 8 000 €
Оценка ИИ

Зарплата в вакансии не указана, но для позиции Senior Data Engineer в Праге рыночный диапазон составляет от 120 000 до 180 000 CZK в месяц до налогов. Учитывая масштаб компании Zeta Global, предложение, скорее всего, находится на верхней границе рынка или включает значительный пакет акций (RSU).

Сопроводительное письмо

I am writing to express my strong interest in the Senior Data Engineer position at Zeta Global. With over 7 years of experience in building production-grade data pipelines and a deep expertise in streaming technologies like Kafka and Flink, I am confident in my ability to contribute significantly to your AdTech Data Platform. My background in processing billions of events and optimizing large-scale cloud architectures aligns perfectly with Zeta's mission to simplify sophisticated marketing through AI.

In my previous roles, I have successfully designed canonical aggregates and managed complex schema evolutions, ensuring high data reliability for downstream ML and BI consumers. I am particularly drawn to this opportunity because of Zeta's focus on 'extreme scale' and the integration of agentic workflows into the data layer. I am eager to bring my skills in Python, Scala, and AWS-native data patterns to your team in Prague and help drive the operational excellence of your streaming and batch workloads.

+250% к просмотрам

Составьте идеальное письмо к вакансии с ИИ-агентом

Составьте идеальное письмо к вакансии с ИИ-агентом

Откликнитесь в zetaglobal уже сейчас

Присоединяйтесь к Zeta Global и создавайте высоконагруженные системы обработки данных на базе ИИ в самом сердце Праги!

Описание вакансии

WHO WE ARE

Zeta Global (NYSE: ZETA) is the AI-Powered Marketing Cloud that leverages advanced artificial intelligence (AI) and trillions of consumer signals to make it easier for marketers to acquire, grow, and retain customers more efficiently. Through the Zeta Marketing Platform (ZMP), our vision is to make sophisticated marketing simple by unifying identity, intelligence, and omnichannel activation into a single platform – powered by one of the industry’s largest proprietary databases and AI. Our enterprise customers across multiple verticals are empowered to personalize experiences with consumers at an individual level across every channel, delivering better results for marketing programs. Zeta was founded in 2007 by David A. Steinberg and John Sculley and is headquartered in New York City with offices around the world. To learn more, go to www.zetaglobal.com.

The Role 

We’re looking for a Senior Data Engineer to design, build, and operate the data processing layer that powers Zeta’s AdTech platform. This is a hands-on role focused on streaming + batch pipelines, producing trusted, reusable aggregates that serve multiple downstream consumers including prediction/ML features, agentic workflows, BI reporting, and measurement

What You’ll Do 

  • Build streaming pipelines: Ingest and process high-volume event data using Kafka/Kinesis, handling schema evolution, event-time processing, late data, and deduplication.
  • Create canonical aggregates: Produce durable, well-defined rollups (campaign, audience, creative, inventory, pacing/spend, conversions, measurement) with consistent semantics and SLAs.
  • Enable prediction & agents: Deliver feature-ready datasets and near-real-time signals to support model training/scoring, retrieval, and agent decision loops.
  • Support BI & reporting: Publish governed datasets to analytics systems and warehouses for dashboards, ad-hoc queries, and operational reporting.
  • Measurement-grade reliability: Implement reconciliation, backfills, audit trails, and quality checks to ensure correctness for reporting and measurement.
  • Optimize performance & cost: Tune pipeline throughput/latency, storage formats, partitioning, and compute spend across streaming and batch workloads.
  • Operational excellence & observability: Instrument pipelines with metrics/logs/traces, define SLIs/SLOs, and drive fast detection and root-cause analysis.
  • Collaborate cross-functionally: Partner with Backend, ML/DS, Analytics, and Platform/SRE to define contracts, schemas, and robust data products.

Required Qualifications 

  • 7+ years building and operating production-grade data pipelines.
  • Strong experience with streaming systemsKafka (preferred) or AWS Kinesis, and event-driven architectures.
  • Hands-on experience with processing frameworks such as FlinkSpark (Structured Streaming)Beam, or equivalent.
  • Proficiency in Python and/or Java/Scala (Go is a plus).
  • Strong SQL skills and experience with data modeling for analytics and aggregates.
  • Strong experience with AWS and cloud-native data patterns (S3 + compute/orchestration services).
  • Experience with data warehouses / OLAP (e.g., Snowflake/Redshift/BigQuery) and/or real-time analytics stores (e.g., ClickHouse/Druid).
  • Familiarity with SQL + NoSQL ecosystems (e.g., Postgres/MySQL + DynamoDB/Cassandra/Redis) for serving/lookup patterns.
  • Experience with orchestration and CI/CD for data pipelines (Airflow/Argo/Step Functions or equivalents).
  • Clear communicator and collaborator; able to explain data systems and trade-offs to mixed audiences.

Preferred Qualifications 

  • Programmatic advertising domain knowledge: event pipelines for impressions/clicks/conversions, attribution/measurement, pacing/budget signals.
  • Experience building feature stores or ensuring online/offline parity for ML features.
  • Lakehouse experience (Delta/Iceberg/Hudi), incremental processing, and backfill strategies at scale.
  • Strong data governance practices: lineage, access controls, PII handling, privacy-by-design.
  • Experience operating at “extreme scale” (billions of events/day) and optimizing cost/performance.

BENEFITS & PERKS

  • Excellent medical, dental, and vision coverage

PEOPLE & CULTURE AT ZETA

Zeta considers applicants for employment without regard to, and does not discriminate on the basis of an individual’s sex, race, color, religion, age, disability, status as a veteran, or national or ethnic origin; nor does Zeta discriminate on the basis of sexual orientation, gender identity or expression.

We’re committed to building a workplace culture of trust and belonging, so everyone feels invited to bring their whole selves to work. We provide a forum for employees to celebrate, support and advocate for one another. Learn more about our commitment to diversity, equity and inclusion here:  https://zetaglobal.com/blog/a-look-into-zetas-ergs/

ZETA IN THE NEWS!

https://zetaglobal.com/press/?cat=press-releases

#LI-NP1

+400% к собеседованиям

Создайте идеальное резюме с помощью ИИ-агента

Создайте идеальное резюме с помощью ИИ-агента

Навыки

  • AWS
  • Python
  • Terraform
  • SQL
  • Kubernetes
  • CI/CD
  • Snowflake
  • Airflow
  • Apache Spark
  • Kafka
  • Java
  • Apache Flink
  • Data Modeling
  • Scala
  • ClickHouse

Возможные вопросы на собеседовании

Проверка опыта работы с высоконагруженными системами, упомянутыми в вакансии.

Как вы обрабатываете проблему 'late data' и дубликатов в потоковых пайплайнах на базе Kafka и Flink?

Вакансия требует создания канонических агрегатов для ML и BI.

Опишите ваш подход к проектированию схемы данных, которая должна одновременно служить фичами для ML-моделей и источником для BI-отчетности.

Оптимизация затрат — одна из ключевых задач роли.

Какие стратегии вы использовали для оптимизации стоимости хранения и вычислений в AWS при работе с петабайтными объемами данных?

Проверка навыков обеспечения надежности (Measurement-grade reliability).

Как вы организуете процесс сверки (reconciliation) и автоматизированного бэкфилла данных в случае сбоя в стриминговом пайплайне?

Важен опыт работы с современными форматами хранения.

Работали ли вы с форматами Iceberg или Delta Lake? В каких сценариях их использование оправдано по сравнению с обычным Parquet на S3?

Похожие вакансии

Centicore
400 000 ₽ – 420 000 ₽

MLOps Engineer (ML pipelines / Kubernetes / Airflow)

SeniorУдалённоРоссия
Kubernetes · Airflow · Python · Docker · Helm · Jenkins · GitLab CI · MLflow · JupyterHub · Seldon · CUDA · Hadoop · Spark · Kafka · ELK · LLM · RAG
+17 навыков
Omega Solutions
2 000 ₽ – 2 700 ₽

Senior Data инженер

SeniorУдалённоРоссия
Java · Groovy · Hadoop · ETL · DWH · SQL · Docker · Apache NiFi · Airflow · SAP HANA · Apache Kafka · Apache Iceberg · Python · Go · Linux · Ansible · Zabbix · HDFS · Hive
+19 навыков
Volna.tech
386 000 ₽ – 436 000 ₽

Senior MLOps Engineer (Platform Development / LLMOps)

SeniorУдалённоРоссия
Docker · Helm · Jenkins · GitLab CI · Python · Airflow · JupyterHub · MLflow · Seldon · CUDA · Kubernetes · Hadoop · Spark · Kafka · ELK · LLMOps · RAG
+17 навыков
LIAN
260 000 ₽ – 350 000 ₽

Data Engineer / SAP HANA Developer (Senior)

SeniorУдалённоРоссия
SAP HANA · Python · Go · Java · C++ · Rust · Apache Iceberg · Apache Paimon · Apache Kafka · SQL · SRE · Observability
+12 навыков
ZeBrains
Не указана

Senior ML Engineer

SeniorУдалённоРоссия
Python · PyTorch · TensorFlow · Scikit-learn · CatBoost · LightGBM · MLflow · Kubeflow · Docker · Kubernetes · FastAPI · gRPC · Apache Kafka · Apache Airflow · SQL · ClickHouse · Time Series Analysis · Recommendation Systems
+18 навыков
Альфа-Банк (AlfaPredict, Feature Store)
Не указана

Senior MLOps

SeniorУдалённоРоссия
MLOps · DevOps · Docker · Helm · Jenkins · GitLab CI · Python · Airflow · JupyterHub · MLflow · Seldon Core · CUDA · Kubernetes · Hadoop · Apache Spark · Apache Kafka · ELK stack · LLMOps · AutoML
+19 навыков
более 1000 офферов получено
4.9

1000+ офферов получено

Устали искать работу? Мы найдём её за вас

Quick Offer улучшит ваше резюме, подберёт лучшие вакансии и откликнется за вас. Результат — в 3 раза больше приглашений на собеседования и никакой рутины!

zetaglobal
Страна
Чехия