- Страна
- Россия
- Зарплата
- до 450 000 ₽
Откликайтесь
на вакансии с ИИ

Senior Data Engineer
Отличное предложение для Senior-специалиста: высокая зарплата, работа над новым проектом (Greenfield) в известном B2B SaaS и отсутствие бюрократии в выборе стека.
Сложность вакансии
Роль требует высокого уровня самостоятельности и глубоких знаний в архитектуре данных (Lakehouse, CDC, Iceberg). Кандидату предстоит принимать ключевые технические решения без опоры на существующее легаси.
Анализ зарплаты
Предложенная зарплата до 450 000 руб. net находится на верхней границе рыночного диапазона для Senior Data Engineer в Москве, что делает вакансию крайне конкурентоспособной.
Сопроводительное письмо
Меня заинтересовала вакансия Senior Data Engineer в YCLIENTS, так как задача построения Lakehouse-архитектуры с нуля на «зеленом поле» — это именно тот вызов, который я ищу. У меня есть значительный опыт работы с Apache Airflow, ClickHouse и построения ETL/ELT процессов (Bronze/Silver/Gold), что позволит мне быстро включиться в процесс и выдать первые результаты в обещанные сроки.
Я обладаю глубокими знаниями Python и SQL, а также опытом работы с CDC-инструментами, такими как Debezium. Мне близок ваш подход к архитектурной свободе и ориентация на результат, и я готов применить свои навыки для создания надежной и масштабируемой платформы данных для ваших 50 тысяч бизнес-клиентов.
Составьте идеальное письмо к вакансии с ИИ-агентом

Откликнитесь в YCLIENTS уже сейчас
Присоединяйтесь к YCLIENTS, чтобы построить современную дата-платформу с нуля и получить полную архитектурную свободу!
Описание вакансии
Senior Data Engineer — строить дата-платформу с нуля.
Удалёнка / Москва | до 450.000₽ net | YCLIENTS (B2B SaaS)
писать: Откликнуться
Сейчас: реплика БД + ClickHouse как «песочница».
Нужно: построить лейкхаус с нуля — от источников до витрин.
Что сделаешь первым:
→ Подключишь OLTP/API → настроишь инкременты в Iceberg (S3)
→ Проведёшь PoC CDC через Debezium + Kafka → лейкхаус
→ Запустишь трансформации Bronze → Silver → Gold
→ Определишь стратегию, например: Trino для ad-hoc, ClickHouse для BI
→ Настроишь мониторинг свежести данных + автоматизируешь бэкфиллы в Airflow
Почему мы?
→ Зелёное поле — не мигрируем с легаси, а строим с нуля
→ Архитектурная свобода — ты выбираешь паттерны и инструменты
→ Высокая ответственность — данные для 50к+ бизнесов в сфере услуг
→ Скорость — первые витрины за 6–8 недель, не «год на проектирование»
Что важно:
→ Сильный SQL + опыт инкрементов и витрин
→ Python для интеграций (не только скрипты)
→ Airflow в проде (зависимости, ретраи, бэкфиллы)
→ Понимание лейкхауса: снепшоты, эволюция схемы, слоистость
Будет плюсом: опыт с Debezium/CDC, Trino, глубокая оптимизация ClickHouse
Стек не догма — если строил лейкхаус на Delta/Hudi и понимаешь принципы — быстро освоишь Iceberg.
Главное — архитектурное мышление.
Создайте идеальное резюме с помощью ИИ-агента

Навыки
- Python
- SQL
- Apache Iceberg
- ETL
- Apache Airflow
- Apache Kafka
- CDC
- S3
- ClickHouse
- Trino
- Debezium
Возможные вопросы на собеседовании
Вакансия предполагает проектирование Lakehouse с нуля. Важно понимать, как кандидат обеспечит консистентность и производительность.
Расскажите о вашем опыте проектирования слоев Bronze/Silver/Gold: какие правила трансформации вы применяете на каждом этапе?
В стеке указан Iceberg. Важно проверить понимание специфики табличных форматов.
В чем основные преимущества Apache Iceberg перед обычным хранением в Parquet на S3, и как вы планируете обрабатывать эволюцию схем?
Упоминается PoC CDC через Debezium. Это критически важный узел для инкрементальной загрузки.
С какими основными проблемами вы сталкивались при настройке CDC через Debezium и Kafka, и как вы их решали?
Airflow используется для автоматизации бэкфиллов и мониторинга.
Как вы организуете идемпотентность в DAG-ах Airflow, особенно при выполнении массовых бэкфиллов за длительный период?
Упоминается использование Trino и ClickHouse для разных задач.
В каких сценариях вы бы отдали предпочтение Trino для ad-hoc запросов, а в каких — ClickHouse для BI, и как обеспечить синхронизацию данных между ними?
Похожие вакансии
Инженер Mlops (Senior)
Senior MLOps Engineer (Platform Development / LLMOps)
Data Scientist Senior (Part-time)
Senior Data инженер
Senior MLOps
Data Engineer / SAP HANA Developer (Senior)
1000+ офферов получено
Устали искать работу? Мы найдём её за вас
Quick Offer улучшит ваше резюме, подберёт лучшие вакансии и откликнется за вас. Результат — в 3 раза больше приглашений на собеседования и никакой рутины!
- Страна
- Россия
- Зарплата
- до 450 000 ₽