- Страна
- Россия
- Зарплата
- 250 000 ₽ – 430 000 ₽
Откликайтесь
на вакансии с ИИ

Middle Data Engineer
Сильный бренд, прозрачная система пересмотра зарплаты и грейдов, работа с огромными массивами данных. Хороший социальный пакет (ДМС) и четко выстроенные процессы (минимум встреч).
Сложность вакансии
Позиция требует уверенного владения стеком Big Data (Hadoop, Spark, Clickhouse) и опыта работы с высоконагруженными системами. Высокая планка ожиданий по SQL и пониманию архитектуры ETL-процессов в банковском секторе.
Анализ зарплаты
Предложенная вилка 250-430к gross соответствует рыночному уровню для Middle/Middle+ Data Engineer в Москве. С учетом годового бонуса совокупный доход может быть выше среднего по рынку.
Сопроводительное письмо
Я заинтересован в позиции Middle Data Engineer в команде B2C Data Unit Сбера. Мой опыт работы с Hadoop, Clickhouse и Spark более двух лет, а также глубокое понимание SQL позволяют мне эффективно решать задачи по оптимизации ETL-потоков и управлению петабайтами данных.
Меня привлекла возможность участия в разработке внутреннего веб-приложения для управления клиентскими сегментами и планы по внедрению ИИ-помощника. Я имею опыт настройки Clickhouse и работы с CI/CD инструментами, что поможет мне быстро влиться в ваши процессы и приносить пользу проекту с первых дней.
Буду рад обсудить, как мой технический бэкграунд поможет Трайбу X в реализации амбициозного бэклога на 2026 год. Спасибо за ваше время и рассмотрение моей кандидатуры.
Составьте идеальное письмо к вакансии с ИИ-агентом

Откликнитесь в Сбер уже сейчас
Присоединяйтесь к команде Сбера и создавайте инновационные инструменты для работы с данными миллионов клиентов!
Описание вакансии
Позиция: Middle Data Engineer
Куда: Сбер, B2C, Data Unit, Трайб X
Формат работы: полная занятость; офис/гибрид в Москве, Санкт-Петербурге
Вилка гросс:
250-430 + годовой бонус (mid 25%, max 50%) от годового оклада
Про нас:
Мы разрабатываем внутреннее веб-приложение для создания и управления клиентскими сегментами. Платформа позволяет кампейн-инженерам и аналитикам формировать целевые аудитории через UI с фильтрами по клиентским атрибутам, рассчитывать размер аудитории в реальном времени и публиковать готовые сегменты.
В 2026 году мы планируем реализовать бэклог из множества задач, включая расширение функциональности конструктора сегментов, разработку ИИ-помощника, разработку интеграционных взаимодействий.
Что предстоит делать?
- Разрабатывать и оптимизировать ETL потоки Hadoop <-> Clickhouse
- Разрабатывать и встраивать в приложение систему контроля качества данных
- Автоматизировать рутинные операции при управлении атрибутным составом приложения
- Проводить эксперименты для повышения производительности вычислений в Clickhouse
От нас:
- Разработка важной функциональности, которую ждут многочисленные внутренние клиенты из разных команд Банка
- Амбициозные задачи для создания лучшего продукта на рынке
- Минимум бесполезных встреч
- ДМС
Требования:
- Опыт работы с БД (Hadoop, Clickhouse, Greenplum) от 2х лет
- Опыт работы и глубокое понимание Spark, Hive, MapReduce
- Продвинутый уровень SQL
Что ещё может пригодиться:
- Kafka, Flink
- Опыт настройки и оптимизации Clickhouse
- CI/CD (у нас Jenkins+Bitbucket+Nexus), DevOps
Ответы на 10 важных вопросов
- Данные: петабайты данных десятков миллионов розничных клиентов Банка.
- Железо, продакшн и ноутбук: кластеры Hadoop, Clickhouse. Рабочий ноутбук на Linux + разные варианты ВРМ (Citrix Workspace, преимущественно Windows).
- Масштаб влияния на бизнес: продукт на стадии опытной эксплуатации, в перспективе станет главным выбором для различных бизнес-процессов Банка, требующих сборку аудитории.
- Уровень зрелости Data Science: функция ИИ внедрена во все ключевые направления бизнеса, ИИ приносит деньги и бизнес активно приходит с запросом на наши решения.
- Роль DE: разрабатывать и отвечать за качество потоков данных, поддерживать высокую производительность вычислений.
- Бэкграунд вашего руководителя: Linkedin.
- Как часто вам будут мешать работать: Ежедневные дейли, планирование на час-полтора один раз в 2-недельный спринт.
- Карьерный рост: Каждый квартал – компания оценок и ревью. Централизованные компании по пересмотру ЗП и грейда раз в полгода.
- Prod/research: prod 80%, rnd 20%.
- Роль сервиса или лидера: преимущественно сервисная роль.
CV отправлять в Откликнуться
Создайте идеальное резюме с помощью ИИ-агента

Навыки
- SQL
- CI/CD
- DevOps
- Kafka
- Hadoop
- Jenkins
- Spark
- Flink
- ETL
- MapReduce
- BitBucket
- Nexus
- Hive
- ClickHouse
- Greenplum
Возможные вопросы на собеседовании
Проверка практического опыта оптимизации запросов в Clickhouse, что указано в задачах.
Расскажите о вашем опыте оптимизации производительности в Clickhouse: какие движки таблиц использовали и как настраивали партиционирование?
Важно для понимания того, как кандидат работает с распределенными вычислениями.
В чем разница между Spark и MapReduce с точки зрения управления памятью и скорости обработки данных?
В описании упомянута разработка системы контроля качества данных.
Какие метрики качества данных (Data Quality) вы считаете критическими для сегментации клиентов и как бы вы автоматизировали их проверку?
Проверка навыков проектирования ETL-процессов.
Опишите процесс переноса данных из Hadoop в Clickhouse: какие инструменты и подходы вы бы использовали для обеспечения консистентности?
Сбер использует Jenkins и Bitbucket, важно понимание процессов доставки кода.
Как вы организуете CI/CD для своих ETL-пайплайнов и какие тесты считаете обязательными перед деплоем в прод?
Похожие вакансии
Middle+ ML разработчик
Data Scientist в RecSys
Middle Data Scientist
Data инженер (Middle)
Middle ML Engineer
Middle Data Analyst / Data Scientist
1000+ офферов получено
Устали искать работу? Мы найдём её за вас
Quick Offer улучшит ваше резюме, подберёт лучшие вакансии и откликнется за вас. Результат — в 3 раза больше приглашений на собеседования и никакой рутины!
- Страна
- Россия
- Зарплата
- 250 000 ₽ – 430 000 ₽