- Страна
- Россия
Откликайтесь
на вакансии с ИИ

Data Engineer (SafeHub)
Сбер — стабильный и престижный работодатель с сильным инженерным сообществом. Проект SafeHub предполагает работу с современным стеком технологий и большими объемами данных, что отлично подходит для профессионального роста.
Сложность вакансии
Вакансия требует глубоких знаний SQL, опыта работы с Hadoop/Spark и владения Java или Scala, что повышает порог входа. Также необходим опыт работы с разнообразными СУБД (Oracle, Teradata, GreenPlum) от двух лет.
Анализ зарплаты
Зарплата в объявлении не указана, но для Data Engineer с опытом от 2 лет в Москве рыночный диапазон составляет от 200 000 до 350 000 рублей. Сбер обычно предлагает конкурентные условия, соответствующие средним и верхним границам рынка для Middle-специалистов.
Сопроводительное письмо
I am writing to express my interest in the Data Engineer (SafeHub) position at Sber. With over two years of experience in ETL development and data engineering, I have developed a strong proficiency in SQL and working with large-scale relational databases such as Oracle and GreenPlum. My background aligns well with your requirements for building analytical data marts and optimizing data processing workflows.
In my previous roles, I have successfully utilized the Hadoop ecosystem and Apache Spark to handle massive datasets, ensuring high performance and data quality. I am particularly excited about the opportunity to contribute to SafeHub's infrastructure and collaborate with your team on Java/Scala-based data processing services. I am confident that my technical skills and analytical mindset will make me a valuable asset to Sber.
Составьте идеальное письмо к вакансии с ИИ-агентом

Откликнитесь в Сбер уже сейчас
Присоединяйтесь к команде Сбера и создавайте инновационные решения для работы с данными в проекте SafeHub!
Описание вакансии
Data Engineer (SafeHub)
#офис
Москва
Компания: Сбер
☑️Задачи:
-анализ структур данных в разных источниках и форматов, оценка их пригодности для конкретных бизнес-задач
-загрузка, обработка и преобразование больших объемов данных из разнородных хранилищ (Oracle, Teradata, MS SQL, GreenPlum) в рабочие среды (GreenPlum, Hadoop)
-проектирование и создание аналитических витрин данных
-подготовка и препроцессинг данных для обучения моделей машинного обучения
-мониторинг и оптимизация рабочих процессов обработки и загрузки данных
-контроль качества входных данных и автоматизация проверки качества данных
-разработка инфраструктуры и внутренних сервисов для эффективной обработки больших объемов данных
-автоматизация повторяющихся операций с данными
-создание технической документации и поддержка баз знаний по работе с данными
-консультация пользователей внутри компании по вопросам использования данных.
☑️Требования
-высшее образование
-опыт работы от 2х лет в роли Data Engineer, Data Analyst или ETL-разработчика
-продвинутый уровень владения SQL (аналитические функции, подзапросы, хранимые процедуры, производительность запросов)
-практический опыт работы с большими объемами данных в реляционных СУБД (Oracle, Teradata, MS SQL, GreenPlum)
-понимание концепции и принципов организации хранилища данных (DWH)
-работа с технологическим стеком Hadoop (HDFS, YARN, Hive) и Apache Spark
-опыт программирования на Java/Scala
-понимание базовых принципов построения распределенных систем хранения и обработки данных.
Контакты: Откликнуться
🔥Подписаться на наши каналы / @best_itjob / @it_rab
Создайте идеальное резюме с помощью ИИ-агента

Навыки
- SQL
- Oracle
- Teradata
- Microsoft SQL Server
- Greenplum
- Hadoop
- HDFS
- Apache YARN
- Apache Hive
- Apache Spark
- Java
- Scala
- ETL
- DWH
Возможные вопросы на собеседовании
Проверка глубины знаний SQL, критически важных для работы с DWH.
Расскажите о наиболее сложных аналитических функциях SQL, которые вы использовали для оптимизации производительности запросов в GreenPlum или Oracle.
Оценка практического опыта работы с Big Data стеком.
С какими проблемами производительности в Apache Spark вы сталкивались и как вы их решали (например, проблемы со skewness данных)?
Проверка навыков программирования, указанных в требованиях.
В каких задачах обработки данных вы предпочитаете использовать Scala/Java вместо Python и почему?
Оценка понимания архитектуры данных.
Опишите ваш опыт проектирования аналитических витрин данных: какие подходы к моделированию (Kimball, Inmon, Data Vault) вы применяли?
Проверка навыков обеспечения качества данных.
Как вы организуете автоматизированный контроль качества данных (Data Quality) при загрузке из разнородных источников в Hadoop?
Похожие вакансии
MLOps Engineer (ML pipelines / Kubernetes / Airflow)
Senior Data инженер
Senior MLOps Engineer (Platform Development / LLMOps)
Data Engineer / SAP HANA Developer (Senior)
Data Scientist в RecSys
Data Engineering Team Lead (команда Clickhouse)
1000+ офферов получено
Устали искать работу? Мы найдём её за вас
Quick Offer улучшит ваше резюме, подберёт лучшие вакансии и откликнется за вас. Результат — в 3 раза больше приглашений на собеседования и никакой рутины!
- Страна
- Россия