- Страна
- Казахстан
Откликайтесь
на вакансии с ИИ

Middle Data Engineer
Magnum — это сильный бренд в Казахстане с масштабными задачами. Использование передовых технологий (StarRocks, Lakehouse) делает вакансию привлекательной для профессионального роста, однако офисный формат в Алматы может подойти не всем.
Сложность вакансии
Роль требует уверенного владения современным стеком (Spark, StarRocks, Trino) и понимания архитектуры Lakehouse. Основная сложность заключается в работе с большими объемами данных в ритейле и внедрении новых подходов к хранению.
Анализ зарплаты
Зарплата в объявлении не указана. На рынке Казахстана для Middle Data Engineer медиана составляет около 1 000 000 - 1 300 000 KZT (в эквиваленте USD), что соответствует рыночным ожиданиям для крупных ритейл-сетей.
Сопроводительное письмо
Составьте идеальное письмо к вакансии с ИИ-агентом

Откликнитесь в Magnum Cash&Carry уже сейчас
Присоединяйтесь к крупнейшему ритейлеру Казахстана и стройте современный Lakehouse вместе с Magnum!
Описание вакансии
Middle Data Engineer Magnum Cash&Carry
Местоположение: Алматы
Формат работы: Офис
Опубликована: 23.04.2026
Требования:
• Опыт с DWH и Data Lake
• Знание Spark и S3 (MinIO)
• Работа с OLAP (StarRocks/Trino)
• Навыки построения Lakehouse
О компании
Magnum Cash&Carry — крупнейшая торговая сеть, развивающая современный Lakehouse-подход. Компания строит новую платформу данных, внедряя S3-хранилища и быстрые OLAP-движки.
Откликнуться опубликована в LinkedIn у Откликнуться
Создайте идеальное резюме с помощью ИИ-агента

Навыки
- DWH
- Data Lake
- Apache Spark
- S3
- MinIO
- OLAP
- StarRocks
- Trino
- Lakehouse
Возможные вопросы на собеседовании
Вакансия предполагает работу с Lakehouse, поэтому важно понимать различия в подходах к хранению.
В чем ключевые отличия архитектуры Lakehouse от классического DWH и Data Lake?
Spark является основным инструментом обработки данных в данном стеке.
Как вы оптимизируете Spark-задания при работе с данными, хранящимися в S3 (MinIO)?
Компания использует StarRocks и Trino для быстрой аналитики.
В каких сценариях вы бы предпочли использовать Trino, а в каких — StarRocks?
Работа с S3 требует понимания форматов хранения.
Какие форматы файлов (Parquet, Avro, Delta Lake) лучше всего подходят для Lakehouse и почему?
Для Middle-инженера важно понимать процессы интеграции.
Расскажите о вашем опыте построения ETL/ELT процессов для загрузки данных в OLAP-системы.
Похожие вакансии
Data инженер Middle
Data инженер Middle+
Data Engineer Python (Middle)
Data Scientist (Middle)
Middle+ ML разработчик
Middle Data Scientist в RecSys
1000+ офферов получено
Устали искать работу? Мы найдём её за вас
Quick Offer улучшит ваше резюме, подберёт лучшие вакансии и откликнется за вас. Результат — в 3 раза больше приглашений на собеседования и никакой рутины!
- Страна
- Казахстан