- Страна
- Казахстан
- Зарплата
- от 500 000 ₽
Откликайтесь
на вакансии с ИИ

Data Engineer (Junior/Middle)
Стабильная работа в государственном секторе с официальным трудоустройством и понятным стеком технологий. Зарплата выше среднего для Junior/Middle уровня в регионе, однако оффлайн-формат может быть ограничением для некоторых кандидатов.
Сложность вакансии
Позиция требует уверенных знаний стека Apache (Airflow, Spark) и понимания архитектур Data Lake/Lakehouse. Основная сложность заключается в необходимости работы с государственными данными и оффлайн-формате в Астане.
Анализ зарплаты
Предлагаемая зарплата от 500 000 ₸ является конкурентной для специалистов уровня Junior+/Middle в Астане, особенно в государственном секторе. Она соответствует рыночным ожиданиям для инженеров данных с опытом работы с Airflow и Spark.
Сопроводительное письмо
Составьте идеальное письмо к вакансии с ИИ-агентом

Откликнитесь в РЦЭЗ уже сейчас
Присоединяйтесь к команде РЦЭЗ в Астане и развивайте национальные проекты в сфере электронного здравоохранения!
Описание вакансии
#вакансия #астана #оффлайн #workITkz #devops
Должность: Data Engineer (Junior/Middle)
Компания: РЦЭЗ (РГП на ПХВ «Республиканский центр электронного здравоохранения» МЗ РК)
Город: Астана
Занятость: оффлайн
Оплата: от 500 000 ₸ (в зависимости от опыта)
Описание вакансии:
Apache Airflow
Kubernetes / Docker / Linux
GitLab
Data Lake / Lakehouse
Требования:
• Опыт разработки ETL/ELT-процессов
• Знание Python (желательно PySpark)
• Опыт работы с Apache Airflow или аналогичными инструментами
• Понимание принципов работы распределённых систем обработки данных
• Навыки обработки, очистки и трансформации данных
• Опыт работы с Git
• Умение проектировать и поддерживать стабильные пайплайны загрузки данных
• Понимание принципов построения DWH и работы с большими объёмами данных
Будет преимуществом:
• Опыт работы с Apache Spark
• Знание Kubernetes / Docker / Linux
• Опыт работы с CI/CD (GitLab)
• Навыки оптимизации процессов обработки данных
• Опыт работы с Data Lake / Lakehouse архитектурой
Мы предлагаем:
• Официальное трудоустройство
• График работы 5/2, с 09:00 до 18:00
• Возможности профессионального роста
• Дружелюбную команду
Контакты:
Telegram Откликнуться
Создайте идеальное резюме с помощью ИИ-агента

Навыки
- Apache Airflow
- Kubernetes
- Docker
- Linux
- GitLab
- Python
- PySpark
- ETL
- ELT
- Git
- DWH
- Apache Spark
- CI/CD
- Data Lake
Возможные вопросы на собеседовании
Проверка практического опыта работы с основным инструментом оркестрации, указанным в вакансии.
Расскажите о самом сложном DAG в Airflow, который вы проектировали: как вы обрабатывали ошибки и зависимости?
Вакансия предполагает работу с большими данными, где PySpark является ключевым инструментом.
В каких случаях вы бы предпочли использовать PySpark вместо обычного Pandas для обработки данных?
Важно понимать, как кандидат структурирует хранение данных.
В чем ключевое различие между архитектурами Data Lake и Data Warehouse, и когда уместно использовать Lakehouse?
Проверка навыков работы с инфраструктурой.
Как вы разворачиваете свои приложения в Docker и какие преимущества дает использование Kubernetes для Data-инструментов?
Оценка понимания жизненного цикла разработки.
Как вы организуете процесс CI/CD для ETL-процессов с использованием GitLab?
Похожие вакансии
Middle+ Аналитик-разработчик
Аналитик данных (Middle+)
Data аналитик (Middle)
Data Engineer (Middle)
Разработчик баз данных (Middle)
Data инженер (Middle)
1000+ офферов получено
Устали искать работу? Мы найдём её за вас
Quick Offer улучшит ваше резюме, подберёт лучшие вакансии и откликнется за вас. Результат — в 3 раза больше приглашений на собеседования и никакой рутины!
- Страна
- Казахстан
- Зарплата
- от 500 000 ₽