- Страна
- Россия
- Зарплата
- 200 000 ₽ – 230 000 ₽
Откликайтесь
на вакансии с ИИ

Data инженер Middle+
Хорошее предложение для Middle+ специалиста с четким стеком технологий и возможностью удаленной работы. Уровень оплаты соответствует рынку для данной квалификации, а задачи предполагают высокую степень ответственности и влияние на архитектуру.
Сложность вакансии
Позиция требует уверенного владения Java/Groovy и глубокого понимания экосистемы Hadoop. Высокая сложность обусловлена необходимостью решать нестандартные задачи, проектировать архитектуру и внедрять инженерные практики (CI/CD).
Анализ зарплаты
Предложенная зарплата (200-230к на руки) находится в пределах рыночного диапазона для Middle+ Data инженера в РФ, однако для верхней границы этого грейда (ближе к Senior) на рынке встречаются предложения до 350-400к. Оформление через ИП может быть как плюсом, так и минусом в зависимости от ожиданий кандидата по соцпакету.
Сопроводительное письмо
Меня заинтересовала вакансия Data инженера, так как мой опыт работы со стеком Big Data и инструментами ETL (Apache NiFi, Airflow) полностью соответствует вашим требованиям. Я обладаю глубокими знаниями SQL и имею опыт разработки на Java/Groovy, что позволяет мне не только поддерживать существующие решения, но и проектировать сложные интеграционные системы с нуля.
В своей практике я активно использовал Hadoop, Hive и Docker (Rancher), а также выстраивал процессы CI/CD и код-ревью. Уверен, что мой опыт решения технически сложных задач и понимание архитектуры DWH/DataLake помогут вашей команде в реализации амбициозных проектов и развитии технологической стратегии.
Составьте идеальное письмо к вакансии с ИИ-агентом

Откликнитесь уже сейчас
Отправьте резюме @irazhura87, чтобы присоединиться к команде и работать со стеком Big Data на уровне Middle+!
Описание вакансии
#вакансия #Data #fulltime #удаленно #BigData #Hadoop #ETL
🔥Ищем Data инженера уровня Middle+
✅ Уровень: Middle+
✅ Локация и гражданство: РФ + Друж. Страны.
✅ ЗП:200-230К на руки
✅ Загрузка: fulltime.
✅ Оформление: как ИП
📌Обязательные требования
- Владение одним из языков программирования (Java, Groovy), знание принципов ООП, умение читать чужой код;
- Опыт сборки проекта, компиляции и деплоя в Rancher (Docker);
- Опыт проектирования, реализации, развития и поддержки интеграционных решений на стеке технологий BigData;
- Знание SQL (индексы, функции, умение читать планы запросов, оптимизация запросов);
- Опыт работы с любой реляционной БД (Oracle, Postgres, MySQL, MsSQL, DB2 и т.п.);
- Умение работать с Git в консоли;
- Знание особенностей работы ETL-инструментов (Apache Nifi, Airflow, интеграционные шины SAP BW, Talend, Informatica, SAS и т.п.);
- Опыт работы с Hadoop;
- Понимание устройства HDFS, форматов данных;
- Опыт работы с Hive или любым другим хранилищем на основе Hadoop;
- Опыт использования систем ведения проектов и документации;
- Умение работать с архитектурными схемами;
- Понимание принципов построения и хранения данных - DWH и DataLake.
➕Дополнительные требования
- Опыт администрирования Unix/Linux или Hadoop (HDFS, Yarn, Ranger, Spark, Zookeeper), Zabbix, Ansible.
📝Задачи на проекте
- Самостоятельная разработка, реализация и поддержка интеграционных решений на стеке технологий, принятых в команде (Java, Groovy, Apache Nifi, Airflow);
- Определение стека технологий для конкретных проектов и задач;
- Решать технически сложные задачи, которые не могут решить другие инженеры в команде;
- Оперативно реагировать на информацию о проблемах в зоне ответственности, выполнять задачи в установленные сроки;
- Разрабатывать и контролировать актуальность документации по взаимодействию конфигурационных единиц платформы больших данных;
- Предоставлять отчеты о своей деятельности начальнику отдела/руководителю в порядке, установленном руководством;
- Контроль качества интеграционных решений с последующим созданием задач/дефектов для рефакторинга;
- Определять технологическую стратегию развития проекта или продукта, работать на перспективу;
- Выстраивать процессы (например, CI/CD, код-ревью), внедрять и развивать инженерные практики.
📲Контакты: Откликнуться
Создайте идеальное резюме с помощью ИИ-агента

Навыки
- Java
- Groovy
- Docker
- Rancher
- SQL
- Oracle
- PostgreSQL
- MySQL
- Git
- Apache NiFi
- Airflow
- Hadoop
- HDFS
- Hive
- DWH
- Data Lake
- Linux
- Spark
- Ansible
- CI/CD
Возможные вопросы на собеседовании
Вакансия требует умения решать сложные задачи, с которыми не справляются другие.
Расскажите о самом сложном техническом кейсе в вашей практике работы с Big Data: как вы диагностировали проблему и какое решение внедрили?
В стеке указаны Java и Groovy.
В каких случаях при разработке пайплайнов в Apache NiFi вы предпочтете написание кастомного скрипта на Groovy использованию стандартных процессоров?
Требуется знание планов запросов и оптимизации.
Как вы будете оптимизировать медленный запрос в Hive, работающий с таблицами объемом в несколько терабайт? Какие механизмы партиционирования и бакетирования примените?
Упоминается работа с Docker и Rancher.
Опишите ваш опыт контейнеризации ETL-процессов. С какими трудностями вы сталкивались при деплое Big Data компонентов в Docker-среду?
Важна роль в проектировании DWH/DataLake.
Каковы основные различия в подходах к обеспечению качества данных (Data Quality) при загрузке в классическое хранилище (DWH) и в озеро данных (Data Lake)?
Похожие вакансии
Data Engineer Python (Middle)
Data инженер Middle
Middle+ ML разработчик
ML инженер (RecSys, Ecom)
Middle Data Science (Проект Альфа)
ML-инженер/ Data Scientist (Проект по ИИ)
1000+ офферов получено
Устали искать работу? Мы найдём её за вас
Quick Offer улучшит ваше резюме, подберёт лучшие вакансии и откликнется за вас. Результат — в 3 раза больше приглашений на собеседования и никакой рутины!
- Страна
- Россия
- Зарплата
- 200 000 ₽ – 230 000 ₽