- Страна
- Россия
- Зарплата
- 290 000 ₽ – 310 000 ₽
Откликайтесь
на вакансии с ИИ

Data engineer
Хорошее предложение с четко прописанными требованиями и конкурентной зарплатой для РФ. Использование современного стека (NiFi, Airflow, Docker) и возможность удаленной работы делают вакансию привлекательной для опытных инженеров.
Сложность вакансии
Роль требует уверенного владения Java/Groovy и глубокого понимания стека Big Data (Hadoop, Hive, NiFi). Высокая сложность обусловлена необходимостью решать задачи, с которыми не справляются другие инженеры, и определять технологическую стратегию.
Анализ зарплаты
Предложенная вилка 290 000 - 310 000 руб. gross соответствует рыночному уровню для Middle+/Senior Data Engineer в России. Верхняя граница чуть выше медианы, что оправдано требованиями к знанию Java и архитектурным навыкам.
Сопроводительное письмо
Меня заинтересовала вакансия Data Engineer в группе компаний Top Selection. Мой опыт работы с экосистемой Hadoop, инструментами ETL (Apache NiFi, Airflow) и уверенное владение Java/Groovy позволяют мне эффективно решать задачи по проектированию и поддержке сложных интеграционных решений.
Я обладаю глубокими знаниями SQL и опытом работы с реляционными базами данных, а также навыками деплоя в Docker/Rancher. Умение выстраивать процессы CI/CD и работать с архитектурными схемами поможет мне внести значимый вклад в технологическое развитие ваших проектов и обеспечить высокое качество данных в DWH и DataLake.
Составьте идеальное письмо к вакансии с ИИ-агентом

Откликнитесь в Top Selection уже сейчас
Присоединяйтесь к команде Top Selection и развивайте масштабные Big Data решения на стеке Java и Hadoop!
Описание вакансии
#вакансия #удаленнаяработа #Data #Dataengineer #РФ
**✅Позиция:Data engineer💻
✅Вилка: 290.000 - 310.000 руб. гросс💰
✅Занятость: Полная
✅Локация и гражданство:РФ 📌
✅Оформление: Как ИП**
**👋Привет! Меня зовут Ирина. Я представляю группу компаний Top Selection.
🔥В данный момент мы в поисках Data engineer** 🔥
🛠Требования:
- Владение одним из языков программирования (Java, Groovy), знание принципов ООП, умение читать чужой код;
- Опыт сборки проекта, компиляции и деплоя в Rancher (Docker);
- Опыт проектирования, реализации, развития и поддержки интеграционных решений на стеке технологий BigData;
- Знание SQL (индексы, функции, умение читать планы запросов, оптимизация запросов);
- Опыт работы с любой реляционной БД (Oracle, Postgres, MySQL, MsSQL, DB2 и т.п.);
- Умение работать с Git в консоли;
- Знания специфики работы ETL инструментов (Apache Nifi, Airflow, интеграционные шины SAP BW, Talend, Informatica, SAS и т.п.);
- Опыт работы с Hadoop;
- Понимание устройства HDFS, форматов данных;
- Опыт работы с Hive или любым другим хранилищем на основе Hadoop;
- Опыт использования систем ведения проектов и документации;
- Умение работы с архитектурными схемами;
- Понимание принципов построения и хранения данных - DWH и DataLake.
📌Обязанности:
- Самостоятельная разработка, реализация и поддержка интеграционных решений, на стеке технологий, принятых в команде (Java, Groovy, Apache Nifi, Airflow);
- Определение стека технологий для конкретных проектов и задач;
- Решать технически сложные задачи, которые другие инженеры в команде не в состоянии решить;
- Оперативное реагирование на информацию о проблемах в зоне ответственности, выполнение задач в установленный срок;
- Разработка и контроль актуальности документации взаимодействия конфигурационных единиц платформы больших данных;
- Предоставление отчетности о своей деятельности начальнику отдела/руководителю в порядке, установленном руководством;
- Контроль за качеством интеграционных решений, с последующим заведением задач/дефектов на рефакторинг;
- Определять технологическую стратегию развития проекта или продукта, работать на перспективу;
- Выстраивать процессы (например, CI/CD, код ревью), внедрять и развивать инженерные практики.
📲Контакт для связи: Откликнуться
Создайте идеальное резюме с помощью ИИ-агента

Навыки
- Git
- SQL
- CI/CD
- PostgreSQL
- Docker
- Airflow
- Hadoop
- Java
- MySQL
- Oracle
- Apache NiFi
- Hive
- HDFS
- Data Lake
- Groovy
- DWH
Возможные вопросы на собеседовании
Вакансия предполагает решение сложных задач, которые не под силу другим. Этот вопрос проверит экспертность кандидата.
Расскажите о самом сложном техническом кейсе в вашей практике работы с Big Data: как вы диагностировали проблему и какое решение внедрили?
В стеке указаны Java и Groovy. Важно понять, как кандидат использует ООП в контексте обработки данных.
В каких случаях при разработке ETL-процессов на Apache NiFi вы прибегаете к написанию кастомного кода на Groovy или Java вместо стандартных процессоров?
Работа с Hadoop и Hive требует понимания производительности.
Какие методы оптимизации Hive-запросов вы используете при работе с большими объемами данных в HDFS?
Позиция подразумевает внедрение инженерных практик.
Как бы вы организовали процесс CI/CD для пайплайнов данных, чтобы минимизировать риски при деплое в Docker/Rancher?
Знание архитектуры DWH/DataLake является ключевым требованием.
В чем, по вашему мнению, основные различия в подходах к моделированию данных для классического DWH и для Data Lake на базе Hadoop?
Похожие вакансии
Инженер Mlops (Senior)
Middle+ ML разработчик
Senior MLOps Engineer (Platform Development / LLMOps)
Senior Data Engineer
Data Scientist Senior (Part-time)
Senior Data инженер
1000+ офферов получено
Устали искать работу? Мы найдём её за вас
Quick Offer улучшит ваше резюме, подберёт лучшие вакансии и откликнется за вас. Результат — в 3 раза больше приглашений на собеседования и никакой рутины!
- Страна
- Россия
- Зарплата
- 290 000 ₽ – 310 000 ₽