- Страна
- Россия
Откликайтесь
на вакансии с ИИ

Middle Аналитик данных
Хорошая вакансия для Middle-специалиста с актуальным стеком технологий (Airflow, PySpark). Четко описанные задачи и требования делают позицию прозрачной, хотя отсутствие информации о зарплате и компании снижает общую привлекательность.
Сложность вакансии
Позиция требует уверенного владения инструментами Big Data (Hadoop, PySpark) и понимания архитектуры Data Vault, что выше среднего уровня для обычного аналитика. Однако отсутствие требований к BI-инструментам и сложной математике немного снижает порог входа.
Анализ зарплаты
В объявлении не указана заработная плата, но для Middle Data Analyst со стеком Big Data в России рыночный диапазон составляет от 180 000 до 280 000 рублей. Данная роль предполагает работу с инженерными инструментами, что обычно оплачивается выше, чем классическая продуктовая аналитика.
Сопроводительное письмо
Меня заинтересовала вакансия Middle Аналитика данных, так как мой опыт работы с Hadoop и PySpark полностью соответствует вашим требованиям. Я обладаю глубокими знаниями SQL и Python, а также имею практический опыт проектирования витрин данных и работы с методологией Data Vault, что позволит мне эффективно участвовать в процессах интеграции и описания объектов в каталоге.
В своей практике я уделяю большое внимание качеству данных и коммуникации с заказчиками для уточнения бизнес-требований. Уверен, что мои навыки документирования в Confluence и опыт приемки объектов у дата-инженеров помогут вашей команде оптимизировать процессы разработки и обеспечить высокую точность отчетности.
Составьте идеальное письмо к вакансии с ИИ-агентом

Откликнитесь уже сейчас
Отправьте свое резюме @horoshkoaleksa, чтобы присоединиться к команде и работать с современным стеком данных на базе Hadoop и Airflow!
Описание вакансии
#vacancy #вакансия #аналитикданных
**Middle Аналитик данных
Задачи:**
· Анализ источников данных для последующей интеграции
· Коммуникация с заказчиками (выяснение детальных требований, условий приемки и т.д.)
· Создание прототипов витрин для пользовательских отчетов
· Описание объектов в каталоге данных, составление документации в confluence
· Формирование требований к качеству данных (DQ проверки)
· Приемка разработанных DE объектов согласно критериям, описанным в бизнес-требованиях
Требования:
· Hadoop, PySpark
· SQL
· Airflow
· Python
· Понимание модели данных Data Vault
· Git
телеграм для связи Откликнуться
Создайте идеальное резюме с помощью ИИ-агента

Навыки
- Git
- Python
- SQL
- PySpark
- Airflow
- Hadoop
- Confluence
- Data Vault
Возможные вопросы на собеседовании
Проверка понимания архитектурных подходов, указанных в требованиях.
Расскажите об основных сущностях в методологии Data Vault (Hubs, Links, Satellites) и в каких случаях оправдано её применение?
Оценка навыков работы с большими данными и оптимизации запросов.
С какими проблемами производительности в PySpark вы сталкивались и как их решали (например, data skew)?
Проверка опыта работы с оркестрацией задач.
Как вы организуете мониторинг качества данных (DQ) внутри DAG в Airflow?
Оценка навыков системного анализа и проектирования.
Опишите ваш процесс сбора требований у бизнес-заказчика: какие вопросы вы задаете в первую очередь?
Проверка умения работать в команде разработки.
Как вы проводите приемку (UAT) объектов, разработанных DE-командой, и на что обращаете внимание в первую очередь?
Похожие вакансии
Аналитик данных (Middle+)
Аналитик данных (Middle+)
Продуктовый аналитик (middle)
Аналитик данных
Аналитик данных (Data Analyst)
Middle Data Аналитик
1000+ офферов получено
Устали искать работу? Мы найдём её за вас
Quick Offer улучшит ваше резюме, подберёт лучшие вакансии и откликнется за вас. Результат — в 3 раза больше приглашений на собеседования и никакой рутины!
- Страна
- Россия