- Страна
- Россия
Откликайтесь
на вакансии с ИИ

Middle Data Product Analyst в HR отдел
Известный бренд, современный стек технологий (Hadoop, Airflow) и гибкий формат работы делают вакансию очень привлекательной. Работа в HR-аналитике крупного ритейлера обещает интересные задачи на стыке данных и бизнес-процессов.
Сложность вакансии
Позиция требует уверенного владения стеком Big Data (Hadoop, Airflow, PySpark) и понимания специфики данных в 1С/SAP. Основная сложность заключается в необходимости совмещать роли дата-инженера и бизнес-аналитика.
Анализ зарплаты
Зарплата в объявлении не указана, но для уровня Middle Data Analyst в Москве рыночный диапазон составляет от 180 000 до 280 000 рублей. Учитывая масштаб компании «Детский мир», можно ожидать предложение в рамках этих рыночных значений.
Сопроводительное письмо
Меня заинтересовала вакансия Middle Data Product Analyst в HR-отделе «Детского мира», так как мой опыт работы с SQL и Python идеально ложится в стек технологий вашей компании. Я имею опыт проектирования витрин данных в Hadoop и автоматизации ETL-процессов с помощью Apache Airflow, что позволит мне эффективно поддерживать и развивать вашу инфраструктуру данных.
Особенно меня привлекает возможность работать на стыке бизнеса и IT, консолидируя данные из таких систем, как 1С и SAP. Я уверен, что мои навыки создания интерактивных дашбордов и глубокая экспертиза в анализе больших объемов данных помогут HR-департаменту принимать более обоснованные решения на основе цифр. Буду рад обсудить, как мой опыт может быть полезен вашей команде.
Составьте идеальное письмо к вакансии с ИИ-агентом

Откликнитесь в Детский мир уже сейчас
Присоединяйтесь к команде лидера рынка и развивайте HR-аналитику в «Детском мире»!
Описание вакансии
🚀 Middle Data Product Analyst в Детский мир, в HR отдел
«Детский мир» — это крупнейшая в России, Казахстане и Беларуси сеть магазинов товаров для детей, являющаяся лидером на рынке розничной торговли в этом сегменте.
Задачи:
- Разработка и поддержка инфраструктуры данных:
проектирование, создание и поддержка витрин данных в распределенном хранилище на базе Hadoop, оптимизация их производительности для аналитических задач;
организация сквозного процесса ETL/ELT: перенос и консолидация данных из разнородных источников (1С, SAP, CRM, лог-файлы) в централизованное хранилище.
- Аналитика и разработка скриптов:
написание сложных SQL-запросов для извлечения, агрегации и трансформации больших объемов данных;
разработка скриптов на Python для автоматизации процессов: загрузки данных, расчетных алгоритмов, очистки и верификации.
- Взаимодействие и автоматизация:
тесная работа с бизнес-заказчиками для выявления потребностей в данных, формирования требований к отчетам и витринам;
взаимодействие с IT-отделом по интеграции данных и автоматизации отчетности с использованием Apache Airflow.
- Бизнес-аналитика и визуализация:
глубокая работа с Excel (Power Query для ETL, Power Pivot для моделирования данных);
создание интерактивных дашбордов и отчетов для мониторинга ключевых показателей.
Требования:
- Основные технологии: SQL (высокий уровень), Python (Pyspark, Pandas, NumPy, Requests и др.), Hadoop (HDFS, Hive/Impala), Apache Airflow, Excel (Power Query, Power Pivot);
- Понимание бизнес-систем: знание особенностей хранения и структуры данных в 1С и SAP;
- Bi-инструменты (опционально, но желательно): Опыт работы с одним из инструментов визуализации: Qlik Sense, Apache Superset, Power BI;
- Навыки кросс-функционального взаимодействия: способность быть «мостом» между бизнес-подразделениями и IT.
Условия:
- Гибридный или удалённый формат работы
📎 Как откликнуться?
- Вакансия:Откликнуться
- Рекрутер: {{apply_contact}}
#data_analyst #middle #KidsTech
Создайте идеальное резюме с помощью ИИ-агента

Навыки
- SQL
- Python
- PySpark
- Pandas
- NumPy
- Requests
- Hadoop
- HDFS
- Hive
- Impala
- Apache Airflow
- Excel
- Power Query
- Power Pivot
- 1C
- SAP
- Qlik Sense
- Apache Superset
- Power BI
- ETL
- ELT
Возможные вопросы на собеседовании
Проверка навыков оптимизации запросов в распределенных системах.
Расскажите о вашем опыте оптимизации SQL-запросов в Hive или Impala. Какие методы вы использовали для ускорения обработки больших объемов данных?
Оценка опыта работы с оркестрацией данных.
Опишите структуру типичного DAG в Airflow, который вы проектировали. Как вы обрабатываете ошибки и повторные запуски задач?
Проверка навыков работы с Python в контексте анализа данных.
В каких случаях вы предпочтете использовать PySpark вместо Pandas для обработки данных и почему?
Оценка понимания бизнес-процессов и источников данных.
С какими сложностями вы сталкивались при выгрузке и консолидации данных из систем 1С или SAP?
Проверка умения визуализировать данные для бизнеса.
Какие ключевые метрики HR-аналитики вы считаете наиболее важными для мониторинга и как бы вы организовали их визуализацию в дашборде?
Похожие вакансии
Аналитик данных (Middle+)
Data аналитик (Middle)
Data Engineer (Middle)
Разработчик баз данных (Middle)
Data аналитик (Middle)
Data инженер (Middle)
1000+ офферов получено
Устали искать работу? Мы найдём её за вас
Quick Offer улучшит ваше резюме, подберёт лучшие вакансии и откликнется за вас. Результат — в 3 раза больше приглашений на собеседования и никакой рутины!
- Страна
- Россия