- Страна
- Россия
Откликайтесь
на вакансии с ИИ

Middle Data Analyst
Сильный бренд (МТС), работа в штате крупной компании, актуальный стек технологий и полностью удаленный формат делают вакансию очень привлекательной для опытных аналитиков.
Сложность вакансии
Позиция требует уверенного владения стеком Big Data (Hadoop, PySpark) и понимания специфической методологии Data Vault, что повышает порог входа по сравнению с обычным продуктовым аналитиком.
Анализ зарплаты
Зарплата в вакансии не указана, но для Middle Data Analyst с опытом от 3 лет и знанием PySpark/Hadoop на российском рынке медиана составляет около 220 000 - 280 000 рублей после вычета налогов.
Сопроводительное письмо
Меня заинтересовала вакансия Middle Data Analyst в МТС, так как мой опыт работы с Hadoop, PySpark и Airflow полностью соответствует вашим требованиям. Я имею глубокое понимание моделирования данных по методологии Data Vault и опыт проектирования витрин данных для бизнес-пользователей.
В рамках моих предыдущих проектов я успешно занимался анализом источников, формированием требований к качеству данных (DQ) и ведением документации в Confluence. Уверен, что мои навыки коммуникации с заказчиками и техническая экспертиза в Python и SQL помогут вашей команде эффективно интегрировать новые источники данных и повысить качество аналитических решений.
Составьте идеальное письмо к вакансии с ИИ-агентом

Откликнитесь в МТС уже сейчас
Присоединяйтесь к команде МТС и развивайте современные витрины данных на стеке Hadoop и PySpark!
Описание вакансии
ID 2314 - Middle Data Analyst
🌍 Локация: РФ (готовность быть на связи c 11:00 до 18:00 MSK)
💼 Удаленно
🕔 Занятость: фулл тайм
🏢 Проект: МТС
❕Трудоустройство на 1/1000 в штат ПАО МТС
💡 Требования:
Обязательные навыки (должны быть отражены в задачах и стеке на проектах из резюме):
— Опыт в роли от 3 лет
— Hadoop, PySpark
— SQL
— Airflow
— Python
— Понимание модели данных Data Vault
— Git
📋Задачи:
— Анализ источников данных для последующей интеграции
— Коммуникация с заказчиками (выяснение детальных требований, условий приемки и т.д.)
— Создание прототипов витрин для пользовательских отчетов
— Описание объектов в каталоге данных, составление документации в confluence
— Формирование требований к качеству данных (DQ проверки)
— Приемка разработанных DE объектов согласно критериям, описанным в бизнес-требованиях
📨 Оставить отклик можнопо Откликнуться.
или напрямую ответственному менеджеру Откликнуться
❕При отклике указывайте ID вакансии
#Data #Analyst #Удаленно #вакансия
Создайте идеальное резюме с помощью ИИ-агента

Навыки
- Git
- Python
- SQL
- PySpark
- Airflow
- Hadoop
- Confluence
- Data Vault
Возможные вопросы на собеседовании
Вакансия требует понимания Data Vault. Важно знать, как разделяются данные для обеспечения гибкости и масштабируемости.
Расскажите об основных сущностях в методологии Data Vault (Hubs, Links, Satellites) и в каких случаях оправдано применение этого подхода?
Стек включает Hadoop и PySpark, что критично для обработки больших объемов данных в МТС.
Как вы оптимизируете PySpark джобы? Расскажите про skew join и способы борьбы с ним.
Airflow указан в обязательных требованиях для управления пайплайнами.
Опишите ваш опыт работы с Airflow: какие операторы вы использовали чаще всего и как настраивали мониторинг выполнения задач?
Одной из задач является формирование DQ проверок.
Какие метрики качества данных вы считаете наиболее критичными при интеграции новых источников в хранилище?
Роль подразумевает плотное общение с заказчиками и DE-командой.
Опишите процесс приемки разработанных DE-объектов: на что вы обращаете внимание в первую очередь при проверке соответствия бизнес-требованиям?
Похожие вакансии
Аналитик данных (Middle+)
Аналитик данных (Middle+)
Продуктовый аналитик (middle)
Аналитик данных
Middle+ Аналитик данных
Аналитик данных (Data Analyst)
1000+ офферов получено
Устали искать работу? Мы найдём её за вас
Quick Offer улучшит ваше резюме, подберёт лучшие вакансии и откликнется за вас. Результат — в 3 раза больше приглашений на собеседования и никакой рутины!
- Страна
- Россия