- Страна
- Россия
- Зарплата
- 220 000 ₽ – 240 000 ₽
Откликайтесь
на вакансии с ИИ

Аналитик данных (Middle+)
Хорошее предложение для опытного аналитика с инженерным уклоном. Четко описанные задачи, современный стек (Airflow, PySpark, Data Vault) и конкурентная зарплата для РФ рынка, однако статус аутстаффа может подойти не всем.
Сложность вакансии
Позиция требует глубоких технических знаний не только в аналитике, но и в дата-инженерии: владение PySpark, Airflow и методологией Data Vault 2.0. Уровень Middle+ подразумевает самостоятельность в принятии архитектурных решений и проектировании DQ-правил.
Анализ зарплаты
Предложенная вилка 220 000 – 240 000 руб. на руки соответствует среднерыночным значениям для уровня Middle+ в российском аутстаффинге. На продуктовом рынке Senior-позиции с аналогичным стеком (PySpark, Airflow) могут оплачиваться выше, до 300 000+ руб.
Сопроводительное письмо
Меня заинтересовала вакансия Аналитика данных (Middle+), так как мой опыт работы с SQL, PySpark и экосистемой Hadoop полностью соответствует вашим требованиям. Я имею практический опыт проектирования витрин данных и работы с методологией Data Vault 2.0, что позволяет мне эффективно выстраивать процессы интеграции данных в DWH/Data Lake.
Особое внимание в своей работе я уделяю качеству данных (Data Quality) и автоматизации проверок, что критично для стабильной работы BI-отчетности. Уверенное владение Airflow и Git позволяет мне бесшовно встраиваться в инженерные процессы и самостоятельно вести задачи от сбора требований до финальной приемки. Буду рад обсудить, как мои навыки помогут вашей команде в реализации текущих задач.
Составьте идеальное письмо к вакансии с ИИ-агентом

Откликнитесь уже сейчас
Отправьте свое резюме @Geniya_HR, чтобы присоединиться к команде и работать над сложными DWH проектами!
Описание вакансии
#РФ #вакансия #удаленно #remote #dataanalyst
Вакансия: Аналитик данных
Грейд: Middle+
Компания: аутстафф
Формат: удаленно
Локация: Россия
Гражданство: #РФ
Вилка ЗП: от 220 000 до 240 000 рублей на руки в месяц
Условия оформления, формат: ТК/ИП
🟡Задачи:
• Анализ источников данных и подготовка требований к их интеграции в DWH/Data Lake
• Коммуникация с заказчиками: сбор детальных требований, согласование условий приёмки, SLA и бизнес-метрик
• Создание прототипов витрин данных для пользовательских отчётов и BI-дашбордов
• Описание метаданных в каталоге данных, ведение и актуализация технической документации в Confluence
• Формирование требований к качеству данных (Data Quality), проектирование DQ-правил и автоматизированных проверок
• Приёмка разработанных DE-объектов (таблицы, пайплайны, витрины) на соответствие критериям из бизнес-требований
🟡Требования:
• Уверенное владение SQL (сложные запросы, CTE, оконные функции, оптимизация планов выполнения)
• Опыт работы с Python и PySpark (написание скриптов для обработки данных, работа с большими объёмами, понимание DataFrame API)
• Понимание архитектуры Hadoop-экосистемы (HDFS/S3, форматы хранения Parquet/ORC, основы распределённых вычислений)
• Опыт работы с Apache Airflow (создание/мониторинг DAG, настройка ретраев, обработка ошибок, работа с операторами)
• Понимание методологии моделирования данных Data Vault 2.0 (структура Hub/Link/Satellite, принципы Raw/Business Vault, хеширование, SCD)
• Уверенное владение Git (feature-branch workflow, создание MR/PR, работа с конфликтами, базовый code review)
• Опыт самостоятельного ведения задач от сбора требований до приёмки в Agile-команде
•
Будет преимуществом:
• Опыт работы с DQ-фреймворками (Great Expectations, dbt tests, Deequ, кастомные SQL-проверки)
• Знакомство с управляемыми Big Data-платформами (Yandex Data Proc, Databricks, AWS EMR, SberCloud)
• Опыт проектирования витрин для BI-систем (Apache Superset, Metabase, Power BI, Tableau)
• Понимание принципов CI/CD в Data Engineering и работы с контейнеризацией
Резюме и вопросы направляйте, пожалуйста, в телеграмм в ЛС Откликнуться 📲
Создайте идеальное резюме с помощью ИИ-агента

Навыки
- Tableau
- Git
- Agile
- Python
- SQL
- dbt
- CI/CD
- Docker
- PySpark
- Hadoop
- Power BI
- Apache Airflow
- S3
- Great Expectations
- HDFS
- Metabase
- Apache Parquet
- Apache Superset
- Data Vault 2.0
Возможные вопросы на собеседовании
Проверка понимания архитектуры хранилищ, заявленной в требованиях.
Расскажите об основных сущностях в Data Vault 2.0 (Hub, Link, Satellite) и в каких случаях вы бы предпочли эту методологию классической схеме Кимбалла?
Вакансия предполагает работу с большими данными через PySpark.
Как вы оптимизируете PySpark джобы? Расскажите про skew join и способы борьбы с перекосом данных.
Важная часть задач — работа с Airflow.
Как вы организуете обработку ошибок и ретраи в DAG-ах Airflow, чтобы обеспечить отказоустойчивость пайплайнов?
Аналитик данных здесь отвечает за Data Quality.
Какие ключевые метрики качества данных вы бы внедрили для витрины, используемой в критически важной бизнес-отчетности?
Проверка навыков SQL на продвинутом уровне.
Опишите разницу между оконными функциями RANK(), DENSE_RANK() и ROW_NUMBER() и приведите пример бизнес-задачи, где их выбор критичен.
Похожие вакансии
Middle+ Аналитик данных
Продуктовый аналитик (middle)
Аналитик данных
Аналитик данных (Middle+)
Аналитик данных (Data Analyst)
Middle Аналитик данных
1000+ офферов получено
Устали искать работу? Мы найдём её за вас
Quick Offer улучшит ваше резюме, подберёт лучшие вакансии и откликнется за вас. Результат — в 3 раза больше приглашений на собеседования и никакой рутины!
- Страна
- Россия
- Зарплата
- 220 000 ₽ – 240 000 ₽