yandex
N
NDA
Страна
Россия
Зарплата
220 000 ₽ – 240 000 ₽
+500% приглашений

Откликайтесь
на вакансии с ИИ

Ускорим процесс поиска работы
MiddleУдалённоПолная занятость

Аналитик данных (Middle+)

Оценка ИИ

Хорошее предложение для опытного аналитика с инженерным уклоном. Четко описанные задачи, современный стек (Airflow, PySpark, Data Vault) и конкурентная зарплата для РФ рынка, однако статус аутстаффа может подойти не всем.


Вакансия из Quick Offer Global, списка международных компаний
Пожаловаться

Сложность вакансии

ЛегкоСложно
Оценка ИИ

Позиция требует глубоких технических знаний не только в аналитике, но и в дата-инженерии: владение PySpark, Airflow и методологией Data Vault 2.0. Уровень Middle+ подразумевает самостоятельность в принятии архитектурных решений и проектировании DQ-правил.

Анализ зарплаты

Медиана250 000 ₽
Рынок200 000 ₽ – 320 000 ₽
Оценка ИИ

Предложенная вилка 220 000 – 240 000 руб. на руки соответствует среднерыночным значениям для уровня Middle+ в российском аутстаффинге. На продуктовом рынке Senior-позиции с аналогичным стеком (PySpark, Airflow) могут оплачиваться выше, до 300 000+ руб.

Сопроводительное письмо

Меня заинтересовала вакансия Аналитика данных (Middle+), так как мой опыт работы с SQL, PySpark и экосистемой Hadoop полностью соответствует вашим требованиям. Я имею практический опыт проектирования витрин данных и работы с методологией Data Vault 2.0, что позволяет мне эффективно выстраивать процессы интеграции данных в DWH/Data Lake.

Особое внимание в своей работе я уделяю качеству данных (Data Quality) и автоматизации проверок, что критично для стабильной работы BI-отчетности. Уверенное владение Airflow и Git позволяет мне бесшовно встраиваться в инженерные процессы и самостоятельно вести задачи от сбора требований до финальной приемки. Буду рад обсудить, как мои навыки помогут вашей команде в реализации текущих задач.

+250% к просмотрам

Составьте идеальное письмо к вакансии с ИИ-агентом

Составьте идеальное письмо к вакансии с ИИ-агентом

Откликнитесь уже сейчас

Отправьте свое резюме @Geniya_HR, чтобы присоединиться к команде и работать над сложными DWH проектами!

Описание вакансии

#РФ #вакансия #удаленно #remote #dataanalyst

Вакансия: Аналитик данных

Грейд: Middle+

Компания: аутстафф

Формат: удаленно

Локация: Россия

Гражданство: #РФ

Вилка ЗП: от 220 000 до 240 000 рублей на руки в месяц

Условия оформления, формат: ТК/ИП

🟡Задачи:

• Анализ источников данных и подготовка требований к их интеграции в DWH/Data Lake

• Коммуникация с заказчиками: сбор детальных требований, согласование условий приёмки, SLA и бизнес-метрик

• Создание прототипов витрин данных для пользовательских отчётов и BI-дашбордов

• Описание метаданных в каталоге данных, ведение и актуализация технической документации в Confluence

• Формирование требований к качеству данных (Data Quality), проектирование DQ-правил и автоматизированных проверок

• Приёмка разработанных DE-объектов (таблицы, пайплайны, витрины) на соответствие критериям из бизнес-требований

🟡Требования:

• Уверенное владение SQL (сложные запросы, CTE, оконные функции, оптимизация планов выполнения)

• Опыт работы с Python и PySpark (написание скриптов для обработки данных, работа с большими объёмами, понимание DataFrame API)

• Понимание архитектуры Hadoop-экосистемы (HDFS/S3, форматы хранения Parquet/ORC, основы распределённых вычислений)

• Опыт работы с Apache Airflow (создание/мониторинг DAG, настройка ретраев, обработка ошибок, работа с операторами)

• Понимание методологии моделирования данных Data Vault 2.0 (структура Hub/Link/Satellite, принципы Raw/Business Vault, хеширование, SCD)

• Уверенное владение Git (feature-branch workflow, создание MR/PR, работа с конфликтами, базовый code review)

• Опыт самостоятельного ведения задач от сбора требований до приёмки в Agile-команде

Будет преимуществом:

• Опыт работы с DQ-фреймворками (Great Expectations, dbt tests, Deequ, кастомные SQL-проверки)

• Знакомство с управляемыми Big Data-платформами (Yandex Data Proc, Databricks, AWS EMR, SberCloud)

• Опыт проектирования витрин для BI-систем (Apache Superset, Metabase, Power BI, Tableau)

• Понимание принципов CI/CD в Data Engineering и работы с контейнеризацией

Резюме и вопросы направляйте, пожалуйста, в телеграмм в ЛС Откликнуться 📲

+400% к собеседованиям

Создайте идеальное резюме с помощью ИИ-агента

Создайте идеальное резюме с помощью ИИ-агента

Навыки

  • Tableau
  • Git
  • Agile
  • Python
  • SQL
  • dbt
  • CI/CD
  • Docker
  • PySpark
  • Hadoop
  • Power BI
  • Apache Airflow
  • S3
  • Great Expectations
  • HDFS
  • Metabase
  • Apache Parquet
  • Apache Superset
  • Data Vault 2.0

Возможные вопросы на собеседовании

Проверка понимания архитектуры хранилищ, заявленной в требованиях.

Расскажите об основных сущностях в Data Vault 2.0 (Hub, Link, Satellite) и в каких случаях вы бы предпочли эту методологию классической схеме Кимбалла?

Вакансия предполагает работу с большими данными через PySpark.

Как вы оптимизируете PySpark джобы? Расскажите про skew join и способы борьбы с перекосом данных.

Важная часть задач — работа с Airflow.

Как вы организуете обработку ошибок и ретраи в DAG-ах Airflow, чтобы обеспечить отказоустойчивость пайплайнов?

Аналитик данных здесь отвечает за Data Quality.

Какие ключевые метрики качества данных вы бы внедрили для витрины, используемой в критически важной бизнес-отчетности?

Проверка навыков SQL на продвинутом уровне.

Опишите разницу между оконными функциями RANK(), DENSE_RANK() и ROW_NUMBER() и приведите пример бизнес-задачи, где их выбор критичен.

Похожие вакансии

более 1000 офферов получено
4.9

1000+ офферов получено

Устали искать работу? Мы найдём её за вас

Quick Offer улучшит ваше резюме, подберёт лучшие вакансии и откликнется за вас. Результат — в 3 раза больше приглашений на собеседования и никакой рутины!

N
NDA
Страна
Россия
Зарплата
220 000 ₽ – 240 000 ₽