yandex
N
NDA
Страна
Россия
+500% приглашений

Откликайтесь
на вакансии с ИИ

Ускорим процесс поиска работы
SeniorУдалённоПолная занятость

Senior Аналитик данных

Оценка ИИ

Интересный технологический стек и амбициозная задача по миграции. Удаленный формат работы по РФ является плюсом, однако отсутствие информации о компании и уровне дохода снижает прозрачность предложения.


Вакансия из Quick Offer Global, списка международных компаний
Пожаловаться

Сложность вакансии

ЛегкоСложно
Оценка ИИ

Позиция требует глубокой экспертизы в SQL и широкого стека технологий (Hadoop, MPP DB, ETL). Сложность обусловлена необходимостью участия в процессе миграции данных между принципиально разными архитектурами.

Анализ зарплаты

Медиана320 000 ₽
Рынок250 000 ₽ – 450 000 ₽
Оценка ИИ

В вакансии не указан уровень заработной платы. Для Senior Data Analyst на российском рынке с таким широким стеком (Hadoop, Spark, MPP) медиана составляет около 300 000 - 350 000 рублей. Верхняя граница может достигать 450 000 рублей и выше в зависимости от компании.

Сопроводительное письмо

Меня заинтересовала вакансия Senior Аналитика данных, особенно в контексте масштабного проекта по миграции с Hive и Greenplum на стек S3, Trino и Clickhouse. Мой опыт работы с MPP-базами данных и глубокое знание SQL позволяют мне эффективно решать задачи по анализу данных и проектированию EDW в сложных инфраструктурах.

Я обладаю практическими навыками работы с Hadoop-стеком (Hive, Spark) и ETL-инструментами, включая Airflow и NiFi. Уверен, что мой опыт в аналитике данных и понимание архитектуры современных хранилищ помогут вашей команде успешно реализовать переход на новые технологические решения и обеспечить высокое качество данных.

+250% к просмотрам

Составьте идеальное письмо к вакансии с ИИ-агентом

Составьте идеальное письмо к вакансии с ИИ-агентом

Откликнитесь уже сейчас

Заполните короткую форму или напишите менеджеру напрямую, чтобы обсудить переход на современный стек S3 и Clickhouse!

Описание вакансии

ID 2353 - Senior Аналитик данных

🌍 Локация: РФ

💼 Удаленно

🕔 Занятость: фулл тайм

🏢 Проект: Переход с hive и greenplum на S3, trina, Clickhouse.

💡 Требования:

Ключевые компетенции

SQL

Анализ данных

Python

ClickHouse

Greenplum

ETL

Airflow

Hadoop

s3

spark

HCM

Hadoop/Hive

ERP

Apache Nifi

trino

SAS DI

Power Designer

MPP DB

Упор на аналитику данных

Важнее всего мощный опыт с SQL(!!)

Желательно владение Python (Airflow)

Знание программного обеспечения:

• Hadoop: Hive, NiFi, Spark

• ETL: SAS DI

• Power Designer

• MPP DB: GreenPlum

• SAP-системы: HCM, ERP

• Разработка EDW

• Trino, Clickhouse, S3

Языки программирования: SQL

Обязательные требования

• SQL

• Hive

• Hadoop

• Анализ данных

• Spark

• EDW

• GreenPlum

• SAP

• Trino

• Clickhouse

• S3

📨 Оставить отклик можнопо Откликнуться.

или напрямую ответственному менеджеру Откликнуться

❕При отклике указывайте ID вакансии

#Data #Analyst #Удаленно #вакансия

+400% к собеседованиям

Создайте идеальное резюме с помощью ИИ-агента

Создайте идеальное резюме с помощью ИИ-агента

Навыки

  • SQL
  • Python
  • ClickHouse
  • Greenplum
  • ETL
  • Airflow
  • Hadoop
  • S3
  • Apache Spark
  • Apache Hive
  • Apache NiFi
  • Trino
  • SAS Data Integration Studio
  • SAP ERP
  • SAP HCM
  • Data Analysis
  • EDW
  • PowerDesigner

Возможные вопросы на собеседовании

Вакансия предполагает переход с Greenplum на Clickhouse и S3. Важно понимать, как кандидат оценивает применимость этих инструментов для разных типов аналитических задач.

В чем основные различия в подходах к моделированию данных при переходе с Greenplum на Clickhouse и S3?

SQL указан как ключевая компетенция. Вопрос проверит знание специфических функций для работы с большими данными.

Опишите ваш опыт оптимизации сложных SQL-запросов в среде Hadoop/Hive. Какие техники вы используете для борьбы с перекосом данных (data skew)?

В стеке указан Trino. Важно понять, как кандидат использует его для федеративного доступа к данным.

В каких сценариях вы бы предпочли использовать Trino поверх S3 вместо прямой загрузки данных в Clickhouse?

Упоминается Airflow и Python. Вопрос на проверку навыков автоматизации.

Расскажите о самом сложном ETL-процессе, который вы проектировали с использованием Airflow. Как вы обеспечивали отказоустойчивость и мониторинг качества данных?

В требованиях указаны SAP HCM/ERP. Важно понять опыт работы с бизнес-логикой этих систем.

Был ли у вас опыт интеграции данных из SAP-систем в корпоративное хранилище (EDW)? С какими сложностями в структуре данных вы сталкивались?

Похожие вакансии

более 1000 офферов получено
4.9

1000+ офферов получено

Устали искать работу? Мы найдём её за вас

Quick Offer улучшит ваше резюме, подберёт лучшие вакансии и откликнется за вас. Результат — в 3 раза больше приглашений на собеседования и никакой рутины!

N
NDA
Страна
Россия