- Страна
- Россия
Откликайтесь
на вакансии с ИИ

Data-аналитик (DWH)
Интересный проект в сфере финтеха с современным стеком (Clickhouse, Airflow, dbt). Однако, отсутствие возможности удаленной работы из-за рубежа и формат сотрудничества только через ИП РФ могут ограничить круг кандидатов.
Сложность вакансии
Высокая сложность обусловлена требованиями к глубокому знанию архитектуры DWH (Data Vault), опытом работы с legacy-системами (MSSQL) и широким стеком технологий (Kafka, Clickhouse, Airflow). Позиция уровня Senior предполагает не только техническую экспертизу, но и навыки проектирования сложных моделей данных с нуля.
Анализ зарплаты
Для позиции Senior Data Analyst в Москве рыночный диапазон составляет 250 000 – 400 000 рублей. Вакансия предполагает работу с архитектурой DWH, что часто оплачивается по верхней границе рынка.
Сопроводительное письмо
Составьте идеальное письмо к вакансии с ИИ-агентом

Откликнитесь в Eclipse Digital уже сейчас
Присоединяйтесь к команде Eclipse Digital и станьте ключевым архитектором данных для современной инвестиционной платформы!
Описание вакансии
ID 2437
Data-аналитик (DWH)
Senior
🌍 Локация: РФ (нет удаленки из др стран)
💼Сотрудничество : по ИП РФ
Eclipse Digital - наниматель
О проекте: Инвестиционная платформа
Обязательные требования:
- Опыт работы с данными не менее 6 лет (senior);
- Глубокое понимание реляционных БД: структура данных, методы загрузки и управления;
- Навыки разработки и оптимизации сложных SQL-запросов, включая использование оконных функций, CTE и маппингов между БД;
- Умение проектировать и создавать модели данных, ориентированные на аналитические задачи и эффективное функционирование DWH;
- Знание принципов нормализации и денормализации, типов схем (звезда, снежинка) и их правильное применение;
- Способность строить стабильные и масштабируемые модели данных с учётом особенностей источников и целевых систем;
- Владение методологиями Data Vault и другими современными подходами для обеспечения прозрачности, истории изменений и восстановления данных;
- Опыт в документировании моделей и обеспечении их совместимости с процессами ETL/ELT и бизнес-метриками;
- Способность управлять изменениями моделей при росте объёмов данных и корректировках аналитических требований;
- Навыки создания и поддержки ETL/ELT конвейеров;
- Опыт оркестрации процессов средствами Apache Airflow, настройка DAG, автоматизация и мониторинг ETL задач;
- Понимание методологии и практик DataOps для версионирования моделей, тестирования, мониторинга и безопасного разворачивания;
- Владение навыками документирования процессов и работы с технической документацией;
❗️ Практический опыт работы с технологиями:
- язык программирования: Python
- объектное хранилище: S3
- стриминг данных: Kafka
- реляционные СУБД: Postgres, MSSQL
- NoSQL: MongoDB
- аналитическая СУБД: Clickhouse;
Будет плюсом:
- Знание систем контроля версий (Git), контейнеризации (Docker);
- Опыт работы на проектах в компаниях финтех.
- Умение разрабатывать модели данных и трансформации с помощью dbt, знание SQL и шаблонизации в dbt
Soft-skills:
- Способность работать в кросс-функциональной команде
- Понимание бизнес-задач
- Внимательность к деталям и ответственность за результат
- Способность четко формулировать мысли
- Умение расставлять приоритеты
- Самоорганизация и проактивность в решении технических и организационных вопросов
Задачи:
- Анализ источников данных в легаси БД MSSQL: сбор информации о наполнении, выявление ключевых бизнес-сущностей и зависимостей, регламентных операций; (хорошо, если будут задачи у специалиста с работой по легаси)
- Проектирование и оптимизация потоков переноса данных из MSSQL в новое хранилище;
- Разработка и поддержка моделей данных;
- Организация и автоматизация процессов оркестрации с Airflow: запуск, мониторинг, алерты, управление зависимостями тасок и дагов; (хорошо, чтобы было расписано, что делал в airflow)
- Обеспечение качества, тестирование данных и их целостности при миграции и трансформации;
- Внедрение и сопровождение процессов инкрементальной загрузки и оптимизации производительности;
- Работа с потоками данных и интеграция с Kafka для обмена и передачи событий в реальном времени.
Откликнуться можно
- в telegram Откликнуться
- в Откликнуться
veroneko_93911
Создайте идеальное резюме с помощью ИИ-агента

Навыки
- SQL
- Python
- DWH
- ETL
- ELT
- Data Vault
- Apache Airflow
- PostgreSQL
- Microsoft SQL Server
- ClickHouse
- Kafka
- MongoDB
- Amazon S3
- DataOps
- dbt
- Docker
- Git
Возможные вопросы на собеседовании
Проверка опыта работы с методологией, указанной в требованиях.
Расскажите о вашем опыте применения методологии Data Vault: в каких случаях вы её выбирали и какие преимущества она дала проекту?
Вакансия включает задачи по переносу данных из устаревших систем.
С какими основными сложностями вы сталкивались при анализе и миграции данных из legacy-баз MSSQL в современные хранилища?
Проверка навыков автоматизации и мониторинга.
Как вы организуете мониторинг и систему алертинга в Airflow для обеспечения отказоустойчивости критичных DAG?
Оценка архитектурного мышления.
В каких ситуациях вы предпочтете схему «снежинка» схеме «звезда» при проектировании аналитического слоя в Clickhouse?
Проверка навыков работы с потоковыми данными.
Опишите ваш опыт интеграции Kafka с DWH: как вы обеспечиваете консистентность данных при обработке событий в реальном времени?
Похожие вакансии
Senior BI-Engineer
Разработчик BI Insight (Senior)
Senior Data Analyst (банк)
Senior Data Analyst
Senior Data Engineer
Аналитик DWH
1000+ офферов получено
Устали искать работу? Мы найдём её за вас
Quick Offer улучшит ваше резюме, подберёт лучшие вакансии и откликнется за вас. Результат — в 3 раза больше приглашений на собеседования и никакой рутины!
- Страна
- Россия