- Страна
- Россия
Откликайтесь
на вакансии с ИИ

Инженер данных
Альфа-Банк — престижный работодатель с сильной инженерной культурой и современным стеком технологий. Вакансия предлагает удаленный формат работы и участие в создании критически важной инфраструктуры для ML.
Сложность вакансии
Роль требует глубоких знаний PySpark и опыта работы с высоконагруженными системами, а также владения специфическим стеком (Greenplum, Airflow). Ожидается умение проводить код-ревью и оптимизировать сложные SQL-запросы.
Анализ зарплаты
Зарплата в объявлении не указана, но для позиции Data Engineer с таким набором навыков (PySpark, Airflow, Greenplum) рыночный диапазон в России составляет от 250 000 до 450 000 рублей. Альфа-Банк обычно предлагает конкурентоспособные условия, соответствующие средним и верхним границам рынка.
Сопроводительное письмо
I am writing to express my interest in the Data Engineer position at Alfa-Bank. With extensive experience in building high-load data pipelines and a strong command of PySpark and Airflow, I am confident in my ability to contribute to your DataLake and FeatureStore initiatives. My background includes optimizing complex SQL queries for Greenplum and Postgres, as well as implementing robust data replication processes from diverse IT systems.
In my previous roles, I have focused on developing scalable services for processing unstructured data and ensuring high code quality through rigorous peer reviews. I am particularly impressed by Alfa-Bank's commitment to advanced analytics and machine learning, and I am eager to apply my skills in Python, Spark, and data modeling to help your team deliver reliable data features for ML models.
Составьте идеальное письмо к вакансии с ИИ-агентом

Откликнитесь в Альфа-Банк уже сейчас
Присоединяйтесь к команде Альфа-Банка и создавайте высоконагруженные системы обработки данных для крупнейшего частного банка страны!
Описание вакансии
Инженер данных
#удаленка
Компания: Альфа-Банк
🔹Чем предстоит заниматься
-Реализация высоконагруженных конвейеров обработки данных для обеспечения надежной и бесперебойной репликации данных из ИТ-систем Банка;
-Реализация комплексных задач по подготовке данных в целевых аналитических хранилищах (DataLake, SandBox, FeatureStore) для построения признаков, необходимых для разработки моделей машинного обучения;
-Разработка и поддержание в актуальном состоянии документации по разработанному функционалу;
-Своевременное отражение статуса выполнения задач в Jira;
-Проверка качества кода (код-ревью), написанного инженерами и младшими инженерами данных.
🔹Наши пожелания к кандидатам
-Python - уверенное знание структур данных и алгоритмов, эффективное применение принципов ООП и ФП (Функциональное программирование), опыт написания модульных и интеграционных тестов, знание и опыт применения библиотек обработки и анализа данных - numpy, pandas;
-Опыт разработки и внедрения в промышленную эксплуатацию сервисов загрузки и обработки неструктурированных и слабо структурированных данных (текст, xml, json) из внешних источников;
-Способность разобраться с API поставщиков данных, используя доступную документацию;
-SQL - умение создавать сложные запросы с использованием аналитических оконных функций и использовать инструменты профилирования для оптимизации их производительности, опыт работы с БД Oracle, Postgres, Greenplum;
-Уверенное знание и опыт работы с инструментами разработки, планирования и мониторинга рабочих процессов (workflow engines) пакетной обработки данных - Airflow;
-Опыт разработки сложных, высоконагруженных приложений обработки данных на основе PySpark, уверенное знание настроек Spark и их влияния на производительность приложений Spark.
Контакты: Откликнуться
🔥 Подписаться на наши каналы / @best_itjob / @it_rab
Создайте идеальное резюме с помощью ИИ-агента

Навыки
- Python
- SQL
- PySpark
- Apache Airflow
- PostgreSQL
- Oracle
- Greenplum
- Pandas
- NumPy
- JSON
- XML
- ETL
- Data Lake
Возможные вопросы на собеседовании
Проверка понимания архитектуры Spark и навыков оптимизации производительности.
Расскажите о вашем опыте оптимизации PySpark приложений. Какие параметры конфигурации Spark вы настраивали для борьбы с data skew?
Оценка навыков работы с аналитическими хранилищами и сложными запросами.
В чем заключаются особенности оптимизации запросов в Greenplum по сравнению с классическим PostgreSQL?
Проверка умения проектировать надежные процессы обработки данных.
Как вы организуете мониторинг и обработку ошибок в сложных DAG в Airflow, чтобы обеспечить бесперебойную репликацию?
Оценка навыков работы с неструктурированными данными.
С какими сложностями вы сталкивались при парсинге больших объемов JSON/XML данных и как решали вопросы производительности?
Проверка инженерной культуры и навыков наставничества.
На что вы в первую очередь обращаете внимание при проведении код-ревью ETL-процессов, написанных младшими коллегами?
Похожие вакансии
MLOps Engineer (ML pipelines / Kubernetes / Airflow)
Senior Data инженер
Senior MLOps Engineer (Platform Development / LLMOps)
Data Engineer / SAP HANA Developer (Senior)
Data Scientist в RecSys
Data Engineering Team Lead (команда Clickhouse)
1000+ офферов получено
Устали искать работу? Мы найдём её за вас
Quick Offer улучшит ваше резюме, подберёт лучшие вакансии и откликнется за вас. Результат — в 3 раза больше приглашений на собеседования и никакой рутины!
- Страна
- Россия