- Страна
- Россия
Откликайтесь
на вакансии с ИИ

Python разработчик (MLOps)
Т1 — крупный и стабильный игрок на ИТ-рынке с серьезными проектами. Вакансия предлагает работу с современным стеком (K8s, Airflow, Kafka) и возможность влиять на архитектуру MLOps-процессов.
Сложность вакансии
Роль требует сочетания навыков классической разработки на Python, глубокого понимания DevOps-инструментов (K8s, CI/CD) и специфики ML-пайплайнов. Высокая ответственность за production-среду и on-premise инфраструктуру повышает порог входа.
Анализ зарплаты
Зарплата в объявлении не указана, но для позиции MLOps-инженера с опытом от 3 лет в Москве рыночный диапазон составляет от 250 000 до 400 000 рублей. Т1 обычно предлагает конкурентоспособные условия, соответствующие средним и верхним границам рынка для опытных специалистов.
Сопроводительное письмо
Меня заинтересовала вакансия Python разработчика (MLOps) в компании Т1. Имея опыт работы с Python более трех лет и глубокую экспертизу в контейнеризации ML-моделей через Docker и Kubernetes, я готов внести вклад в развитие ваших высоконагруженных систем. Мой опыт настройки оркестрации в Apache Airflow и работы с Kafka позволит эффективно автоматизировать пайплайны обработки данных и обеспечить отказоустойчивость сервисов.
Я уделяю большое внимание качеству production-ready кода и внедрению подходов Infrastructure as Code. Работа в on-premise средах и настройка мониторинга через Prometheus и Grafana являются моими сильными сторонами. Буду рад обсудить, как мой опыт в MLOps поможет команде Т1 оптимизировать использование вычислительных ресурсов и ускорить вывод моделей в продакшен.
Составьте идеальное письмо к вакансии с ИИ-агентом

Откликнитесь в t1 уже сейчас
Присоединяйтесь к команде Т1 и создавайте масштабируемую ML-инфраструктуру будущего уже сегодня!
Описание вакансии
Python разработчик (MLOps)
#удаленка
Компания: Т1
☑️Чем придется заниматься:
Развертывание и масштабирование в продакшене
- Контейнеризация ML-моделей с использованием Docker и развертывание в Kubernetes кластерах
- Настройка и управление оркестрацией ML-пайплайнов через Apache Airflow
- Обеспечение масштабируемости и отказоустойчивости ML-сервисов в on-premise средах
Мониторинг и оптимизация
– Подключение сервисов к системам мониторинга и журналирования
- Анализ и устранение инцидентов в работе ML-сервисов на третьей линии поддержки
- Оптимизация использования вычислительных ресурсов и автомасштабирование рабочих нагрузок
Интеграция и автоматизация
- Разработка интеграций между ML-сервисами через REST API и системы обмена сообщениями (Kafka)
- Создание автоматизированных пайплайнов для обработки данных, feature engineering и тестирования моделей
- Внедрение Infrastructure as Code подходов для управления ML-инфраструктурой
☑️Требования и навыки:
Технические компетенции
- Глубокое владение Python (от 3 лет) с пониманием принципов написания production-ready кода
- Опыт работы с контейнеризацией (Docker) и оркестрацией (Kubernetes) для развертывания ML-моделей
- Уверенное владение Apache Airflow для оркестрации ML-пайплайнов
DevOps и инфраструктурные навыки
- Понимание построения CI/CD пайплайнов для ML-решений (GitLab CI, GitHub Actions)
- Навыки работы с системами мониторинга (Prometheus, Grafana) и централизованного логирования
Контакты:Откликнуться
Создайте идеальное резюме с помощью ИИ-агента

Навыки
- Python
- MLOps
- Docker
- Kubernetes
- Apache Airflow
- Kafka
- REST API
- CI/CD
- GitLab CI
- GitHub Actions
- Prometheus
- Grafana
- Infrastructure as Code
Возможные вопросы на собеседовании
Проверка опыта работы с оркестрацией сложных процессов.
Расскажите о самом сложном ML-пайплайне, который вы настраивали в Airflow: как вы обрабатывали зависимости и сбои?
Оценка навыков работы с инфраструктурой в контексте ML.
Какие стратегии деплоя ML-моделей в Kubernetes вы использовали для обеспечения zero-downtime?
Проверка умения работать с высоконагруженными системами.
Как вы организовывали мониторинг производительности моделей и потребления ресурсов в Prometheus/Grafana?
Оценка понимания интеграционных процессов.
В чем заключались основные сложности при интеграции ML-сервисов через Kafka в вашем опыте?
Проверка навыков отладки.
Опишите ваш алгоритм действий при разборе инцидента на третьей линии поддержки, когда ML-сервис начинает отдавать некорректные ответы или тормозить.
Похожие вакансии
ML разработчик (Senior)
Data инженер (Senior)
Data Engineer Python (Middle)
MLOps Engineer
Инженер Mlops (Senior)
Middle+ ML разработчик
1000+ офферов получено
Устали искать работу? Мы найдём её за вас
Quick Offer улучшит ваше резюме, подберёт лучшие вакансии и откликнется за вас. Результат — в 3 раза больше приглашений на собеседования и никакой рутины!
- Страна
- Россия