Откликайтесь
на вакансии с ИИ

Backend Python Developer (ML-инфраструктура)
Интересная роль для специалистов на стыке Backend и ML с актуальным стеком технологий. Оценка 7 из-за отсутствия информации о компании и вилки зарплаты, что является важным фактором при выборе.
Сложность вакансии
Высокая сложность обусловлена необходимостью глубоких знаний на стыке Backend-разработки и MLOps. Требуется не только владение Python/FastAPI, но и специфический опыт с инструментами инференса (Triton, TorchServe) и оптимизацией моделей.
Анализ зарплаты
Зарплата в объявлении не указана. Для позиции Senior Python/MLOps инженера на российском рынке медиана составляет около 350 000 - 450 000 рублей, в зависимости от сложности задач и масштаба инфраструктуры.
Сопроводительное письмо
Составьте идеальное письмо к вакансии с ИИ-агентом

Откликнитесь уже сейчас
Если вы готовы строить масштабируемую ML-инфраструктуру на Python, отправляйте свое резюме Диане прямо сейчас!
Описание вакансии
Backend Python Developer с сильным уклоном в ML-инфраструктуру
#BackendPythonDeveloper #Developer #Удаленно #Fulltime
Требования:
Стек: Python, FastAPI, асинхронность. Опыт с TorchServe / Triton / ONNX. Понимание MLOps и ML-пайплайнов. Опыт продакшн ML-систем. Построение ML-инфраструктуры (обучение + инференс). Разработка и поддержка пайплайнов. Оптимизация моделей (скорость / стоимость / стабильность). Деплой и масштабирование моделей. Настройка мониторинга и метрик.
Локация:📍Удалённо. Full-time.
Контакт для отклика: Откликнуться + CV
Про карьеру, рост и ценность себя: @jobstobeloved
Создайте идеальное резюме с помощью ИИ-агента

Навыки
- Python
- FastAPI
- TorchServe
- Triton Inference Server
- ONNX
- MLOps
- Machine Learning
- Monitoring
Возможные вопросы на собеседовании
Проверка практического опыта работы с инструментами инференса, указанными в стеке.
В каких случаях вы бы предпочли Triton Inference Server вместо TorchServe для деплоя моделей?
Оптимизация — одна из ключевых задач вакансии.
Какие техники оптимизации моделей через ONNX вы применяли для снижения задержек (latency) в продакшне?
Вакансия предполагает работу с ML-пайплайнами.
Как вы организуете версионирование данных и моделей в своих ML-пайплайнах?
Проверка навыков асинхронного программирования в контексте ML.
Как эффективно совместить асинхронность FastAPI с CPU-интенсивными задачами инференса моделей, чтобы не блокировать event loop?
Мониторинг упомянут в требованиях.
Какие специфические метрики (кроме стандартных системных) вы настраиваете для мониторинга качества работы ML-моделей в реальном времени?
Похожие вакансии
Junior JavaScript разработчик
Senior Backend Developer
Ведущий Golang-разработчик (senior, team lead)
Senior PHP Developer
Junior разработчик
Middle Backend Python Developer
1000+ офферов получено
Устали искать работу? Мы найдём её за вас
Quick Offer улучшит ваше резюме, подберёт лучшие вакансии и откликнется за вас. Результат — в 3 раза больше приглашений на собеседования и никакой рутины!