Откликайтесь
на вакансии с ИИ

AI Operations Engineer
Привлекательная вакансия в EdTech-секторе с современным стеком (LLM, Langfuse, Terraform). Удаленный формат работы в LATAM и социально значимый продукт делают позицию очень интересной для опытных инженеров.
Сложность вакансии
Роль требует редкого сочетания навыков: глубокого понимания DevOps (Terraform, AWS ECS) и специфики ML-процессов (мониторинг дрейфа моделей, векторные БД). Необходим опыт работы как с классическим ML, так и с современными LLM-стеками.
Анализ зарплаты
Зарплата для региона LATAM в американских компаниях обычно выше локального рынка, но ниже уровня США. Указанный диапазон отражает рыночные ставки для Senior/Middle+ специалистов в области ML Ops, работающих удаленно на международные корпорации.
Сопроводительное письмо
I am writing to express my interest in the AI Operations Engineer position at Newsela. With a solid background in both DevOps and ML Ops, I am excited about the opportunity to bridge the gap between machine learning research and production-grade reliability for a platform that impacts millions of students and teachers. My experience in managing containerized services on AWS and automating infrastructure with Terraform aligns perfectly with your team's needs.
In my previous roles, I have successfully built CI/CD pipelines for ML workflows and integrated LLM observability tools like Langfuse, which I see is a key part of your tech stack. I am particularly impressed by Newsela's commitment to making content accessible through multiple reading levels, and I am eager to apply my skills in Python, BentoML, and vector databases to help scale your generative AI initiatives. I am confident that my hands-on approach to infrastructure and data pipelines will contribute significantly to the ML/AI team's success.
Составьте идеальное письмо к вакансии с ИИ-агентом

Откликнитесь в newsela уже сейчас
Присоединяйтесь к Newsela, чтобы внедрять передовые AI-решения в образование и масштабировать ML-инфраструктуру на глобальном уровне!
Описание вакансии
Why You'll Love This Role:
We're looking for an experienced ML Ops Engineer to join the ML/AI team at Newsela. This team works on projects ranging from classical Machine Learning to AI / Generative pipelines. This is a hands-on role. You'll work closely with ML/AI, data and site reliability engineers to take models from prototype to production, build robust data pipelines, and keep our services running smoothly as we continue to scale.
What You'll Be Doing:
- Design and maintain CI/CD pipelines for ML model training, packaging, and deployment across our microservices.
- Manage containerized services on AWS ECS, optimizing for cost, latency, and availability.
- Automate infrastructure provisioning and service configuration with Terraform.
- Work to maintain and scale services that make use of third party LLM providers.
- Build and improve data pipelines that feed models from BigQuery, S3, and DynamoDB into training and inference workflows.
- Instrument services with observability tooling (Datadog, OpenTelemetry, Langfuse) and establish SLOs for model-serving endpoints.
- Collaborate with ML engineers to productionize new models using BentoML, FastAPI, and container-based serving.
About You:
- 2-3 years in ML Ops supporting ML/AI features, systems and workflows with 3-4 years prior experience in DevOps, CloudOps or SRE.
- Strong proficiency in Python.
- Hands-on experience with Docker containerization and container orchestration.
- Solid understanding of CI/CD for ML workflows in an enterprise production environment.
- Experience with Infrastructure as Code, preferably Terraform.
- Familiarity with cloud platforms — specifically AWS (ECS, ECR, S3, DynamoDB, CloudWatch) and GCP (BigQuery, Vertex AI).
- Experience with LLM integration and observability (OpenAI API, Google GenAI, Langfuse tracing).
- Experience building and maintaining data pipelines for ML training and feature engineering
- Familiarity with ML modeling workflows — training, evaluation, experiment tracking (e.g. MLFlow, Weights & Biases), and model versioning
- Experience monitoring and flagging model drift over time.
- Exposure to NLP/NLU models and frameworks such as Hugging Face Transformers, spaCy, or sentence-transformers
- Knowledge of vector databases (LanceDB, FAISS) and embedding-based retrieval systems
- Experience with scaling and maintaining deep learning frameworks (TensorFlow, PyTorch) in production settings
- Familiarity with classical ML libraries (scikit-learn, XGBoost, LightGBM) and model explainability tools (SHAP)
- Working knowledge of ML serving frameworks such as BentoML or similar.
- Comfort working with FastAPI or similar async Python web frameworks.
About Newsela:
Newsela takes authentic, real world content from trusted sources and makes it instruction ready for K-12 classrooms. Each text is published at five reading levels, so content is accessible to every learner. Today, over 3.3 million teachers and 40 million students have registered with Newsela for content that's personalized to student interests, accessible to everyone, aligned to instructional standards, and attached to activities and reporting that hold teachers accountable for instruction and students accountable for their work. With over 15,000 texts on our platform and multiple new texts published every day across 20+ genres, Newsela enables educators to go deep on any subject they choose.
#LI-Remote
Создайте идеальное резюме с помощью ИИ-агента

Навыки
- Python
- Docker
- Terraform
- AWS
- AWS ECS
- AWS ECR
- Amazon S3
- DynamoDB
- Google BigQuery
- Google Vertex AI
- BentoML
- FastAPI
- MLflow
- Weights & Biases
- Hugging Face Transformers
- PyTorch
- TensorFlow
- Scikit-learn
- XGBoost
- LightGBM
- Datadog
- OpenTelemetry
- Langfuse
- LanceDB
- FAISS
Возможные вопросы на собеседовании
Проверка опыта работы с инфраструктурой как кодом в контексте ML.
Как вы организуете структуру Terraform-модулей для управления ресурсами ML-моделей при масштабировании на несколько окружений?
Важно понять, как кандидат обеспечивает надежность LLM-сервисов.
Какие метрики вы считаете критическими для мониторинга LLM в продакшене и как вы используете Langfuse для отладки цепочек вызовов?
Оценка навыков работы с данными и производительностью.
Опишите ваш опыт оптимизации задержек (latency) при обслуживании тяжелых моделей в контейнерах AWS ECS.
Проверка понимания жизненного цикла ML-моделей.
Как вы настраиваете автоматизированное обнаружение дрейфа данных (data drift) и какие действия предпринимаются в CI/CD при его обнаружении?
Оценка навыков работы с векторными хранилищами.
В чем заключаются основные сложности масштабирования векторных баз данных, таких как LanceDB или FAISS, в высоконагруженных системах?
Похожие вакансии
AI Platform Engineer, Applied AI
AI Coach (Gemini, Copilot, ChatGPT, Claude)
Technology Manager, AI
AI Engineer | BEES Personalization
AI Engineer I (Remote)
AI QA Trainer - LLM Evaluation - Freelance Project
1000+ офферов получено
Устали искать работу? Мы найдём её за вас
Quick Offer улучшит ваше резюме, подберёт лучшие вакансии и откликнется за вас. Результат — в 3 раза больше приглашений на собеседования и никакой рутины!