yandex
agi-inc
Страна
США
+500% приглашений

Откликайтесь
на вакансии с ИИ

Ускорим процесс поиска работы
В офисеПолная занятость

ML Platform & Infrastructure Engineer

Оценка ИИ

Исключительная возможность поработать в команде мирового уровня (OpenAI, DeepMind) над передовыми технологиями AGI. Высокий балл за потенциал роста, сильных инвесторов и амбициозность задач, несмотря на требование работы в офисе.


Вакансия из Quick Offer Global, списка международных компаний
Пожаловаться

Сложность вакансии

ЛегкоСложно
Оценка ИИ

Высокая сложность обусловлена необходимостью глубоких знаний как в классическом DevOps/SRE, так и в специфике ML-инфраструктуры (GPU, LLM serving). Работа в стелс-стартапе с выходцами из OpenAI требует исключительной скорости и автономности.

Анализ зарплаты

Медиана210 000 $
Рынок175 000 $ – 260 000 $
Оценка ИИ

Для позиции ML Infrastructure в Сан-Франциско в стартапе уровня Tier-1 рыночные зарплаты начинаются от $180k и могут достигать $250k+ без учета опционов. Данная роль предполагает высокую компенсацию, соответствующую уровню элитных ИИ-компаний Кремниевой долины.

Сопроводительное письмо

I am writing to express my strong interest in the ML Platform & Infrastructure Engineer position at agi-inc. With a solid background in MLOps and building developer-centric tooling, I am excited by your mission to create trustworthy, consumer-grade agents. My experience in automating complex training pipelines and optimizing GPU utilization aligns perfectly with your goal of making research experimentation ergonomic and scalable.

In my previous roles, I have focused on bridging the gap between research and production by developing robust CI/CD workflows and internal SDKs that significantly reduced iteration time. I am particularly impressed by agi-inc's 'ship by default' culture and the focus on in-person collaboration in San Francisco. I am eager to bring my technical expertise in Kubernetes, Python, and LLM serving stacks to help multiply the impact of your research team and accelerate the journey toward everyday AGI.

+250% к просмотрам

Составьте идеальное письмо к вакансии с ИИ-агентом

Составьте идеальное письмо к вакансии с ИИ-агентом

Откликнитесь в agi-inc уже сейчас

Присоединяйтесь к элитной команде выходцев из OpenAI и DeepMind, чтобы построить инфраструктуру для AGI нового поколения!

Описание вакансии

Think Different. Build the Future. 🚀

Our Mission

Build everyday AGI. Trustworthy, consumer-grade agents that redefine human–AI collaboration for millions. Software shouldn’t wait for commands; it should partner with you, amplifying what you can do every single day.

Why AGI, Inc.

We’re a stealth team of elite founders and AI researchers, with backgrounds spanning Stanford, OpenAI, and DeepMind. We’re industry leaders in mobile and computer-use agents, bringing these capabilities to consumer scale.

Grounded in years of agent research, our AI is designed with trustworthiness and reliability as core pillars, not afterthoughts.

We are supported by tier-1 investors who funded the first generation of AI giants; now they’re backing us to build the next: everyday AGI. (Watch the demo)

If you see possibility where others see limits, read on.

What You’ll Do

Training Automation: Design and implement robust CI/CD pipelines for machine learning workflows. Automate nightly and on-demand training runs, including data ingestion, job orchestration, checkpointing, and artifact management, with reliability as a first-class requirement.

Evaluation Infrastructure: Build scalable evaluation harnesses that automatically benchmark models on every merge. Optimize latency and resource usage so experimentation stays fast, and performance regressions are caught immediately.

Research Tooling: Develop internal SDKs, CLIs, and lightweight UIs (e.g., Streamlit, Retool) that empower researchers to:

  • Inspect trajectories and traces
  • Visualize model failures
  • Curate and manage datasets
  • Iterate without friction

You’ll make experimentation ergonomic.

Observability & Performance: Implement comprehensive tracking for:

  • Model latency, throughput, and error rates
  • GPU utilization and cluster health
  • Inference cost and unit economics

Build dashboards and alerting systems that give real-time visibility into system performance and reliability.

Minimum Qualifications

  • Bachelor’s degree in Computer Science, Engineering, or equivalent practical experience
  • 3+ years in Software Engineering, MLOps, or ML Infrastructure
  • Strong Python proficiency
  • Experience building internal developer tools, CLIs, or dashboards
  • Experience with cloud infrastructure (AWS or GCP) and containerization (Docker, Kubernetes)

Preferred Qualifications

  • Experience designing CI/CD pipelines specifically for ML workflows
  • Familiarity with LLM serving stacks such as vLLM or TGI
  • Experience managing GPU clusters and optimizing distributed workloads

Why This Role Matters

Great research without great infrastructure slows to a crawl.

Great infrastructure multiplies the impact of every researcher.

You will define how experiments scale, how reliability is measured, and how quickly we can ship improvements to real users. The systems you build will directly shape the speed and quality of our progress toward everyday AGI.

Our Culture

🏢 All in, in person — work moves faster face-to-face

🚀 Ship by default — novel and polished can coexist, speed is the feature

🤝 One band, one sound — radical candor, zero politics, help each other win

Perks

🏥 Competitive company-sponsored medical, dental, and vision insurance

✈️ Top-tier relocation and immigration support

How to Apply

Send us:

  • A link — or 60-second video — of something you built and why it matters
  • Your resume or LinkedIn
  • Two sentences on the hardest problem you've cracked

Every exceptional candidate hears back within 48 hours.

If you see possibility where others see limits, we'd love to meet you.

+400% к собеседованиям

Создайте идеальное резюме с помощью ИИ-агента

Создайте идеальное резюме с помощью ИИ-агента

Навыки

  • AWS
  • Python
  • GCP
  • Kubernetes
  • CI/CD
  • MLOps
  • Docker
  • Retool
  • vLLM
  • GPU Computing
  • Streamlit
  • TGI

Возможные вопросы на собеседовании

Проверка опыта работы с распределенным обучением и специфическим оборудованием.

Расскажите о вашем опыте оптимизации использования GPU в кластерах Kubernetes. Как вы справлялись с фрагментацией ресурсов?

Оценка навыков построения надежных пайплайнов для ML.

Как бы вы спроектировали систему CI/CD для моделей, где обучение занимает несколько дней, а артефакты весят сотни гигабайт?

Проверка понимания специфики LLM.

Какие ключевые метрики вы бы отслеживали для мониторинга производительности LLM в продакшене (latency vs throughput)?

Оценка умения создавать инструменты для других инженеров.

Опишите внутренний инструмент или SDK, который вы разработали. Как он изменил рабочий процесс исследователей?

Проверка навыков отладки сложных систем.

Как вы организуете систему трейсинга и логирования для агентов, чтобы эффективно находить причины галлюцинаций или сбоев в логике?

Похожие вакансии

более 1000 офферов получено
4.9

1000+ офферов получено

Устали искать работу? Мы найдём её за вас

Quick Offer улучшит ваше резюме, подберёт лучшие вакансии и откликнется за вас. Результат — в 3 раза больше приглашений на собеседования и никакой рутины!

agi-inc
Страна
США