- Страна
- США
- Зарплата
- 180 000 $ – 440 000 $
Откликайтесь
на вакансии с ИИ

Member of Technical Staff - ML & Data Infrastructure
Исключительная вакансия для инженеров мирового уровня: работа над передовыми технологиями ИИ, прямой вклад в миссию компании и очень высокий компенсационный пакет (до $440k base + equity). Работа в одной из самых амбициозных компаний Кремниевой долины.
Сложность вакансии
Экстремально высокий уровень сложности из-за необходимости сочетать глубокие знания распределенных систем (exabyte-scale) с низкоуровневой оптимизацией GPU (CUDA, Triton) и пониманием архитектур LLM. Работа в xAI предполагает высочайший темп и личную ответственность в условиях плоской структуры.
Анализ зарплаты
Предлагаемая базовая зарплата ($180k - $440k) значительно превышает средние рыночные показатели даже для Пало-Альто. Верхняя граница диапазона соответствует уровню Senior/Staff Engineer в топовых BigTech компаниях, а наличие опционов (equity) делает совокупный доход потенциально выдающимся.
Сопроводительное письмо
I am writing to express my strong interest in the Member of Technical Staff - ML & Data Infrastructure position at xAI. With a deep background in building petabyte-scale distributed systems and optimizing low-level GPU performance, I am inspired by xAI’s mission to build AI systems that accurately understand the universe. My experience aligns perfectly with your need for engineers who can navigate the complexities of web-scale search, high-throughput inference, and custom kernel development.
In my previous roles, I have consistently demonstrated the ability to deliver high-impact infrastructure in fast-paced, meritocratic environments. Whether it was architecting vector retrieval engines or optimizing CUDA kernels for next-gen architectures, I thrive on first-principles thinking and rigorous execution. I am particularly drawn to xAI’s flat structure and the opportunity to contribute directly to frontier AI models alongside a small, highly motivated team.
Составьте идеальное письмо к вакансии с ИИ-агентом

Откликнитесь в xai уже сейчас
Присоединяйтесь к xAI, чтобы создавать фундамент для ИИ будущего и решать сложнейшие инженерные задачи планеты.
Описание вакансии
About xAI
xAI’s mission is to create AI systems that can accurately understand the universe and aid humanity in its pursuit of knowledge. Our team is small, highly motivated, and focused on engineering excellence. This organization is for individuals who appreciate challenging themselves and thrive on curiosity. We operate with a flat organizational structure. All employees are expected to be hands-on and to contribute directly to the company’s mission. Leadership is given to those who show initiative and consistently deliver excellence. Work ethic and strong prioritization skills are important. All employees are expected to have strong communication skills. They should be able to concisely and accurately share knowledge with their teammates.
ABOUT THE ROLE:
The ML and Data Infrastructure team is responsible for building the foundational infrastructure that powers frontier AI models and truth-seeking agents—from petabyte-scale data acquisition and multimodal crawling, to web-scale search/retrieval systems, reliable high-throughput inference serving, low-level GPU/kernel optimizations, compiler/runtime innovations, and high-speed interconnect fabrics for massive clusters. In this role, you will collaborate across pre-training, multimodal, reasoning, and product teams in a fast-paced, meritocratic environment where you will tackle ambiguous, high-stakes problems with first-principles thinking and rigorous execution.
RESPONSIBILITIES:
- Design, build, and operate petabyte-to-exabyte scale distributed systems for data acquisition, web crawling, preprocessing, filtering/classification, and multimodal pipelines (CPU/GPU workloads).
- Architect high-performance search/retrieval engines (vector/hybrid/semantic) at trillion-document scale, integrating with LLMs/agents for truth-seeking, low-hallucination reasoning, and real-time knowledge access.
- Develop reliable inference serving infrastructure: load balancing, autoscaling, KV cache, batching, fault-tolerance, monitoring (Prometheus/Grafana), CI/CD (Buildkite/ArgoCD), and benchmarking for 100% uptime and optimal tail latency.
- Optimize low-level performance: CUDA kernels (GeMM, attention), Triton/CUTLASS extensions, quantization/distillation/speculative decoding, GPU memory hierarchy, and model-hardware co-design for next-gen architectures.
- Innovate on compilers/runtimes (JAX/XLA/MLIR, custom features for Hopper/Blackwell), distributed profiling/debugging tools, and interconnect fabrics (copper/optical, 1.6T+, SerDes/photonics, topology simulation, vendor roadmaps).
- Manage complex workloads across clouds/clusters: orchestration (Kubernetes), data bookkeeping/verifiability, high-speed interconnect validation, failure analysis, and telemetry/automation for production reliability.
BASIC QUALIFICATIONS:
- Strong systems engineering skills with proven impact on large-scale distributed infrastructure (data processing, search, inference, or cluster networking).
- Proficiency in Python and at least one compiled language (Rust, C++, Go, Java); experience building bespoke libraries, optimizing performance, and debugging complex systems.
- Hands-on experience with at least one key area: petabyte-scale data pipelines/crawling (Spark/Ray/Kubernetes), web-scale search/retrieval (vector DBs, ranking, RAG), inference optimization (SGLang, kernels, batching), compiler features (JAX/XLA), or high-speed interconnects (optical/copper, SerDes, signal integrity).job
- Deep understanding of distributed systems challenges: high-throughput ops/sec, latency/throughput tradeoffs, fault-tolerance, monitoring, and scaling to production billions-of-users or 100k+ GPUs.
- Passion for AI infrastructure: keeping up with SOTA techniques, first-principles problem-solving, meticulous organization/bookkeeping, and delivering rigorous, high-quality results.
PREFERRED SKILLS AND EXPERIENCE:
- Experience with multimodal data (images/video/audio), epistemics/truth-seeking in retrieval, or agentic systems (long-horizon reasoning, feedback loops).
- Low-level optimizations: CUDA kernel development (Tensor cores, attention), GPU profiling (Nsight), low-precision numerics, or interconnect pathfinding (LPO/LRO/CPO, photonics).
- Production expertise in inference reliability (0% error target), CI/CD for ML, or cluster networking (topology, vendor collaboration, failure root-cause).
- Track record owning end-to-end projects in hyperscale environments, with strong debugging, vendor management, or open-source contributions (e.g., SGLang).
COMPENSATION AND BENEFITS:
$180,000 - $440,000 USD
Base salary is just one part of our total rewards package at xAI, which also includes equity, comprehensive medical, vision, and dental coverage, access to a 401(k) retirement plan, short & long-term disability insurance, life insurance, and various other discounts and perks.
xAI is an equal opportunity employer. For details on data processing, view ourRecruitment Privacy Notice.
Создайте идеальное резюме с помощью ИИ-агента

Навыки
- C++
- Python
- Rust
- LLM
- Kubernetes
- Prometheus
- Grafana
- JAX
- RAG
- Distributed Systems
- Java
- Spark
- Ray
- Go
- CUDA
- Search Engines
- ML Infrastructure
- Triton
- XLA
Возможные вопросы на собеседовании
Проверка опыта работы с масштабируемыми системами, критически важными для xAI.
Опишите ваш опыт проектирования и эксплуатации распределенных систем петабайтного или экзобайтного масштаба. С какими самыми сложными проблемами согласованности или пропускной способности вы сталкивались?
xAI активно оптимизирует инференс для снижения задержек.
Как бы вы подошли к оптимизации задержки (tail latency) для системы инференса LLM, обслуживающей миллиарды запросов? Какие техники (например, speculative decoding или KV cache) вы бы применили?
Вакансия требует навыков написания кастомных ядер.
Расскажите о вашем опыте написания CUDA-ядер или использования Triton. Как вы оптимизируете использование иерархии памяти GPU для операций внимания (attention)?
Для 'truth-seeking' агентов важна точность данных.
Как спроектировать систему поиска и извлечения (RAG) для триллиона документов, которая минимизирует галлюцинации и обеспечивает доступ к знаниям в реальном времени?
Проверка соответствия культуре высокой интенсивности и автономности.
Приведите пример, когда вы столкнулись с неоднозначной высокорисковой проблемой без четких инструкций. Как вы использовали принцип 'first-principles thinking' для её решения?
Похожие вакансии
MLOps Engineer (ML pipelines / Kubernetes / Airflow)
Senior Data инженер
Senior MLOps Engineer (Platform Development / LLMOps)
Data Engineer / SAP HANA Developer (Senior)
Data Scientist в RecSys
Data Engineering Team Lead (команда Clickhouse)
1000+ офферов получено
Устали искать работу? Мы найдём её за вас
Quick Offer улучшит ваше резюме, подберёт лучшие вакансии и откликнется за вас. Результат — в 3 раза больше приглашений на собеседования и никакой рутины!
- Страна
- США
- Зарплата
- 180 000 $ – 440 000 $