- Страна
- Великобритания
Откликайтесь
на вакансии с ИИ

AI Inference Engineer
Perplexity — одна из самых перспективных компаний в индустрии ИИ. Работа над ключевой инфраструктурой инференса с использованием передового стека (Rust, CUDA, CuTe) обеспечивает исключительный профессиональный рост и влияние на продукт.
Сложность вакансии
Роль требует редкого сочетания навыков: глубокого знания архитектуры GPU, владения Rust и CUDA, а также понимания последних достижений в области LLM. Высокая планка ответственности за производительность в реальном времени делает эту позицию крайне сложной.
Анализ зарплаты
Зарплата для этой роли в Лондоне не указана, но для уровня Senior AI Inference Engineer в топовых стартапах она обычно значительно выше среднего по рынку, часто дополняясь существенным пакетом опционов (equity). Данный диапазон отражает рыночные оценки для высококвалифицированных системных инженеров в сфере ML.
Сопроводительное письмо
I am writing to express my strong interest in the AI Inference Engineer position at Perplexity. With a deep background in high-performance systems and GPU programming, I have closely followed Perplexity’s innovation in the LLM space and am eager to contribute to the efficiency and scalability of your inference engine. My experience in optimizing transformer-based models and working with low-level CUDA kernels aligns perfectly with your mission to deliver rapid, high-quality AI responses.
In my previous roles, I have successfully navigated the complexities of distributed systems and performance profiling, often bridging the gap between research papers and production-ready code. I am particularly excited about the opportunity to work with Rust and CuTe DSL to push the boundaries of what's possible on NVIDIA's latest architectures. I thrive in fast-paced environments and am ready to take end-to-end ownership of the challenges involved in scaling Perplexity’s infrastructure to meet rapidly growing global demand.
Составьте идеальное письмо к вакансии с ИИ-агентом

Откликнитесь в Perplexity уже сейчас
Присоединяйтесь к команде Perplexity и создавайте будущее ИИ-поиска на переднем крае технологий инференса!
Описание вакансии
We are looking for an AI Inference Engineer to join our growing team. We build and run the inference engine behind every Perplexity query and deploy dozens of model architectures at scale with tight latency and cost budgets. Our stack is Rust, Python, CUDA, and CuTe DSL.
Responsibilities:
- New models support. Support transformer-based retrieval, text-generation, and multimodal models in our inference infrastructure, from weight loading, request scheduling and KV-cache management to support in API Gateway.
- GPU kernels migration to CuTe DSL. Port our in-house CUDA kernels to NVIDIA's CuTe DSL so they run on GB200 today and are portable to Vera Rubin racks tomorrow.
- Rust-native serving runtime. Develop our internal Rust-based inference server to solve all Python pains and keep up with rapidly growing traffic.
- Performance optimisation. Profile and fix bottlenecks from network ingress through continuous batching and GPU kernel interleaving.
- Reliability and observability. Build dashboards, alerts, and automated remediation so we catch regressions before users do. Respond to and learn from production incidents.
Who we're looking for:
- Deep experience with GPU programming and performance work (CUDA, Triton, CUTLASS, or similar). Any other deep systems programming experience is a plus.
- You understand modern LLM architectures and are able to bring them up reliably in a production environment.
- You've built and operated production distributed systems under real load - ideally performance-critical ones.
- Comfortable working across languages and layers: Rust for the serving runtime, Python for model code, CUDA/CuteDSL for kernels.
- You own problems end-to-end. You can read a research paper on Monday, write a kernel on Wednesday, and debug a production incident on Friday.
- Self-directed. You do well in fast-moving environments where the path forward isn't laid out for you.
Nice-to-have:
- ML compilers and framework internals: PyTorch internals, torch.compile, custom operators.
- Distributed GPU communication: NCCL, NVLink, InfiniBand, RDMA libraries, model/tensor parallelism.
- Low-precision inference: INT8/FP8/FP4 quantization, mixed-precision serving.
- Profiling and debugging tools: Nsight Compute/Systems, CUDA-GDB, PTX/SASS analysis.
- Container orchestration: Kubernetes, GPU scheduling, autoscaling inference workloads.
Qualifications:
- 3+ years of professional software engineering experience with meaningful work on ML inference or high-performance systems.
- Familiarity with at least one deep learning framework (PyTorch, JAX, TensorFlow).
- Understanding of GPU architectures (memory hierarchy, warp scheduling, tensor cores).
- Understanding of common LLM architectures and inference optimization techniques (e.g. quantization, speculative decoding, prefill-decode disaggregation).
Final offer amounts are determined by multiple factors including experience and expertise.
Equity: In addition to the base salary, equity may be part of the total compensation package.
Создайте идеальное резюме с помощью ИИ-агента

Навыки
- Python
- Rust
- PyTorch
- Kubernetes
- CUDA
- RDMA
- Triton
- NCCL
- Infiniband
- LLM Architecture
- Quantization
- NVLink
- CUTLASS
- CuTe DSL
Возможные вопросы на собеседовании
Проверка понимания низкоуровневой оптимизации памяти GPU, что критично для работы с CuTe DSL.
Можете ли вы объяснить различия в иерархии памяти GPU и как вы используете shared memory для оптимизации пропускной способности в кастомных ядрах?
Perplexity планирует переход на Rust-native рантайм; важно понять опыт кандидата с этим стеком.
Какие основные преимущества и сложности вы видите при замене Python-основанного сервера инференса на решение на базе Rust?
Критически важная техника для снижения задержки (latency) в современных LLM.
Расскажите о вашем опыте внедрения или оптимизации KV-кэша. Как вы справляетесь с фрагментацией памяти при больших объемах контекста?
Вакансия требует умения работать с новейшим оборудованием.
Какие архитектурные особенности NVIDIA Blackwell (GB200) вы считаете наиболее значимыми для оптимизации инференса по сравнению с предыдущими поколениями?
Проверка навыков отладки в условиях высокой нагрузки.
Опишите самый сложный инцидент в продакшене, связанный с производительностью GPU, с которым вы столкнулись, и как вы его диагностировали.
Похожие вакансии
MLOps Engineer (Python)
AI Engineer (CV & Navigation)
Middle, Middle+, Senior GenAI/LLM Разработчик
Middle / Senior GenAI Engineer (CV)
AI Engineer / AI Mentor
Junior разработчик agent AI-систем
1000+ офферов получено
Устали искать работу? Мы найдём её за вас
Quick Offer улучшит ваше резюме, подберёт лучшие вакансии и откликнется за вас. Результат — в 3 раза больше приглашений на собеседования и никакой рутины!
- Страна
- Великобритания