- Страна
- Нидерланды
Откликайтесь
на вакансии с ИИ

Senior ML Engineer (Token Factory)
Nebius — один из самых быстрорастущих игроков в сфере AI-инфраструктуры с листингом на Nasdaq. Работа с новейшим оборудованием (Blackwell) и масштабными GPU-кластерами делает эту позицию крайне привлекательной для топовых инженеров.
Сложность вакансии
Роль требует глубоких знаний системного программирования, архитектуры GPU и низкоуровневой оптимизации (CUDA, ядра Linux). Процесс включает технические интервью по кодированию и проверку специфических навыков работы с высокопроизводительными вычислениями.
Анализ зарплаты
Зарплата в объявлении не указана, но для Senior-позиций в Амстердаме в сфере AI/Cloud рыночный диапазон составляет €90k–€130k плюс опционы. Nebius, как международная публичная компания, обычно предлагает конкурентоспособные пакеты, соответствующие верхнему децилю рынка.
Сопроводительное письмо
I am writing to express my strong interest in the Senior ML Engineer position within the Token Factory team at Nebius. With a deep background in high-performance computing and C++ development, I have closely followed Nebius's rapid growth as a leader in GPU cloud infrastructure. My experience in low-level system optimization and memory management aligns perfectly with your mission to make foundation models fast and reliable at a massive scale.
In my previous roles, I have focused on profiling and debugging complex system-level performance issues, often working directly with GPU architectures to squeeze out every bit of efficiency. I am particularly excited about the opportunity to work with cutting-edge hardware like Hopper and Blackwell, and to contribute to an inference platform that supports the global AI economy. I am confident that my technical expertise in CUDA and systems programming will allow me to make immediate contributions to the Token Factory team.
Составьте идеальное письмо к вакансии с ИИ-агентом

Откликнитесь в nebius уже сейчас
Присоединяйтесь к команде Nebius, чтобы оптимизировать крупнейшие GPU-кластеры мира и определять будущее AI-инфраструктуры!
Описание вакансии
Why work at NebiusNebius is leading a new era in cloud computing to serve the global AI economy. We create the tools and resources our customers need to solve real-world challenges and transform industries, without massive infrastructure costs or the need to build large in-house AI/ML teams. Our employees work at the cutting edge of AI cloud infrastructure alongside some of the most experienced and innovative leaders and engineers in the field.
Where we workHeadquartered in Amsterdam and listed on Nasdaq, Nebius has a global footprint with R&D hubs across Europe, North America, and Israel. The team of over 1400 employees includes more than 400 highly skilled engineers with deep expertise across hardware and software engineering, as well as an in-house AI R&D team.
About the role:
Token Factory is a part of Nebius Cloud, one of the world’s largest GPU clouds, running tens of thousands of GPUs. We are building an inference platform that makes every kind of foundation model — text, vision, audio, and emerging multimodal architectures — fast, reliable, and effortless to deploy at massive scale.
Responsibilities:
- Develop and optimize low-level kernels and runtime components for AI inference
- Improve performance of inference engines GPU platforms
- Profile and debug system-level and hardware-level performance issues
- Integrate support for new hardware architectures (Hopper, Blackwell, Rubin)
- Collaborate with ML and backend teams to optimize end-to-end execution
Required Qualifications:
- Strong proficiency in C++, OR expertise in GPU programming with a focus on low-level high-performance coding and memory management
- Experience in GPU programming or systems-level software development, e.g. operating system internals, kernel modules, or device drivers
- Hands-on experience with profiling and debugging tools to identify performance issues on both CPUs and GPUs, and the ability to optimize code based on those findings.
- Solid understanding of CPU/GPU architecture and memory hierarchy
Preferred Qualifications:
- Experience with GPU computing programming: CUDA, ROCm, CUTLASS, Cute, ThunderKittens, Triton, Pallas, Mosaic GPU
- Familiarity with ML inference runtimes (e.g. TensorRT, TVM)
- Knowledge of Linux internals, drivers, or compiler toolchains
- Experience with tools like perf, VTune, Nsight, or ROCm profiler
- Familiarity with popular inference engines (e.g. such as vLLM, sglang, TGI)
We conduct coding interviews as part of the process.
What we offer
- Competitive salary and comprehensive benefits package.
- Opportunities for professional growth within Nebius.
- Flexible working arrangements.
- A dynamic and collaborative work environment that values initiative and innovation.
We’re growing and expanding our products every day. If you’re up to the challenge and are excited about AI and ML as much as we are, join us!
Создайте идеальное резюме с помощью ИИ-агента

Навыки
- C++
- CUDA
- GPU Programming
- ROCm
- CUTLASS
- Triton
- TensorRT
- TVM
- Linux Kernel
- Nsight
- vLLM
- Performance Optimization
- Systems Programming
Возможные вопросы на собеседовании
Вакансия требует оптимизации ядер и работы с памятью на низком уровне.
Расскажите о вашем опыте оптимизации использования Shared Memory в CUDA для уменьшения задержек при инференсе.
Работа предполагает интеграцию новых архитектур (Hopper, Blackwell).
Какие архитектурные особенности NVIDIA Hopper (например, Transformer Engine) вы считаете наиболее важными для ускорения LLM?
Упоминается необходимость профилирования системных проблем.
Опишите случай, когда вы использовали Nsight Systems или perf для обнаружения узкого места в пропускной способности памяти. Как вы решили проблему?
Требуется знание внутренних механизмов Linux или драйверов.
Как бы вы подошли к минимизации накладных расходов на копирование данных между CPU и GPU в высоконагруженной системе?
Вакансия связана с движками инференса (vLLM, TensorRT).
В чем заключаются основные сложности реализации PagedAttention в распределенных системах инференса?
Похожие вакансии
MLOps Engineer (ML pipelines / Kubernetes / Airflow)
Senior Data инженер
Senior MLOps Engineer (Platform Development / LLMOps)
Data Engineer / SAP HANA Developer (Senior)
Senior ML Engineer
Senior MLOps
1000+ офферов получено
Устали искать работу? Мы найдём её за вас
Quick Offer улучшит ваше резюме, подберёт лучшие вакансии и откликнется за вас. Результат — в 3 раза больше приглашений на собеседования и никакой рутины!
- Страна
- Нидерланды