- Страна
- Нидерланды
Откликайтесь
на вакансии с ИИ

Project Maintainer – DPAI Arena Evaluation Infrastructure
JetBrains — топовый работодатель с сильной инженерной культурой. Проект DPAI Arena находится на острие технологий ИИ, предлагая уникальную возможность влиять на индустрию инструментов разработки.
Сложность вакансии
Роль требует сочетания навыков системного проектирования, глубокого понимания GenAI и опыта управления сообществом (DevRel/Maintainer). Высокая сложность обусловлена необходимостью обеспечивать воспроизводимость тестов для различных ИИ-моделей.
Анализ зарплаты
JetBrains обычно предлагает зарплаты на уровне или выше верхнего дециля рынка для опытных инженеров в Европе. Указанный диапазон отражает средние рыночные значения для Senior/Lead ролей в области AI Infrastructure в Германии и Нидерландах.
Сопроводительное письмо
I am writing to express my strong interest in the Project Maintainer position for the DPAI Arena Evaluation Infrastructure at JetBrains. With a solid background in building scalable CI/CD pipelines and a deep fascination with the evolving landscape of GenAI in developer tooling, I am eager to contribute to an initiative that aims to set the industry standard for AI agent benchmarking.
In my previous roles, I have focused on creating modular and maintainable infrastructure that supports complex integration workflows. I have extensive experience in documenting technical processes and managing open-source-style contributions, which aligns perfectly with your goal of building a community-driven ecosystem. I am particularly excited about the challenge of ensuring reproducibility and stability across diverse models and runtime environments.
JetBrains has always been a benchmark for quality in developer tools, and the DPAI Arena project represents a thrilling frontier. I am confident that my technical skills in system design and my proactive approach to project health will help make this evaluation infrastructure a cornerstone of the AI development community.
Составьте идеальное письмо к вакансии с ИИ-агентом

Откликнитесь в jetbrains уже сейчас
Присоединяйтесь к JetBrains, чтобы возглавить разработку инфраструктуры для оценки ИИ-агентов нового поколения!
Описание вакансии
At JetBrains, code is our passion. Ever since we started, we have strived to make the strongest, most effective developer tools on earth. By automating routine checks and corrections, our tools speed up production, freeing developers to grow, discover, and create.
We believe in building tools developers love – and we see the next frontier in AI-powered developer tools. The DPAI Arena project aims to define and maintain an open, community-driven benchmark for evaluating AI agents and IDE-embedded AI features at scale. We believe that the benchmark industry is only in its early stages, and we’re planning to take part in the evolution of the field.
We’re looking for a Project Maintainer to lead the technical backbone of this initiative – managing the evaluation pipeline, integrating agents, and enabling contributions from the broader community.
As part of our team, you will:
- Design, build, and maintain the evaluation infrastructure pipeline with the Eval Infrastructure team, ensuring it supports the goals of DPAI Arena, including scalability, reproducibility, and extensibility.
- Integrate new agents, models, tools, and runtime environments into the pipeline, ensuring compatibility, stability, and maintainability across various configurations.
- Define, document, and maintain contribution guidelines and processes, making it easy and safe for internal teams and external contributors to add new tasks, agents, and evaluation setups.
- Curate the technical process of contributions by reviewing submissions, validating conformity with standards, coordinating merges, and ensuring the consistency, reproducibility, and quality of evaluation artifacts.
- Support the growth of a community-driven ecosystem by enabling contributions, maintaining clear documentation and onboarding flows, engaging with contributors, and ensuring long-term sustainability of the infrastructure.
We’ll be happy to bring you on board if you have:
- Strong experience in building and maintaining evaluation or CI/CD-type infrastructure, pipelines, or related tooling.
- Comfort working with multiple models, runtime environments, tooling setups.
- The ability to create flexible, modular, maintainable infrastructure.
- An understanding of GenAI in the DevTooling domain
- Proficiency in writing and maintaining clear developer documentation, contribution guidelines, and onboarding processes.
- Good coding and system design skills, including the ability to work with codebases, integrate new components, and manage versioning and configurations.
- Meticulous attention to detail and a quality assurance mindset.
- The ability to coordinate with different teams (product, ML, external contributors) and ensure smooth collaboration.
- A self-motivated and proactive mindset in taking ownership of the long-term technical health of the project.
We’ll be especially thrilled if you have:
- Experience with AI-agent integration, multi-model pipelines, and benchmarking frameworks.
- Familiarity with open-source and community-driven development workflows, contribution processes, and code review practices.
#LI-KP1
We are an equal opportunity employer
We know great ideas can come from anyone, anywhere. That’s why we do our best to create an open and inclusive workplace – one that welcomes everyone regardless of their background, identity, religion, age, accessibility needs, or orientation.
We process the data provided in your job application in accordance with the Recruitment Privacy Policy.
Создайте идеальное резюме с помощью ИИ-агента

Навыки
- CI/CD
- GenAI
- System Design
- Infrastructure as Code
- Technical Writing
- Open Source Management
- Python
- Docker
- Benchmarking Frameworks
Возможные вопросы на собеседовании
Проверка опыта в создании масштабируемых систем тестирования.
Как бы вы спроектировали инфраструктуру оценки, которая должна поддерживать сотни различных ИИ-агентов с разными требованиями к среде выполнения?
Важно для обеспечения научной достоверности бенчмарка.
Какие стратегии вы используете для обеспечения 100% воспроизводимости результатов оценки в различных облачных или локальных средах?
Роль подразумевает работу с внешними контрибьюторами.
Опишите ваш опыт управления процессом внесения изменений (contribution workflow) в крупном проекте. Как вы балансируете между открытостью для сообщества и строгим контролем качества?
Проверка понимания специфики домена.
С какими основными трудностями вы сталкивались при интеграции LLM в автоматизированные пайплайны (например, задержки, стоимость, недетерминированность)?
Оценка навыков системного мышления.
Как вы организуете версионирование не только кода, но и наборов данных (datasets) и конфигураций моделей в рамках инфраструктуры DPAI Arena?
Похожие вакансии
Principal Forward Deployed Engineer – AI-Native Software Development
Founding ML Engineer (Spectrum)
Research Engineer (Agentic Models)
Research Engineer (LLM Training and Performance)
Research Engineer - JetBrains AI
Staff Research Engineer (LLM Pre-Training)
1000+ офферов получено
Устали искать работу? Мы найдём её за вас
Quick Offer улучшит ваше резюме, подберёт лучшие вакансии и откликнется за вас. Результат — в 3 раза больше приглашений на собеседования и никакой рутины!
- Страна
- Нидерланды