- Страна
- США
Откликайтесь
на вакансии с ИИ

Research Engineer, Judgment Systems
Вакансия предлагает работу над социально значимой проблемой в высокотехнологичном стартапе с сильной командой. Привлекательность обусловлена участием в разработке передовых ИИ-агентов, конкурентной зарплатой и опционами, хотя работа строго в офисе в Сан-Франциско может подойти не всем.
Сложность вакансии
Роль требует глубоких знаний в области обучения и дообучения LLM, а также умения работать на стыке исследований и продакшн-разработки. Высокая сложность обучена необходимостью создания собственных бенчмарков и работы в условиях состязательной среды (adversarial environments).
Анализ зарплаты
Предлагаемая позиция соответствует уровню зарплат в топовых ИИ-стартапах Сан-Франциско. Рыночный диапазон для Research Engineer в этой локации обычно начинается от $160,000 и может достигать $250,000+ без учета опционов. Данная роль предполагает значительную долю в капитале компании (equity), что типично для ранних стадий.
Сопроводительное письмо
I am writing to express my strong interest in the Research Engineer position at Variance. With a background in training and fine-tuning modern ML systems, I am particularly drawn to your mission of teaching machines to handle high-precision judgment calls in adversarial environments. My experience in building robust evaluation frameworks and my passion for trust and safety align perfectly with your goal of making AI systems reliable for fraud prevention.
In my previous work, I have focused on the intersection of research and production, developing proprietary benchmarks and iterating through tight hypothesis-driven loops. I thrive in fast-moving environments and am excited by the challenge of improving agent behavior in regulated, high-consequence settings. I am eager to bring my expertise in LLMs and experimental rigor to the talent-dense team in San Francisco to help define the future of trustworthy AI.
Составьте идеальное письмо к вакансии с ИИ-агентом

Откликнитесь в intrinsic-safety уже сейчас
Присоединяйтесь к команде в Сан-Франциско и создавайте ИИ-агентов нового поколения для борьбы с мошенничеством на самом острие технологий!
Описание вакансии
Role
At Variance, we are teaching machines to make the hardest judgment calls at scale. We build AI agents for the high-precision gray area of stopping fraud, scams, and abuse. This isn't another sales tool or a customer service system. We're solving real problems in investigations and fraud prevention to protect innocent people from being harmed.
We’re a small, talent-dense team in San Francisco working on a problem at the edge of what AI systems can reliably do: making good decisions in messy, adversarial, real-world environments.
We’re looking for a Research Engineer to help push that frontier forward. You’ll design evals, study failures, build new research loops, and turn research ideas into production capabilities.
This role sits at the intersection of research and engineering: part model builder, part experimentalist, part systems engineer.
You’re a fit if you:
- Care deeply about protecting people from fraud, scams, and abuse
- Have strong opinions about model quality, evaluation, and experimental rigor
- Want to work on core model and agent behavior
- Are excited to train, fine-tune, and improve models for hard real-world judgment tasks
- Think in tight research loops: hypothesis, experiment, evaluation, failure analysis, iteration
- Thrive in ambiguous, fast-moving environments where the path is not obvious and the feedback loop is short
- Are motivated by the challenge of making AI systems work in adversarial, regulated, and high-consequence settings
- Want to help define what trustworthy AI means in real-world use cases
What you’ll do
- Train, fine-tune, and improve models for fraud, scams, abuse, and other high-stakes judgment workflows
- Own research threads focused on improving agent capability, reliability, and decision quality
- Build proprietary benchmarks, datasets, and evals that reflect real customer workflows, regulatory constraints, and real failure modes
- Design and run experiments across post-training, retrieval, tool use, planning, memory, and long-horizon agent behavior
- Study where models break, why they break, and how to make them more robust
- Prototype new training strategies, agent architectures, and evaluation methods, then turn the best ideas into production systems
- Work closely with founders and engineering to translate research advances into deployed product capabilities
- Push the boundary of what AI agents can do in regulated industries
What success looks like
- Our models get materially better at making hard judgment calls in production
- Our models are trusted at scale
- We develop evals and training loops that compound over time
- We understand failure modes more clearly and improve system behavior faster
- New research ideas turn into real product capabilities quickly
Preferred background
- Experience training, fine-tuning, or evaluating modern ML systems
- Strong programming skills and comfort working in research-heavy codebases
- Familiarity with LLMs, agent systems, post-training, reinforcement learning, retrieval, or adjacent areas
- Ability to design clean experiments and draw reliable conclusions from noisy results
- Strong engineering judgment and a bias toward building
- Interest in fraud, risk, trust and safety, compliance, or other regulated and adversarial domains
Our culture
We believe in ownership, urgency, and craft. We enjoy spirited debate, wild ideas, and building things we’re proud of. We’re fully in-person in San Francisco.
What we offer
- Competitive salary and meaningful equity
- Platinum-level medical, dental, and vision insurance
- Unlimited PTO, sick leave, and parental leave
- Up to $100 per month in reimbursement for personal health and wellness expenses
- 401(k) plan
Создайте идеальное резюме с помощью ИИ-агента

Навыки
- LLM
- Reinforcement Learning
- Python
- Machine Learning
- Fine-tuning
- Research Engineering
- Evaluation Frameworks
- AI Agents
- Retrieval-Augmented Generation
Возможные вопросы на собеседовании
Проверка понимания специфики работы с LLM в задачах классификации и принятия решений.
Как бы вы подошли к дообучению (fine-tuning) модели для минимизации ложноотрицательных результатов в сценариях обнаружения мошенничества?
Оценка навыков построения систем оценки качества, что критично для данной роли.
Опишите ваш процесс разработки проприетарного бенчмарка для оценки надежности ИИ-агента в условиях меняющихся стратегий злоумышленников.
Проверка умения анализировать ошибки и итерировать продукт.
Расскажите о случае, когда модель вела себя непредсказуемо в продакшене. Как вы диагностировали проблему и какие изменения внесли в цикл обучения?
Оценка технических знаний в области современных архитектур агентов.
Какие стратегии планирования и использования инструментов (tool use) наиболее эффективны для долгосрочных (long-horizon) задач в регулируемых отраслях?
Проверка соответствия культуре компании и готовности к работе в условиях неопределенности.
Как вы балансируете между академической строгостью исследований и необходимостью быстрого внедрения функций в продукт в стартап-среде?
Похожие вакансии
MLOps Engineer (Python)
AI Engineer (CV & Navigation)
Middle, Middle+, Senior GenAI/LLM Разработчик
Middle / Senior GenAI Engineer (CV)
AI Engineer / AI Mentor
AI-специалист
1000+ офферов получено
Устали искать работу? Мы найдём её за вас
Quick Offer улучшит ваше резюме, подберёт лучшие вакансии и откликнется за вас. Результат — в 3 раза больше приглашений на собеседования и никакой рутины!
- Страна
- США