- Страна
- США
- Зарплата
- 200 000 $ – 250 000 $
Откликайтесь
на вакансии с ИИ

Senior Research Scientist
Исключительная вакансия для топ-исследователей: работа в ведущей организации по безопасности ИИ, доступ к мощным вычислительным ресурсам и конкурентная зарплата в Сан-Франциско. Высокий балл за социальную значимость миссии и возможность влиять на развитие всей индустрии.
Сложность вакансии
Высокая сложность обусловлена требованием степени Ph.D., наличием более 5 лет опыта и выдающимся списком публикаций на конференциях уровня A* (NeurIPS, ICML). Работа предполагает глубокие технические знания в области безопасности ИИ и умение управлять распределенным обучением моделей масштаба frontier.
Анализ зарплаты
Предложенный диапазон $200,000 – $250,000 соответствует рыночным стандартам для Senior Research Scientist в некоммерческих исследовательских центрах Сан-Франциско, хотя в коммерческих гигантах (OpenAI, Google DeepMind) общая компенсация с учетом акций может быть выше. Тем не менее, для сектора AI Safety это очень конкурентоспособное предложение.
Сопроводительное письмо
I am writing to express my strong interest in the Senior Research Scientist position at the Center for AI Safety. With a Ph.D. in Machine Learning and over five years of experience in distributed training and large-scale model evaluation, I have consistently focused on the robustness and reliability of frontier AI systems. My track record of first-author publications at NeurIPS and ICLR aligns with CAIS's mission to address societal-scale risks through rigorous technical research.
In my previous roles, I have led end-to-end research projects involving the fine-tuning of large transformer models and the development of benchmarks for AI honesty and transparency. I am particularly drawn to CAIS because of your unique position at the intersection of technical safety research and policy engagement. I am eager to leverage your compute cluster to push the boundaries of what is possible in mitigating trojan behaviors and ensuring the safety of next-generation models.
Составьте идеальное письмо к вакансии с ИИ-агентом

Откликнитесь в aisafety уже сейчас
Присоединяйтесь к лидерам в области безопасности ИИ и внесите свой вклад в создание надежного будущего — откликайтесь прямо сейчас!
Описание вакансии
The Center for AI Safety (CAIS) is a leading research and advocacy organization focused on mitigating societal-scale risks from AI. We address AI’s toughest challenges through technical research, field-building initiatives, and policy engagement, along with our sister organization, Center for AI Safety Action Fund.
As a Senior Research Scientist here, you will lead and execute high-impact research that advances the safety and reliability of frontier AI systems, taking ownership of ambitious open problems and seeing them through to publication. We expect senior scientists to set a high bar for research quality and push the team’s thinking forward. You’ll design and run experiments on large language models, build the tooling needed to train and evaluate models at scale, and turn results into publishable research. You’ll collaborate closely with CAIS researchers and external academic and commercial partners, using our compute cluster to run large-scale training and evaluation. The work spans areas like AI honesty, robustness, transparency, and trojan/backdoor behaviors, aimed at reducing real-world risks from advanced AI systems.
Key Responsibilities Include:
- Pursue high-value research directions with limited guidance.
- Own end-to-end research experiments with full accountability for quality and outcomes.
- Train and fine-tune large transformer models across domains.
- Build and maintain datasets and benchmarks.
- Run distributed training and evaluation at scale.
- Lead the writing and publication process on key papers, including driving submissions to top conferences.
- Collaborate with researchers and external partners while contributing to shared research direction, responding quickly in research cycles, and elevating the quality of the team’s work.
You might be a good fit if you:
- Have a Ph.D. in computer science, machine learning, or a related field with 5+ years of related research experience.
- Are familiar with relevant frameworks and libraries (e.g., PyTorch and Hugging Face).
- Have extensive experience launching and training distributed ML jobs.
- Communicate clearly and promptly with teammates.
- Have an extremely strong publication record, with many first-authored work at top venues (NeurIPS, ICML, ICLR, ACL, etc.).
Know someone who could be a great fit for this role? Submit their details through our Referral Form. If we end up hiring your referral, you’ll receive a $1,500 bonus once they’ve been with CAIS for 90 days.
The Center for AI Safety is an Equal Opportunity Employer. We consider all qualified applicants without regard to race, color, religion, sex, sexual orientation, gender identity or expression, national origin, ancestry, age, disability, medical condition, marital status, military or veteran status, or any other protected status in accordance with applicable federal, state, and local laws. In alignment with the San Francisco Fair Chance Ordinance, we will consider qualified applicants with arrest and conviction records for employment.
If you require a reasonable accommodation during the application or interview process, please contact contact@safe.ai.
We value diversity and encourage individuals from all backgrounds to apply.
Создайте идеальное резюме с помощью ИИ-агента

Навыки
- PyTorch
- Machine Learning
- AI Safety
- Large Language Models
- Research
- Transformers
- Hugging Face
- Distributed Training
Возможные вопросы на собеседовании
Проверка глубины понимания специфики безопасности ИИ и умения работать с современными архитектурами.
Опишите ваш опыт выявления и смягчения 'троянских' (backdoor) поведений в больших языковых моделях. Какие методы защиты вы считаете наиболее перспективными?
Оценка навыков работы с инфраструктурой, что критично для данной роли.
Расскажите о самом сложном случае отладки распределенного обучения на большом кластере GPU. Как вы оптимизировали использование ресурсов?
Проверка способности кандидата самостоятельно генерировать и проверять гипотезы.
Если бы у вас был неограниченный доступ к вычислительным мощностям CAIS, какое конкретное открытое исследование в области интерпретируемости ИИ вы бы возглавили?
Оценка навыков научной коммуникации и лидерства.
Как вы подходите к процессу написания статей для конференций уровня ICLR/NeurIPS, когда работаете в коллаборации с внешними академическими партнерами?
Проверка соответствия миссии организации.
Как вы оцениваете баланс между производительностью модели и её безопасностью (alignment)? В каких случаях вы бы рекомендовали не публиковать результаты исследования из соображений безопасности?
Похожие вакансии
Senior MLOps Engineer (Platform Development / LLMOps)
Data Scientist Senior (Part-time)
Senior Data инженер
Senior MLOps
Data Engineer / SAP HANA Developer (Senior)
MLOps Engineer (ML pipelines / Kubernetes / Airflow)
1000+ офферов получено
Устали искать работу? Мы найдём её за вас
Quick Offer улучшит ваше резюме, подберёт лучшие вакансии и откликнется за вас. Результат — в 3 раза больше приглашений на собеседования и никакой рутины!
- Страна
- США
- Зарплата
- 200 000 $ – 250 000 $