- Страна
- Канада
Откликайтесь
на вакансии с ИИ

Développeur de Données
DRW — престижная компания с отличной репутацией работодателя в Канаде. Вакансия предлагает работу на острие технологий (AI, RAG, LLM) в финансовом секторе с сильным социальным пакетом.
Сложность вакансии
Роль требует специфического опыта работы с RAG-системами и векторными базами данных, а также уверенного владения Python и инструментами обработки больших данных (Spark, Ray). Высокая планка ожиданий в DRW и работа в сфере высокочастотного трейдинга добавляют сложности.
Анализ зарплаты
Предлагаемая роль в Монреале соответствует высокому уровню компенсации для специалистов по данным в финтехе. Рыночные оценки для Middle/Senior Data Developer в этом регионе варьируются от 110k до 160k CAD в год.
Сопроводительное письмо
Dear Hiring Team at DRW,
I am writing to express my strong interest in the Data Developer position within your AI and Multi-Asset Systematic Strategies team. With a solid background in building production-grade data pipelines and a deep fascination with Retrieval-Augmented Generation (RAG) systems, I am eager to contribute to DRW's innovative trading environment. My experience with vector databases like Milvus and orchestration tools such as Airflow aligns perfectly with your requirements for architecting scalable solutions for LLM inference and fine-tuning.
Throughout my career, I have focused on optimizing data workflows to ensure high-quality ingestion and low-latency retrieval. I am particularly impressed by DRW's commitment to autonomy and its reputation as a top employer in Canada. I am confident that my technical skills in Python, Spark, and semantic search, combined with my proactive approach to adopting emerging technologies, will allow me to make a significant impact on your AI initiatives. Thank you for considering my application.
Составьте идеальное письмо к вакансии с ИИ-агентом

Откликнитесь в drwfr уже сейчас
Присоединяйтесь к команде лидеров в области ИИ и финтеха в Монреале — подайте заявку в DRW прямо сейчас!
Описание вакансии
DRW est une société de négoce diversifiée avec plus de 3 décennies d'expérience qui réunit une technologie sophistiquée et des personnes exceptionnelles pour opérer sur les marchés du monde entier. Nous valorisons l'autonomie et la capacité à pivoter rapidement pour saisir les opportunités, c'est pourquoi nous opérons en utilisant notre propre capital et en négociant à nos propres risques.
Basée à Chicago et disposant de bureaux aux États-Unis, au Canada, en Europe et en Asie, nous négocions diverses catégories d'actifs, notamment les titres à revenu fixe, les FNB, les actions, les devises, les matières premières et l'énergie sur les principaux marchés mondiaux. Nous avons également tiré parti de notre expertise et de notre technologie pour nous développer dans trois stratégies non traditionnelles : l'immobilier, le capital-risque et les crypto-actifs.
Nous opérons avec respect, curiosité et ouverture d'esprit. Les personnes qui s'épanouissent ici partagent notre conviction que ce n'est pas seulement ce que nous faisons qui compte - c'est la façon dont nous le faisons. DRW est un lieu d'attentes élevées, d'intégrité, d'innovation et de volonté de remettre en question le consensus.
Nous recherchons un dévloppeur de données pour rejoindre notre équipe IA et stratégies systématiques multi-actifs. Cette équipe développe des outils et solutions basés sur l’IA et le machine learning qui soutiennent les équipes à travers l’entreprise ainsi que les chercheurs en IA. Vous concevrez des pipelines de données pour des systèmes RAG, optimiserez les flux d’embeddings et architecturerez des solutions évolutives pour gérer des données analytiques, relationnelles, structurées et non structurées.
Responsabilités :
- Concevoir et développer des pipelines de données pour des systèmes RAG, incluant l’ingestion de documents, le découpage (chunking), la génération d’embeddings et le stockage vectoriel.
- Construire des pipelines d’ingestion pour des sources de données structurées et non structurées vers un "data lake" centralisé, en garantissant des données propres, normalisées et accessibles pour l’analytique, la recherche et les charges de travail en IA.
- Développer des "workflows" de traitement de données pour préparer et optimiser les ensembles de données destinés au fine-tuning et à l’inférence.
- Mettre en place des frameworks de monitoring et d’évaluation pour mesurer la qualité de la récupération, la latence et la performance des systèmes.
- Collaborer avec les ingénieurs ML afin d’optimiser les formats de données et les schémas de stockage pour l’inférence accélérée par GPU.
- Implémenter des stratégies de cache et des systèmes de versionnement des données pour améliorer l’efficacité du serving des modèles.
- Déployer et gérer des bases de données vectorielles, des services d’embeddings et des pipelines de traitement de données.
- Mener des initiatives visant à améliorer la qualité des données, réduire la latence et accroître la précision des systèmes de recherche.
- Se tenir à jour en continu sur les technologies émergentes et les meilleures pratiques en ingénierie des données et en IA.
- Contribuer de manière proactive avec des idées de nouveaux outils, d’améliorations de processus et d’adoption technologique pour faire progresser l’équipe.
Exigences :
- Licence ou maîtrise en informatique, ingénierie des données ou domaine connexe.
- 2 à 5 ans d’expérience dans la conception de systèmes et de pipelines de données en environnement de production.
- Solide expérience avec les architectures RAG, incluant les bases de données vectorielles (Milvus, ChromaDB, Pinecone, Weaviate ou Qdrant).
- Maîtrise de Python avec expérience des plateformes d’orchestration basées sur des DAG (Airflow, Dagster, Prefect ou équivalent).
- Expérience pratique avec les modèles d’embeddings et les systèmes de recherche sémantique.
- Expérience avec des frameworks de traitement de données distribués (Apache Spark, Ray ou Dask).
- Bonne compréhension des techniques d’optimisation de l’inférence LLM et du prompt engineering.
- Familiarité avec Docker, la conteneurisation et les plateformes d’orchestration.
- Solide compréhension des bonnes pratiques en ingénierie des données, incluant la modélisation des données, les patterns ETL/ELT et la qualité des données.
Ce que DRW Montréal a à vous offrir:
- Reconnue comme l'un des meilleurs employeurs au Canada depuis 8 ans
- Engagement en faveur de la formation et du développement continus
- Un ensemble d'avantages et de bénéfices à la pointe de l'industrie
- Centré sur le bien-être des employés et l'équilibre entre vie professionnelle et vie privée
- Initiatives communautaires, programme de volontariat et possibilités de redonner
Découvrez tous nos avantages à: https://drw.com/fr/work-at-drw/avantages-montreal
Pour plus d'informations sur les activités de traitement de DRW et sur l'utilisation que nous faisons des données des postulants, veuillez lire notre Politique de confidentialité ici https://drw.com/fr/politique-de-confidentialite/.
Résidents de la Californie, veuillez consulter l’avis de confidentialité de la Californie pour obtenir des informations sur certains droits légaux ici https://drw.com/fr/politique-de-confidentialite-californie.
\* Le masculin est utilisé sans discrimination dans le seul but d’alléger le texte.
[#LI-KS1]
Создайте идеальное резюме с помощью ИИ-агента

Навыки
- Python
- RAG
- Vector Database
- Milvus
- ChromaDB
- Pinecone
- Weaviate
- Qdrant
- Apache Airflow
- Dagster
- Prefect
- Apache Spark
- Ray
- Dask
- Docker
- ETL
- ELT
- Machine Learning
- LLM
Возможные вопросы на собеседовании
Проверка практического опыта работы с ключевой технологией, указанной в вакансии.
Расскажите о вашем опыте проектирования RAG-систем: какие векторные базы данных вы использовали и как решали проблему качества поиска (retrieval quality)?
Оценка навыков работы с высоконагруженными системами и инструментами оркестрации.
Как вы подходите к проектированию DAG в Airflow или Dagster для обработки неструктурированных данных в реальном времени?
Проверка понимания специфики работы с ИИ-моделями на уровне данных.
Какие стратегии кэширования и версионирования данных вы бы внедрили для оптимизации инференса LLM, ускоренного GPU?
Оценка навыков обработки больших данных.
В каких случаях вы предпочтете использовать Apache Spark вместо Ray или Dask для подготовки датасетов под fine-tuning?
Проверка умения работать с качеством данных.
Как вы организуете мониторинг качества данных в пайплайне, чтобы предотвратить попадание 'шума' в векторное хранилище?
Похожие вакансии
MLOps Engineer (ML pipelines / Kubernetes / Airflow)
Senior Data инженер
Senior MLOps Engineer (Platform Development / LLMOps)
Data Engineer / SAP HANA Developer (Senior)
Data Scientist в RecSys
Data Engineering Team Lead (команда Clickhouse)
1000+ офферов получено
Устали искать работу? Мы найдём её за вас
Quick Offer улучшит ваше резюме, подберёт лучшие вакансии и откликнется за вас. Результат — в 3 раза больше приглашений на собеседования и никакой рутины!
- Страна
- Канада