Откликайтесь
на вакансии с ИИ

Senior Data Engineer (Finance & Regulatory Reporting)
Сильная вакансия в перспективной нише крипто-финтеха с современным стеком и полной удаленкой. Четкие требования и понятные задачи делают ее привлекательной для опытных инженеров.
Сложность вакансии
Роль требует глубоких знаний в области финансов и регуляторной отчетности, а также владения современным стеком (dbt, Airflow, Spark). Высокая ответственность за точность данных в регулируемой среде повышает порог входа.
Анализ зарплаты
Зарплата в объявлении не указана, но для Senior Data Engineer в международном финтехе рыночный диапазон составляет $5000–$8000. Utorg заявляет о конкурентной оплате, что обычно соответствует этим ожиданиям.
Сопроводительное письмо
I am writing to express my strong interest in the Senior Data Engineer position at Utorg. With over five years of experience in data engineering, specifically within the fintech and payments sectors, I have developed a deep expertise in building robust ETL/ELT pipelines and deterministic reconciliation processes. My background aligns perfectly with your need for a hands-on engineer to own financial and regulatory reporting pipelines.
In my previous roles, I have extensively used the modern data stack, including dbt, Airflow, and Snowflake, to manage complex financial data models. I am particularly experienced in implementing data quality checks and lineage tracking to ensure auditability and compliance—skills that are critical for a regulated entity like Utorg. I am excited about the opportunity to contribute to your mission-critical infrastructure and help bridge the gap between traditional finance and blockchain.
Составьте идеальное письмо к вакансии с ИИ-агентом

Откликнитесь в Utorg уже сейчас
Присоединяйтесь к Utorg и создавайте надежную инфраструктуру данных для будущего крипто-финтеха!
Описание вакансии
#Vacancy #Удаленно #DataEngineer #Finance #Fintech #Crypto #Remote #Payments #dbt #Airflow #Kafka #Spark #Snowflake
**Senior Data Engineer (Finance & Regulatory Reporting)
Company: Utorg | Work format: Full-time, 100% Remote**
About the Role:
We are looking for a hands-on Senior Data Engineer to design and own the pipelines that power financial close, regulatory reporting and reconciliation at Utorg - a regulated crypto-fintech bridging traditional finance and blockchain.
What you will do:
Design and implement ETL/ELT pipelines ingesting transaction, ledger and reference data from internal systems and external providers.
Build deterministic reconciliation processes and exception workflows for accounting and regulatory reporting.
Define canonical finance data models; maintain schemas (Parquet / Avro / JSON).
Implement data quality checks, lineage tracking and automated pipeline tests.
Optimise pipelines for cloud cost and runtime performance.
Support audits and regulatory submissions with auditable, traceable data.
Stack you will work with:
Orchestration: Apache Airflow or Prefect
Transformation: dbt (data build tool)
Processing: Apache Spark
Warehouses: Snowflake / BigQuery / Redshift
Streaming: Apache Kafka or AWS Kinesis
Serialization formats: Parquet, Avro, JSON
Cloud: AWS, GCP or Azure (containerisation, scalable processing patterns)
Languages: SQL (advanced), Python
DevOps: CI/CD for data deployments, schema registry, metadata cataloguing
Must-haves:5+ years in data engineering with significant exposure to finance or regulatory reporting in fintech/payments.
Strong SQL and data transformation skills across the full modern data stack listed above.
Practical knowledge of RBAC, encryption and audit requirements in regulated environments.
English B2+ and fluent Russian.
Nice to have:
Familiarity with GL concepts, reconciliations, accruals and payments regulatory regimes.
Experience with KYC/AML data pipelines or crypto custody reconciliation.
Benefits:Work from anywhere in the world.
Competitive salary with performance-based reviews.
Ownership of mission-critical data infrastructure where accuracy is non-negotiable.
Please apply with a CV and a short note describing a data pipeline or data platform challenge you led — what the problem was, your specific role, the decisions you made and the measurable outcome: Откликнуться
Создайте идеальное резюме с помощью ИИ-агента

Навыки
- dbt
- Apache Airflow
- Apache Spark
- Snowflake
- BigQuery
- Amazon Redshift
- Apache Kafka
- Amazon Kinesis
- SQL
- Python
- AWS
- Google Cloud Platform
- Azure
- CI/CD
Возможные вопросы на собеседовании
Проверка опыта работы с финансовыми данными и понимания специфики сверки.
Расскажите о самом сложном процессе реконсиляции (сверки), который вы проектировали. С какими расхождениями вы сталкивались?
Оценка навыков обеспечения качества и аудируемости данных.
Как вы обеспечиваете прослеживаемость (lineage) и неизменность данных для прохождения внешнего аудита?
Проверка владения основным инструментом трансформации.
Какие подходы в dbt вы используете для оптимизации производительности при работе с очень большими объемами данных в Snowflake/BigQuery?
Оценка архитектурного мышления в контексте облачных затрат.
Как вы подходите к оптимизации стоимости облачных вычислений при проектировании Spark-пайплайнов?
Проверка понимания безопасности в финтехе.
Как вы реализуете ролевую модель доступа (RBAC) и шифрование чувствительных данных (PII) внутри хранилища?
Похожие вакансии
ML разработчик (Senior)
Data инженер (Senior)
MLOps Engineer
Инженер Mlops (Senior)
Data инженер Middle+ Senior
Senior MLOps Engineer (Platform Development / LLMOps)
1000+ офферов получено
Устали искать работу? Мы найдём её за вас
Quick Offer улучшит ваше резюме, подберёт лучшие вакансии и откликнется за вас. Результат — в 3 раза больше приглашений на собеседования и никакой рутины!