Откликайтесь
на вакансии с ИИ

Senior Data Engineer
Исключительная возможность поработать в одном из самых успешных крипто-стартапов (Ethena) над масштабируемым продуктом. Высокие требования компенсируются интересными задачами и значимым влиянием на продукт.
Сложность вакансии
Высокая сложность обусловлена жесткими дедлайнами (MVP за 60 дней), специфическим стеком (Tardis, крипто-данные) и требованием экспертных знаний в облачной инфраструктуре и потоковой обработке данных.
Анализ зарплаты
Зарплата не указана, но для Senior Data Engineer в топовых крипто-проектах уровня Ethena Labs рыночные ставки значительно выше средних по рынку, часто включая опционы или токены проекта.
Сопроводительное письмо
Составьте идеальное письмо к вакансии с ИИ-агентом

Откликнитесь в Ethena Labs уже сейчас
Присоединяйтесь к Ethena Labs, чтобы создавать инфраструктуру для самого быстрорастущего синтетического доллара в криптоиндустрии!
Описание вакансии
Senior Data Engineer
Full-time/Company: Ethena Labs
Who We Are and What We are Doing:
Ethena Labs is actively building and deploying a suite of groundbreaking digital dollar products aiming to upgrade money into the internet era.
Our flagship product, USDe, is a synthetic dollar backed by digital assets, and takes the novel approach of using a delta-neutral hedged basis strategy to maintain its peg. This product scaled from zero to $15b in 18 months.
What You’ll Do
- Rapidly spin up the cloud environment. Deliver working historical backfill pipelines from Tardis.dev into a queryable database.
- Deliver a real-time Tardis WebSocket pipeline, ensuring data is normalized, cached for live consumption, accurate, replayable, and queryable by Day 60.
- Ensure all pipelines are idempotent, retryable, and use exactly-once semantics. Implement full CI/CD, Terraform, automated testing, and secrets management.
- Implement proper observability (structured logs, metrics, dashboards, alerting) from day one. Provide immediate self-service access to the MVP database for Trading and BI teams via tools like Tableau/Metabase, and through simple internal REST APIs.
- Develop specialized timeseries data, including USDe backing-asset and a full opportunity-surface timeseries for Delta-neutral/lending/borrow opportunities.
Ingest data from additional sources (Kaiko, CoinAPI, on-chain via TheGraph/Dune). Plan for 10x+ data growth via schema evolution, partitioning, and performance tuning. Establish enterprise-grade governance, including a data quality framework, RBAC, audit logs, and a semantic layer.
- Create full architecture documentation, runbooks, and a data dictionary. Onboard and mentor future junior staff.
What We’re Looking For
- Proven track record of delivering working, production data in weeks, not months, with the ability to ruthlessly cut scope to hit a 60-day MVP while managing technical debt.
- Have built Tardis historical and real-time pipelines before (or equivalent high-quality crypto market data feeds), understanding specific quirks, rate limits, and WebSocket structures.
- Expert in large-scale, reliable ETL/ELT for financial or market data.
- Fluent in provisioning full environments with Terraform in days and expert in AWS/GCP serverless technologies.
Expert Python and SQL skills and proficiency with time-series databases like TimescaleDB or ClickHouse, ensuring fast queries from day one.
- Advanced knowledge of WebSocket clients, message queues, and low-latency streaming, GitOps, automated testing/deploy and observability practices.
- Significant understanding of stablecoins, lending protocols, and opportunity surface concepts, or a proven ability to ramp up extremely quickly.
Создайте идеальное резюме с помощью ИИ-агента

Навыки
- Python
- SQL
- Terraform
- AWS
- GCP
- ClickHouse
- TimescaleDB
- ETL
- ELT
- CI/CD
- WebSockets
- Tableau
- Metabase
- REST API
- GitOps
Возможные вопросы на собеседовании
Проверка опыта работы со специфическим источником данных, указанным в вакансии.
Расскажите о вашем опыте работы с Tardis.dev. С какими основными сложностями или ограничениями API вы сталкивались при обработке исторических данных и WebSocket-стримов?
Вакансия требует обеспечения семантики 'exactly-once' и идемпотентности.
Как бы вы реализовали семантику доставки 'exactly-once' в реальном времени для WebSocket-пайплайна, учитывая возможные разрывы соединения?
Упоминается необходимость работы с ClickHouse/TimescaleDB и планирование роста данных в 10 раз.
Какие стратегии партиционирования и оптимизации запросов вы примените в ClickHouse для обеспечения высокой производительности при 10-кратном росте объема рыночных данных?
Требуется быстрое развертывание через Terraform.
Опишите ваш подход к организации Terraform-модулей для быстрого развертывания среды с нуля, включая управление секретами и сетевую безопасность.
Роль предполагает работу с финансовыми стратегиями (delta-neutral).
Как вы подходите к валидации качества данных (Data Quality) для финансовых пайплайнов, где ошибки в данных могут привести к неверным торговым решениям?
Похожие вакансии
Data инженер Middle+ Senior
AI/ML Engineer
Senior Data Engineer
Data Scientist (Senior)
Data инженер (Senior)
ML разработчик (Senior)
1000+ офферов получено
Устали искать работу? Мы найдём её за вас
Quick Offer улучшит ваше резюме, подберёт лучшие вакансии и откликнется за вас. Результат — в 3 раза больше приглашений на собеседования и никакой рутины!