- Страна
- Колумбия
Откликайтесь
на вакансии с ИИ

Data Engineer - GCP
Позиция в крупной международной компании с хорошими возможностями для профессионального роста. Стек технологий актуален, а работа в мультикультурной среде добавляет привлекательности вакансии.
Сложность вакансии
Роль требует глубоких знаний GCP и опыта работы с ETL-процессами более 3 лет. Сложность обусловлена необходимостью владения широким стеком технологий, включая Spark, Python для ML и опыт работы с разнообразными источниками данных.
Анализ зарплаты
Зарплата в вакансии не указана, но рыночные оценки для Data Engineer в Колумбии показывают стабильный рост. Предложенный диапазон соответствует средним ставкам для специалистов с опытом работы от 3 лет в международном секторе.
Сопроводительное письмо
I am writing to express my strong interest in the Data Engineer - GCP position at NEORIS. With over three years of experience in SQL and Python-based ETL development, I have a proven track record of building robust data pipelines and integrating diverse data sources, including SQL Server, Oracle, and Snowflake. My background in preparing high-quality datasets for Machine Learning models aligns perfectly with your requirements for data cleansing, wrangling, and annotation.
Throughout my career, I have focused on leveraging cloud technologies to optimize data workflows. My experience with GCP, combined with a solid understanding of Spark for distributed processing and CI/CD tools like Jenkins and Azure Pipelines, allows me to deliver scalable and automated data solutions. I am particularly drawn to NEORIS's multicultural startup culture and its reputation as a digital accelerator, and I am eager to contribute my technical skills to your Data and Analytics team.
Составьте идеальное письмо к вакансии с ИИ-агентом

Откликнитесь в neoris уже сейчас
Присоединяйтесь к команде NEORIS и создавайте инновационные решения на базе GCP для крупнейших мировых компаний!
Описание вакансии
EPAM NEORIS is a Digital accelerator that helps companies enter the future, having 20 years of experience as Digital Partners of some of the largest companies in the world. We have more than 4,000 professionals in 11 countries, with our multicultural startup culture where we cultivate innovation, continuous learning to create high-value solutions for our clients.
We are looking for a Data Engineer - GCP
Requirements:
- Data Ingestion
- + 3 years SQL (ETL, Complex Database Scripting)
- Data Extraction from various sources (Files, Plans, Excel, MS SQL / Oracle / Snowflake / Hana / SAP ECC / ERPs) (Structured Data / Unstructured Data) (At least 3 different types)
- Desirable: Spark (ETLS, Distributed Systems for High Data Volumes)
Data Integration & Transformation (Data Pipelines) (Automated ETL Process)
- + 3 years Python (ETLs, Pipelines) for Machine Learning
- Experience in data preparation for Data Science teams, from the review of Sources, their Cleaning, Integration and Data Transformation.
- Tagging Data Sets (Data Annotation Toolset) GCP
- Experience in Transformations for Model Types (Supervised (Labels delivered) / Unsupervised (model finds patterns))
- Experience creating data ingestion processes to models, to generate predictions.
- 2 years Data Cleansing
- Data Wrangling
- Data Cleansing
- Data Quality
Cloud computing
- · + 2 years GCP
- · API Management, Azure Pipelines, Log Analytics, Azure Functions, Databricks, Storage – SQL Azure / CosmosDB / Table Storage / Blob Storage)
- GIT: GitHub, BitBucket.
- CI/CD, Jenkins, Azure Pipelines, Airflow.
Bigdata
- Spark, Hadoop, among others
- NoSQL (Mongo, Cosmos)
We offer:
- Professional growth
- Dynamic work environment
- Attractive benefits plan
- Benefits of law and superiors
Come and meet us on: http://www.neoris.com, on Facebook, LinkedIn, Twitter, or Instagram @NEORIS.
Brenda Catzin
#LI-BC2
Создайте идеальное резюме с помощью ИИ-агента

Навыки
- GCP
- SQL
- Python
- ETL
- Spark
- Machine Learning
- Data Pipelines
- Snowflake
- Oracle
- SAP ECC
- Data Cleansing
- Data Wrangling
- Azure Pipelines
- Jenkins
- Airflow
- Hadoop
- NoSQL
- MongoDB
- Cosmos DB
- GitHub
- BitBucket
Возможные вопросы на собеседовании
Проверка практического опыта работы с облачной инфраструктурой Google.
Расскажите о вашем опыте построения ETL-процессов именно в GCP. Какие сервисы (например, Dataflow, BigQuery) вы использовали чаще всего?
Оценка навыков оптимизации обработки больших данных.
В каких случаях вы бы предпочли использовать Spark вместо стандартных SQL-скриптов для трансформации данных?
Проверка понимания специфики подготовки данных для машинного обучения.
Как вы подходите к процессу очистки и разметки данных (Data Annotation) для моделей контролируемого обучения (Supervised Learning)?
Оценка навыков работы с CI/CD и автоматизацией.
Опишите ваш опыт настройки CI/CD пайплайнов для дата-проектов с использованием Jenkins или Azure Pipelines.
Проверка умения работать с неструктурированными данными.
С какими типами неструктурированных данных вы работали и какие инструменты использовали для их извлечения и интеграции?
Похожие вакансии
Data Analytics Manager
Analytics Engineer, People Analytics
Operations Data Analyst
DATA ANALYST I - INTER SEGUROS
DATABASE SPECIALIST I
Analista de Migração de Dados
1000+ офферов получено
Устали искать работу? Мы найдём её за вас
Quick Offer улучшит ваше резюме, подберёт лучшие вакансии и откликнется за вас. Результат — в 3 раза больше приглашений на собеседования и никакой рутины!
- Страна
- Колумбия