yandex
bees
Страна
Бразилия
+500% приглашений

Откликайтесь
на вакансии с ИИ

Ускорим процесс поиска работы
ГибридПолная занятость

Data Engineer | BEES Personalization

Оценка ИИ

Позиция в крупной международной компании с отличным социальным пакетом и современным стеком технологий. Работа в подразделении BEES дает возможность влиять на цифровизацию глобального бизнеса, хотя требуется присутствие в офисе в Бразилии.


Вакансия из Quick Offer Global, списка международных компаний
Пожаловаться

Сложность вакансии

ЛегкоСложно
Оценка ИИ

Роль требует уверенного владения стеком Big Data (PySpark, Scala) и понимания принципов проектирования ПО. Сложность обусловлена необходимостью работать с большими объемами данных в глобальной компании и высокими требованиями к оптимизации производительности.

Анализ зарплаты

Медиана12 000 R$
Рынок9 000 R$ – 16 000 R$
Оценка ИИ

Зарплата для Data Engineer в Бразилии (регион Сан-Паулу/Кампинас) сильно варьируется в зависимости от опыта. Предложение AB InBev обычно соответствует верхнему сегменту рынка для специалистов среднего уровня, учитывая обширный пакет бонусов и льгот.

Сопроводительное письмо

I am writing to express my interest in the Data Engineer position within the BEES Personalization team. With a strong background in building scalable ETL/ELT pipelines and a deep proficiency in Python, PySpark, and SQL, I am confident in my ability to contribute to AB InBev's digital transformation. My experience in designing data models and optimizing query performance aligns perfectly with your goal of making smarter, data-driven decisions for your global B2B platform.

Throughout my career, I have focused on implementing robust data integration solutions and automating workflows using orchestration tools like Apache Airflow. I am particularly impressed by BEES' commitment to growth and innovation, and I am eager to apply my skills in cloud computing and software design principles to enhance your data infrastructure. I look forward to the possibility of discussing how my technical expertise and analytical mindset can support the Personalization team's objectives.

+250% к просмотрам

Составьте идеальное письмо к вакансии с ИИ-агентом

Составьте идеальное письмо к вакансии с ИИ-агентом

Откликнитесь в bees уже сейчас

Присоединяйтесь к команде BEES и создавайте инновационные решения для персонализации в глобальном масштабе!

Описание вакансии

About AB InBev

AB InBev is the leading global brewer and one of the top 5 consumer goods companies in the world. With over 500 beer brands, we are the number one or two in many of the main beer markets worldwide, including North America, Latin America, Europe, Asia, and Africa.

About ABI Growth Group

Created in 2022, the Growth Group unifies our business-to-business (B2B), direct-to-consumer (DTC), Sales & Distribution, and Marketing teams. By bringing together global tech and commercial functions, the Growth Group enables us to maximize the use of data and drive AB InBev's digital transformation and organic growth around the world.

About BEES:

As a tech cell of our organization, we have a simple goal: to grow. Grow as people, as professionals, and as a company. To achieve this, we use technology to create digital solutions that simplify our customers’ lives, make their decisions smarter, and their businesses more profitable. With offices in São Paulo and Campinas, we encourage our team to attend key events and meaningful in-person meetings throughout the year.

Responsibilities:

  • Implement ETL/ELT solutions and data integration between multiple systems and data sources.
  • Design, implement, and maintain data pipelines to ingest, store, and process large volumes of data.
  • Collaborate with other teams to ensure data security and compliance.
  • Design, develop, and implement solutions to optimize the performance and scalability of data processing systems.

Requirements and qualifications:

  • Bachelor's degree in Computer Science, Computer Engineering, Information Systems, Systems Analysis and Development, or similar;
  • Intermediate English;
  • Apply knowledge of data pipeline concepts and tools to implement data transformation, cleaning, and aggregation tasks.
  • Use data pipeline frameworks and libraries to automate data processing tasks and optimize workflows.
  • Follow best practices for developing data pipelines, including version control, testing, and thorough documentation.
  • Apply programming skills in Python, PySpark, Scala, and SQL to effectively manipulate and transform data.
  • Understand and utilize cloud computing platforms and services offered by providers such as AWS, Azure, and Google Cloud.
  • Develop data pipelines using orchestration frameworks (e.g., Apache Airflow, Luigi, Mage, Databricks Workflows), integrating with PySpark and/or Scala as needed.
  • Understand and apply software design principles to data engineering projects.
  • Apply data modeling techniques to design efficient and scalable data models.
  • Optimize PySpark and SQL query performance, considering data volume, query complexity, and system resources.
  • Use data tools for ingestion, transformation, analysis, and visualization.

Soft Skills:

  • Logical reasoning and analytical skills;
  • Meeting deadlines and delivering quality work;
  • Effective and transparent communication with other teams and coworkers;
  • Communication and interpersonal skills to present and discuss cases with other involved areas;
  • Autonomy in performing tasks;

Nice to Have:

  • Develop and maintain APIs for data exchange between applications.
  • Experience with cloud computing platforms (AWS, Azure, Google Cloud) and their services.
  • Use automation frameworks and tools such as Azure DevOps, Terraform, and GitHub Actions.

Benefits:

  • Performance-based bonus\*
  • Attendance bonus\*
  • Private pension plan
  • Meal allowance
  • Casual office and dress code
  • Days off\*
  • Health, dental, and life insurance
  • Medicines discounts
  • WellHub partnership
  • Childcare subsides
  • Discounts on Ambev products\*
  • Clube Ben partnership
  • Scholarship\*
  • School materials assurance
  • Language and training platforms
  • Transport allowance

Rules applied\*

+400% к собеседованиям

Создайте идеальное резюме с помощью ИИ-агента

Создайте идеальное резюме с помощью ИИ-агента

Навыки

  • AWS
  • Azure
  • Python
  • Terraform
  • SQL
  • GitHub Actions
  • PySpark
  • Databricks
  • ETL
  • Data Modeling
  • Apache Airflow
  • Google Cloud
  • Scala

Возможные вопросы на собеседовании

Проверка навыков оптимизации в распределенных системах, что критично для работы с PySpark.

Как бы вы оптимизировали PySpark-джоб, который сталкивается с проблемой перекоса данных (data skew)?

Оркестрация является ключевым требованием вакансии.

Опишите ваш опыт работы с Apache Airflow: как вы обрабатываете зависимости между задачами и управляете сбоями в пайплайнах?

Вакансия предполагает работу с облачными платформами.

Какие стратегии управления затратами и масштабирования вы применяли при работе с облачными хранилищами данных (например, S3 или Azure Data Lake)?

Важно для обеспечения качества и поддерживаемости кода.

Как вы внедряете практики CI/CD и автоматизированного тестирования в процессы разработки дата-пайплайнов?

Проверка архитектурного мышления и навыков моделирования.

Расскажите о случае, когда вам пришлось проектировать схему данных для высоконагруженной аналитической системы. Какие компромиссы вы учитывали?

Похожие вакансии

Omega Solutions
316 000 ₽ – 368 000 ₽

Middle+ ML разработчик

MiddleУдалённоРоссия
Python · MLOps · PySpark · SQL · PyTorch · TensorFlow · Docker · Kubernetes · FastAPI · MLflow · Airflow · DVC · GitLab CI · Scikit-learn · Pandas · NumPy
+16 навыков
Volna.tech
386 000 ₽ – 436 000 ₽

Senior MLOps Engineer (Platform Development / LLMOps)

SeniorУдалённоРоссия
Docker · Helm · Jenkins · GitLab CI · Python · Airflow · JupyterHub · MLflow · Seldon · CUDA · Kubernetes · Hadoop · Spark · Kafka · ELK · LLMOps · RAG
+17 навыков
Strikt
до 300 000 ₽

Data Scientist Senior (Part-time)

SeniorУдалённоРоссия
Python · Machine Learning · Time Series Analysis · SQL · Pandas · NumPy · Matplotlib · Scikit-learn · Jupyter Notebook · Clustering · K-Means · DBSCAN
+12 навыков
Omega Solutions
2 000 ₽ – 2 700 ₽

Senior Data инженер

SeniorУдалённоРоссия
Java · Groovy · Hadoop · ETL · DWH · SQL · Docker · Apache NiFi · Airflow · SAP HANA · Apache Kafka · Apache Iceberg · Python · Go · Linux · Ansible · Zabbix · HDFS · Hive
+19 навыков
Centicore
340 000 ₽ – 380 000 ₽

Senior MLOps

SeniorУдалённоРоссия
Docker · Helm · Jenkins · GitLab CI · Python · Airflow · JupyterHub · MLflow · Seldon Core · CUDA · Kubernetes · Hadoop · Apache Spark · Apache Kafka · ELK stack
+15 навыков
LIAN
260 000 ₽ – 350 000 ₽

Data Engineer / SAP HANA Developer (Senior)

SeniorУдалённоРоссия
SAP HANA · Python · Go · Java · C++ · Rust · Apache Iceberg · Apache Paimon · Apache Kafka · SQL · SRE · Observability
+12 навыков
более 1000 офферов получено
4.9

1000+ офферов получено

Устали искать работу? Мы найдём её за вас

Quick Offer улучшит ваше резюме, подберёт лучшие вакансии и откликнется за вас. Результат — в 3 раза больше приглашений на собеседования и никакой рутины!

bees
Страна
Бразилия