- Страна
- Бразилия
Откликайтесь
на вакансии с ИИ

Data Engineer | BEES Data
Отличная позиция в технологическом подразделении мирового гиганта с сильным социальным пакетом и бонусами. Работа в BEES предлагает реальные возможности для профессионального роста и участия в масштабной цифровой трансформации.
Сложность вакансии
Роль требует глубоких знаний в области инженерии данных, включая владение PySpark, Scala и облачными платформами. Высокая планка обусловлена необходимостью работы с огромными объемами данных в глобальной компании и требованием продвинутого английского языка.
Анализ зарплаты
Предлагаемая роль в Campinas/São Paulo соответствует уровню Middle/Senior Data Engineer. Рыночные оценки для международных технологических хабов в Бразилии показывают, что зарплаты в таких компаниях, как AB InBev, обычно находятся в верхнем дециле местного рынка.
Сопроводительное письмо
I am writing to express my strong interest in the Data Engineer position at BEES. With a solid background in building robust ETL/ELT pipelines and a deep understanding of the AB InBev ecosystem's scale, I am confident in my ability to contribute to your digital transformation goals. My expertise in Python, PySpark, and SQL, combined with hands-on experience in cloud environments, aligns perfectly with the technical requirements of your tech cell.
Throughout my career, I have focused on designing scalable data architectures and optimizing query performance to handle large-scale datasets. I am particularly drawn to BEES because of your commitment to using technology to simplify customer lives and drive business profitability. I am eager to bring my analytical skills and autonomy to your team in Campinas/São Paulo and help maintain the high standards of data security and compliance that AB InBev is known for.
Составьте идеальное письмо к вакансии с ИИ-агентом

Откликнитесь в bees уже сейчас
Присоединяйтесь к команде BEES и создавайте инновационные дата-решения для мирового лидера индустрии напитков!
Описание вакансии
About AB InBev
AB InBev is the leading global brewer and one of the top 5 consumer goods companies in the world. With over 500 beer brands, we are the number one or two in many of the main beer markets worldwide, including North America, Latin America, Europe, Asia, and Africa.
About ABI Growth Group
Created in 2022, the Growth Group unifies our business-to-business (B2B), direct-to-consumer (DTC), Sales & Distribution, and Marketing teams. By bringing together global tech and commercial functions, the Growth Group enables us to maximize the use of data and drive AB InBev's digital transformation and organic growth around the world.
About BEES:
As a tech cell of our organization, we have a simple goal: to grow. Grow as people, as professionals, and as a company. To achieve this, we use technology to create digital solutions that simplify our customers’ lives, make their decisions smarter, and their businesses more profitable. With offices in São Paulo and Campinas, we encourage our team to attend key events and meaningful in-person meetings throughout the year.
What you'll do:
- Implement ETL/ELT solutions and data integration between multiple systems and data sources.
- Design, implement, and maintain data pipelines to ingest, store, and process large volumes of data.
- Collaborate with other teams to ensure data security and compliance.
- Design, develop, and implement solutions to optimize the performance and scalability of data processing systems.
What you'll need:
- Bachelor's degree in Computer Science, Computer Engineering, Information Systems, Systems Analysis and Development, or similar;
- Advanced English;
- Apply knowledge of data pipeline concepts and tools to implement data transformation, cleaning, and aggregation tasks.
- Use data pipeline frameworks and libraries to automate data processing tasks and optimize workflows.
- Follow best practices for developing data pipelines, including version control, testing, and thorough documentation.
- Apply programming skills in Python, PySpark, Scala, and SQL to effectively manipulate and transform data.
- Understand and utilize cloud computing platforms and services offered by providers such as AWS, Azure, and Google Cloud.
- Develop data pipelines using orchestration frameworks (e.g., Apache Airflow, Luigi, Mage, Databricks Workflows), integrating with PySpark and/or Scala as needed.
- Understand and apply software design principles to data engineering projects.
- Apply data modeling techniques to design efficient and scalable data models.
- Optimize PySpark and SQL query performance, considering data volume, query complexity, and system resources.
- Use data tools for ingestion, transformation, analysis, and visualization.
Soft Skills:
- Logical reasoning and analytical skills;
- Meeting deadlines and delivering quality work;
- Effective and transparent communication with other teams and coworkers;
- Communication and interpersonal skills to present and discuss cases with other involved areas;
- Autonomy in performing tasks;
Nice to Have:
- Develop and maintain APIs for data exchange between applications.
- Experience with cloud computing platforms (AWS, Azure, Google Cloud) and their services.
- Use automation frameworks and tools such as Azure DevOps, Terraform, and GitHub Actions.
What We Offer:
- Performance-based bonus\*
- Attendance bonus\*
- Private pension plan
- Meal allowance
- Casual office and dress code
- Days off\*
- Health, dental, and life insurance
- Medicines discounts
- WellHub partnership
- Childcare subsides
- Discounts on Ambev products\*
- Clube Ben partnership
- Scholarship\*
- School materials assurance
- Language and training platforms
- Transport allowance
Rules applied\*
Создайте идеальное резюме с помощью ИИ-агента

Навыки
- AWS
- Azure
- Python
- Terraform
- SQL
- GitHub Actions
- PySpark
- Databricks
- ETL
- Data Modeling
- Apache Airflow
- Google Cloud
- Scala
Возможные вопросы на собеседовании
Проверка навыков оптимизации, критически важных для больших данных AB InBev.
Как бы вы оптимизировали медленно работающий PySpark джоб, который обрабатывает терабайты данных?
Оценка опыта работы с современными инструментами управления рабочими процессами.
Расскажите о вашем опыте работы с Apache Airflow или аналогичными оркестраторами: как вы обрабатываете зависимости и сбои в пайплайнах?
Проверка фундаментальных знаний проектирования баз данных.
Какие подходы к моделированию данных (например, Kimball vs Inmon) вы предпочитаете для построения масштабируемого хранилища данных?
Оценка практического опыта работы с облачной инфраструктурой.
Опишите процесс развертывания дата-пайплайна в облаке (AWS/Azure/GCP) с использованием принципов CI/CD.
Проверка навыков командного взаимодействия и решения конфликтов.
Приведите пример, когда вам приходилось сотрудничать с командой безопасности или аналитиками для обеспечения соответствия данных стандартам. Как вы находили компромисс?
Похожие вакансии
Middle+ ML разработчик
Senior MLOps Engineer (Platform Development / LLMOps)
Data Scientist Senior (Part-time)
Senior Data инженер
Senior MLOps
Data Engineer / SAP HANA Developer (Senior)
1000+ офферов получено
Устали искать работу? Мы найдём её за вас
Quick Offer улучшит ваше резюме, подберёт лучшие вакансии и откликнется за вас. Результат — в 3 раза больше приглашений на собеседования и никакой рутины!
- Страна
- Бразилия