Skip to content

wesleyolvr/wesleyolvr

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

8 Commits
 
 

Repository files navigation

Hi there, I'm Wesley Oliveira! 🚀

🇵🇹 Ler em Português | 🇺🇸 Read in English

🇵🇹 Versão em Português

Engenheiro de Dados | AWS & Databricks | Arquitetura Lakehouse

Sou um Engenheiro de Dados com 6 anos de experiência focado em preencher a lacuna entre ambientes caóticos e dados bem estruturados. A minha especialidade é desenhar, construir e manter pipelines de dados altamente escaláveis e arquiteturas resilientes.

Onde a maioria dos pipelines falha, eu atuo: o meu principal fator de diferenciação é a Ingestão de Dados de Alta Complexidade (web scraping avançado, engenharia reversa de APIs e superação de proteções estritas). Garanto que os dados fluam de forma contínua e segura para arquiteturas modernas orientadas a eventos (Event-Driven) e ecossistemas Lakehouse.

🛠️ Stack Tecnológica & Arsenal

  • Cloud & IaC (Infraestrutura como Código): AWS (S3, ECS, Lambda, SQS, CloudWatch), Terraform
  • Processamento de Dados: Apache Spark (PySpark), Databricks, Delta Lake
  • Orquestração e Fluxo de Trabalho: Apache Airflow (MWAA), Celery
  • Engenharia de Software: Python (Avançado), CI/CD (GitHub Actions, Jenkins), Docker, TDD
  • Mensageria & Arquitetura Orientada a Eventos: RabbitMQ, Amazon SQS, Dead Letter Queues (DLQs)

📊 O que estou a construir atualmente

  • Estruturação de pipelines End-to-End com base na Medallion Architecture (Bronze/Silver/Gold).
  • Processamento de mais de 2 milhões de registos diários com recurso a arquiteturas orientadas a eventos na AWS.
  • Desenvolvimento do DataRadar: Um pipeline Lakehouse que orquestra dados do Reddit e integra modelos de inteligência artificial (Llama 3.3) para extração de insights através da Groq API.

🏆 Certificações

  • Databricks Certified Databricks Fundamentals (2026)

📫 Vamos conectar!

LinkedIn Email


🇺🇸 English Version

Data Engineer | AWS & Databricks | Lakehouse Architecture

I am a Data Engineer with 6 years of experience bridging the gap between chaotic environments and structured data. I specialize in designing, building, and maintaining highly scalable data pipelines and resilient architectures.

Where most pipelines fail, I thrive: my core differentiator is High-Complexity Data Ingestion (advanced web scraping, API reverse engineering, and bypassing strict protections), ensuring data flows continuously into modern Event-Driven and Lakehouse architectures.

🛠️ Tech Stack & Arsenal

  • Cloud & IaC: AWS (S3, ECS, Lambda, SQS, CloudWatch), Terraform
  • Data Processing: Apache Spark (PySpark), Databricks, Delta Lake
  • Orchestration & Workflow: Apache Airflow (MWAA), Celery
  • Software Engineering: Python (Advanced), CI/CD (GitHub Actions, Jenkins), Docker, TDD
  • Messaging & Event-Driven: RabbitMQ, Amazon SQS, Dead Letter Queues (DLQs)

📊 What I'm currently working on

  • Architecting End-to-End Medallion (Bronze/Silver/Gold) pipelines.
  • Processing over 2 million daily records using Event-Driven architectures on AWS.
  • Building DataRadar: A Lakehouse pipeline orchestrating Reddit data with LLM (Llama 3.3) insights via Groq API.

🏆 Certifications

  • Databricks Certified Databricks Fundamentals (2026)

📫 Let's Connect!

LinkedIn Email


"Building the foundation so that data can drive the future."

About

No description, website, or topics provided.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors