Transformo dados operacionais em ativos analiticos confiaveis para decisao de negocio.
Atuacao tecnica: ETL, Data Warehouse, modelagem dimensional, qualidade de dados e orquestracao de pipelines.
- Estruturo dados brutos em modelos analiticos consistentes para consumo de BI e analytics.
- Construo pipelines ETL reprodutiveis com foco em confiabilidade, rastreabilidade e manutencao.
- Projeto camadas de dados (staging, dimensoes e fatos) para consultas rapidas e metricas confiaveis.
- Mantenho a operacao com monitoramento e melhoria continua de qualidade de dados.
- Contexto: consolidacao de dados de e-commerce para analise confiavel.
- Stack: SQL Server, Python, Docker, Streamlit, modelagem dimensional.
- Evidencias: fluxo
OLTP -> DW, ETL incremental com watermark, dimensoes e fatos monitorados.
- Contexto: consolidacao de arquivos JSON de vendas em base analitica unica.
- Stack: Python, Pandas, ETL batch, CSV, Parquet.
- Evidencias: leitura de varios JSONs, consolidacao em DataFrame e saida em
csv/parquet.
- Contexto: estruturacao de ambiente BI para atacado com dados integrados.
- Stack: SQL Server, T-SQL, SSIS, SSDT, modelagem dimensional.
- Evidencias: camadas de Data Lake e DW, pacote SSIS de carga e modelo com fato/dimensoes.
- Contexto: organizacao de transformacoes analiticas por camadas.
- Stack: dbt, MySQL, Docker, SQL, Python.
- Evidencias: arquitetura
Bronze/Silver/Goldcom pipeline local de limpeza e padronizacao.
- Contexto: construcao de plataforma DW para consolidar fontes e suportar analytics.
- Stack: SQL Server, T-SQL, ETL, Data Warehouse.
- Evidencias: modelagem medallion, ingestao de fontes ERP/CRM e estrutura de consumo analitico.
- Linguagens: Python, SQL (T-SQL)
- Dados: ETL batch, modelagem dimensional (Kimball), Data Warehouse, qualidade de dados
- Orquestracao: Airflow (DAGs, scheduling, retries)
- Cloud/DevOps: Docker, AWS, GitHub Actions
- Dados: dbt para modelagem modular, testes de dados e documentacao tecnica
- Arquitetura: padronizacao de camadas medallion (Bronze, Silver, Gold)
- Orquestracao: observabilidade de pipelines (SLA, retry, falhas e reprocessamento)
- Cloud/DevOps: aprofundamento em Kubernetes e Databricks para escala operacional
- Confiabilidade de pipelines: elevar monitoramento e resposta a falhas em fluxos ETL.
- Qualidade de dados: ampliar testes automatizados em SQL/dbt para camadas analiticas.
- Padronizacao arquitetural: consolidar padroes de modelagem dimensional e camadas medallion.

