Sign in to view Guilherme’s full profile
or
New to LinkedIn? Join now
By clicking Continue to join or sign in, you agree to LinkedIn’s User Agreement, Privacy Policy, and Cookie Policy.
Sign in to view Guilherme’s full profile
or
New to LinkedIn? Join now
By clicking Continue to join or sign in, you agree to LinkedIn’s User Agreement, Privacy Policy, and Cookie Policy.
Santo André, São Paulo, Brazil
Sign in to view Guilherme’s full profile
Guilherme can introduce you to 10+ people at Microsoft
or
New to LinkedIn? Join now
By clicking Continue to join or sign in, you agree to LinkedIn’s User Agreement, Privacy Policy, and Cookie Policy.
5K followers
500+ connections
Sign in to view Guilherme’s full profile
or
New to LinkedIn? Join now
By clicking Continue to join or sign in, you agree to LinkedIn’s User Agreement, Privacy Policy, and Cookie Policy.
View mutual connections with Guilherme
Guilherme can introduce you to 10+ people at Microsoft
or
New to LinkedIn? Join now
By clicking Continue to join or sign in, you agree to LinkedIn’s User Agreement, Privacy Policy, and Cookie Policy.
View mutual connections with Guilherme
or
New to LinkedIn? Join now
By clicking Continue to join or sign in, you agree to LinkedIn’s User Agreement, Privacy Policy, and Cookie Policy.
Sign in to view Guilherme’s full profile
or
New to LinkedIn? Join now
By clicking Continue to join or sign in, you agree to LinkedIn’s User Agreement, Privacy Policy, and Cookie Policy.
Websites
- Portfolio
-
https://guimatheus92.medium.com/
- Portfolio
-
https://github.com/guimatheus92
About
Welcome back
By clicking Continue to join or sign in, you agree to LinkedIn’s User Agreement, Privacy Policy, and Cookie Policy.
New to LinkedIn? Join now
Activity
5K followers
-
Guilherme Matheus shared thisEvery week I watch Loom videos ⏯️. Bug recordings. Feature demos. Code reviews. Onboarding walkthroughs. The workflow was always the same: Watch. Pause. Rewind. Transcribe. Repeat. I was spending hours on videos instead of actually solving the problems they described. So I built an MCP server using #ClaudeCode from Anthropic, that lets my AI assistant "watch" videos for me. It extracts transcripts, key frames, OCR text, and metadata — all from a single URL. No API keys. No setup. Just share a Loom link and your AI understands what was said, what appeared on screen, and what changed visually. It just passed all Glama registry checks (A A A score) and got accepted into the curated awesome-mcp-servers list. GitHub: https://lnkd.in/d-QTE7s9 awesome-mcp-servers: https://lnkd.in/dvmxFwqy glama.ai: https://lnkd.in/dtrRcdt7 #Claude #ClaudeCode #Anthropic #MCP #OpenSource #AI
-
Guilherme Matheus shared this🍳 I automated my Thermomix recipe workflow with an AI agent — and open-sourced it. I've been using AI agents daily as a developer. Last night I built a Claude Code from Anthropic skill for my kitchen. The problem: Adding recipes to Cookidoo (Thermomix® USA Thermomix app) is tedious. Manual typing, no structured fields, 15-20 min per recipe. The solution: I created a Claude Code skill that takes any recipe — a URL, pasted text, screenshot, or PDF — converts it to Thermomix format (speeds, times, reverse blade), and uploads directly to Cookidoo through your browser — Claude uses Chrome DevTools MCP to call Cookidoo's own API, the same way the website does. 2 min instead of 20. No manual typing. Open source: https://lnkd.in/d2YcH5Df #Anthropic #ClaudeCode #MCP #Thermomix #Cookidoo #AI #Automation #OpenSourceGitHub - guimatheus92/cookidoo-recipe-creator: Convert any recipe to Thermomix format and upload to Cookidoo via API. Supports TM7, TM6, TM5, TM31. Multi-language.GitHub - guimatheus92/cookidoo-recipe-creator: Convert any recipe to Thermomix format and upload to Cookidoo via API. Supports TM7, TM6, TM5, TM31. Multi-language.
-
Guilherme Matheus shared thisEnjoying this special moment of being here at Redmond. Super grateful to be here! #Microsoft Microsoft
-
Guilherme Matheus shared this[en] For those who like home automation and use Home Assistant and Node-RED, and found the task of creating a flow to create virtual three way or four way, a little tedious or even difficult to organize, I created a Python application that downloads your HA local, retrieve your devices and entities, so you can configure which switches you want to link through a simple, yet functional interface. So that you can import into Node-RED. [pt-BR] Pra aqueles que gostam de automação residencial e utilizam o Home Assistant e Node-RED, e achou a tarefa de um fluxo para criar paralelos virtuais um pouco entediante ou até mesmo dificil de organizar, eu criei uma aplicação em Python que acessa o seu HA local, obtém os seus dispositivos e entidades, assim você pode configurar quais interruptores você deseja linkar através de uma interface simples, porém funcional. Assim consegue importar no Node-RED. HA post: https://lnkd.in/dnc7qgpg Github repo: https://lnkd.in/dvrDAah8 #NodeRED #HomeAssistant #Automation
-
Guilherme Matheus shared thisReforçando o conhecimento em cloud com tecnologias da Microsoft! Curso Data Engineering on Microsoft Azure (DP-203) da Ka Solution. #microsoft #azure #dataengineering #cloud
-
Guilherme Matheus shared this[en] After making a Python application, it is possible to deploy it on several platforms. This time I learned how to deploy it on an AWS instance. I ended up deploying an application in Python using a Flask framework, so because this process has some details that can help your application work correctly, I ended up creating an article that shows you step-by-step how to publish and run it in followed. In Plain English is a website with AWS content and asked me to add this article to their website to help the community that currently receives 2,000,000 visits per month, you can check it out via the link below. You can check from here: https://lnkd.in/dKpvFUUu [pt] Após fazer uma aplicação em Python é possível fazer a publicação em diversas plataformas. Dessa vez aprendi a publicar em uma instância na AWS. Eu acabei fazendo uma publicação de uma aplicação em Python utilizando framework em Flask, então por esse processo possuir alguns detalhes que fazem possam ajudar sua publicação a funcionar corretamente, acabei criando um artigo que mostra o passo a passo de como fazer essa publicação e executa-la em seguida. O In Plain English é uma website com conteúdos de AWS e solicitou que eu adicionasse esse artigo no website deles para ajudar a comunidade que atualmente recebe 2.000.000 de visitas por mês, você pode conferir através do link abaixo. Confira por aqui: https://lnkd.in/dKpvFUUu Website: https://lnkd.in/dA7bFr6f Medium: https://lnkd.in/dJegfM4Z GitHub: https://lnkd.in/dj2-MMh #python #flask #AWS #Amazon #instance #communityDeploy Python Application on Amazon Web Services (AWS)Deploy Python Application on Amazon Web Services (AWS)
-
Guilherme Matheus shared this[en] During some developments where I had to use Microsoft Sharepoint, I ended up creating some scripts for some solutions and publishing them as an article, I ended up being invited to share these articles with a large community through SharePoint Week that is taking place in this month September 20th-24th through European SharePoint, Office 365 & Azure Conference. You can check from here: https://lnkd.in/dhvTDjrh [pt] Durante alguns desenvolvimentos onde eu tinha que usar o Microsoft Sharepoint, acabei criando alguns scripts para algumas soluções e publicando elas como artigo, acabei sendo convidado a compartilhar estes artigos com uma grande comunidade através do SharePoint Week que está acontecentendo neste mês de Setembro entre os dias 20-24 através do European SharePoint, Office 365 & Azure Conference Confira por aqui: https://lnkd.in/dhvTDjrh Articles/Artigos: ➡️ https://lnkd.in/dAeGsRMX ➡️ https://lnkd.in/dXT37WDv ➡️ https://lnkd.in/dwuMpWdc Website: https://lnkd.in/dA7bFr6f Medium: https://lnkd.in/dJegfM4Z GitHub: https://lnkd.in/dj2-MMh #microsoft #sharepoint #sharepointweek
-
Guilherme Matheus shared this[en] Through my Data Scientist training I came across another recommendation system (I confess that I love this type of study and "how to"), and how we can learn different ways and techniques using Machine Learning, so through a selected movie, using a similarity matrix we can get a list of movies recommendations from a Netflix dataset available on Kaggle. I'm always impressed with the final result ☺. [pt] Através da formação de Cientista de Dados me deparei com mais um sistema de recomendação (confesso que eu adoro esse tipo de estudo), e como podemos aprender diversas formas e técnicas utilizando Machine Learning, então através de um filme escolhido utilizando uma matriz de similaridade podemos obter a recomendação de um filme da Netflix, utilizando um dataset disponibilizado no Kaggle. Eu sempre fico impressionado com o resultado final ☺. Website: https://lnkd.in/dys4Kre Medium: https://lnkd.in/dM6eQ_4X GitHub: https://lnkd.in/di4JGRiu #datascience #machinelearning #netflix #recommendationsystem
-
Guilherme Matheus liked thisGuilherme Matheus liked this🚨 Release Alert (2 in 2 days!!!)🚨: Claude Design. This is one I’m really excited about. “Introducing Claude Design by Anthropic Labs: a new way to make designs, prototypes, slides, and one-pagers by talking to Claude. Claude Design is powered by Claude Opus 4.7, our most capable vision model. Describe what you want, and Claude builds the first version. Refine through conversation, inline comments, direct edits, or custom sliders, then export to Canva, as PDF or PPTX, or hand off to Claude Code. Claude reads your codebase and design files to build your team's design system, then applies it automatically, keeping every project on-brand. Claude Design is available in research preview on the Pro, Max, Team, and Enterprise plans, rolling out throughout the day.” PSA: the original Claude Design output was beautiful. Had to cycle through a few prompts making it uglier so it would be more in line with my typical style. lol.
-
Guilherme Matheus liked thisGuilherme Matheus liked thisOi né... Pensei em trazer promoção da Amazon pras pessoas em 1 click só. E foi aí que nasceu a ideia do Bot da Amazon. A automação funciona mais ou menos assim: um Scheduler dispara de tempos em tempos e chama a Amazon Product Advertising API, que devolve uma lista de produtos. O bot filtra só o que tem desconto de verdade, manda o título e os dados pra OpenAI escrever uma legenda enxuta explicando o que é, e joga direto no grupo do WhatsApp e do Telegram. Sem eu precisar ficar garimpando. Rodando 24/7 numa VPS, tudo containerizado no Docker (Bot + Postgres + Evolution API pro WhatsApp), feito em Java 21 + Spring Boot. O robô sozinho, varre, manda, vai dormir. E repete. O legal é que o projeto nasceu de uma coisa que eu mesmo queria usar. Sem pretensão nenhuma de "portfólio", foi mais tirar a ideia do papel do que qualquer outra coisa. Hoje já conto com +370 pessoas no grupo do WhatsApp e +700 no do Telegram aproveitando as promos ;) Se quiser receber os achados direto no seu celular, entre aqui: 📱 Grupo do WhatsApp: https://lnkd.in/eJq7dRCw ✈️ Grupo do Telegram: https://lnkd.in/eu_wrAaE É grátis, é só entrar. Tamo junto 🌍
-
Guilherme Matheus liked thisGuilherme Matheus liked thisQuem nunca perdeu um tempão instalando tudo depois de formatar o PC? Chrome, VSCode, Git, Node, Discord… um por um. Pensando nisso, eu criei o **QuickSetup**. Uma ferramenta simples: Você escolhe os aplicativos → e ele gera um script pronto com Winget para instalar tudo de uma vez. ⚡ Mais rápido ⚡ Mais prático ⚡ Sem dor de cabeça 👉 https://lnkd.in/d3N5bY34 Ainda é um MVP, mas já está funcional e com bastante potencial. Se você trabalha com setup de ambientes ou suporte técnico, queria muito ouvir sua opinião 👇 #dev #programacao #tecnologia #winget #windows #automacao #desenvolvimento #software #produtividade #react
-
Guilherme Matheus liked thisGuilherme Matheus liked thisPT-BR: Novo desafio 🎯 Hoje começo minha pós-graduação em Engenharia de Materiais e Processos de Fabricação pela PUC Minas. Mais um passo para fortalecer minha base técnica e desenvolver soluções de engenharia cada vez mais inovadoras e eficientes. Evolução contínua é o caminho. 🚀 EN: New challenge, next level. 🎯 Today I begin my postgraduate program in Materials Engineering and Manufacturing Processes at PUC Minas. Another step to strengthen my technical foundation and develop increasingly innovative and efficient engineering solutions. Continuous improvement is the way forward. 🚀
-
Guilherme Matheus liked thisGuilherme Matheus liked thisI’m happy to share that I’ve successfully completed the Getting Started with Ansys Mechanical course! 🎉 This is just the beginning. I plan to continue taking more courses related to Ansys, FEA, and CAE to further develop my expertise in simulation and engineering analysis.
-
Guilherme Matheus liked thisGuilherme Matheus liked this3 sócios. 3 negócios. 16 agentes de IA. Esse é o nosso setup hoje. Não temos um time de 30 pessoas. Temos 3 sócios e uma plataforma com 16 agentes especializados rodando 24/7. Agente comercial que qualifica leads. Agente de análise que classifica documentos. Agente de atendimento que responde WhatsApp e faz transbordo quando precisa de contexto humano. Cada agente tem papel definido, escopo claro e um de nós como responsável. Não é automação genérica. É uma estrutura onde cada agente sabe exatamente o que resolve sozinho e o que escala pra gente. O resultado: operamos 3 empresas com a velocidade de quem tem um time de 15. Sem contratar. Sem terceirizar. Sem perder qualidade. Toda vez que um gestor me pergunta "quantas pessoas vou poder cortar?", eu devolvo outra pergunta: "o que seu time faria se parasse de fazer triagem o dia inteiro?" A resposta quase sempre é: vender mais, atender melhor, analisar com mais profundidade. Os projetos que mais deram resultado nos últimos 12 meses têm algo em comum. O time não diminuiu. Mudou de função. IA que funciona não substitui. Reposiciona. E se não tiver quem reposicionar, ela faz o trabalho que você não conseguiria contratar pra fazer. Se você constrói com agentes, como define o limite entre o que o agente resolve e o que volta pro humano? 👇
Experience & Education
-
Microsoft
**** ******** * ***** **
-
***** ***********
******** ************ **********
-
******
******** ************ *******
-
****** ************* ******** ***** *****
********** ******** ********** ******** undefined
-
View Guilherme’s full experience
See their title, tenure and more.
Already on LinkedIn? Sign in
By clicking Continue to join or sign in, you agree to LinkedIn’s User Agreement, Privacy Policy, and Cookie Policy.
Licenses & Certifications
Courses
-
Artistic and Digital Design
-
-
Basic Access
-
-
Bertelsmann Data Science Challenge Scholarship
-
-
Big Data Analytics with R e Microsoft Azure Machine Learning
-
-
Big Data Real-Time Analytics with Python and Spark
-
-
Data Visualization and Dashboard Design
-
-
Excel Avançado
-
-
Fundamentals of Data Analysis
-
-
How to create a complete Data Science solution
-
-
Microsoft Power BI for Data Science
-
-
Technical Certification in Personal Risks - CVG - Sindicato Securitários
-
-
VBA para Excel
-
Languages
-
Português
Native or bilingual proficiency
-
Inglês
Full professional proficiency
Recommendations received
8 people have recommended Guilherme
Join now to viewView Guilherme’s full profile
-
See who you know in common
-
Get introduced
-
Contact Guilherme directly
Explore more posts
-
Daniel Honorio de Oliveira
Luizalabs • 3K followers
Kestra: A Nova Era da Orquestração de Dados? No universo da Engenharia de Dados e IA, a orquestração de workflows é crucial. Ferramentas como o Apache Airflow dominaram o mercado, mas o Kestra surge como uma alternativa promissora. Vale a pena a mudança? O Cenário Atual: O Domínio do Airflow O Airflow é padrão de mercado por sua flexibilidade e poder, permitindo complexos pipelines de dados (DAGs) em Python. Contudo, sua curva de aprendizado é acentuada, a infraestrutura complexa e o gerenciamento de dependências, desafiador. Kestra: Simplicidade e Poder Unificados Kestra busca unir o melhor dos dois mundos: a simplicidade de ferramentas no-code com a robustez de soluções baseadas em código. O foco é na lógica de negócio, não na infraestrutura. Principais Vantagens do Kestra sobre o Airflow: ✅ Declarativo e Agnóstico a Linguagem: Workflows em YAML, simples e legível. Elimina boilerplate Python, permitindo que qualquer profissional crie e gerencie pipelines. Orquestra scripts em Python, Node.js, Go, Rust, SQL ou Bash em contêineres. ✅ Interface Unificada (Low-code/No-code + Code): Editor de código integrado no browser com validação de sintaxe e autocompletion, além de interface visual para workflows. Democratiza a automação, permitindo a participação de stakeholders de negócio. ✅ Gerenciamento de Dependências Simplificado: Kestra oferece mais de 500 plugins prontos e scripts customizados rodam em ambientes isolados (contêineres), eliminando conflitos de dependências. ✅ Separação entre Orquestração e Lógica de Negócio: Não é preciso adaptar seu código. Scripts de processamento de dados podem ser chamados diretamente do Kestra, permitindo que equipes atualizem a lógica de negócio sem interferência do orquestrador. ✅ Governança e Versionamento: Fluxos com histórico de revisão, permitindo rollback e comparação de mudanças, garantindo segurança e auditabilidade. Conclusão Enquanto o Airflow é poderoso, o Kestra se posiciona como uma evolução, oferecendo uma abordagem mais acessível e eficiente para a orquestração de dados. Sua capacidade de unir desenvolvimento baseado em código com interfaces low-code/no-code o torna atraente para empresas que buscam agilidade e colaboração em suas operações de dados e IA. A escolha dependerá das necessidades de cada projeto, mas o Kestra merece atenção. https://kestra.io/ #EngenhariaDeDados #InteligenciaArtificial #Orquestracao #Kestra #Airflow #DataOps #MLOps
7
-
Marcelo Santana
Vosté Academy • 8K followers
Python para analistas de dados não precisa ser infinito em bibliotecas. Na prática, o que mais aparece no dia a dia é um fluxo bem feito do dado bruto até o insight. Passo a passo que realmente importa: → Carregar e inspecionar pandas, read_csv/read_excel, head(), info() Padronizar tipos de dados logo no início para evitar erro lá na frente → Limpar e transformar fillna(), dropna(), astype(), merge(), groupby() Registrar as regras de limpeza no notebook para garantir repetição do processo → Analisar e validar Filtros, métricas, correlação, checagem de outliers Conferir duplicidades antes de agregar ou criar indicadores → Visualizar e entregar matplotlib ou seaborn para gráficos simples e objetivos Exportar a versão final em CSV ou Excel para compartilhar com o time Quanto mais esse fluxo fica automático, mais tempo sobra para pensar no negócio em vez de só “mexer no código”. Quer seguir carreira em dados, ter acesso a vagas curadas, conteúdos e datasets para praticar? Acesse o Data Hire Club: https://lnkd.in/dVADRcUJ #python #analisededados #dataanalytics #businessintelligence #sql #powerbi #carreiraemdados #portfólioemdados #datahireclub
252
4 Comments -
Thomaz Antonio Rossito Neto
CI&T • 6K followers
Spec-Driven Development (SDD) com Databricks Recentemente escrevi um artigo sobre como o Spec-Driven Development (SDD) pode reduzir drasticamente o retrabalho em pipelines de dados no Databricks ▶️ Confira o vídeo completo no Youtube: https://lnkd.in/dcSZji84 📒 Confira o artigo: https://lnkd.in/dz77hkJP Para complementar a leitura e a pedido de alguns colegas da área, decidi gravar um vídeo mostrando a implementação real dessa abordagem com Databricks Lakeflow Pipelines. No vídeo, demonstro como o SDD funciona na prática, desde a criação da especificação em Markdown até o deploy automatizado com Asset Bundles, para que você possa aplicar no seu próprio ambiente. Convido vocês a assistirem e compartilharem seus feedbacks. A troca de conhecimento é o que faz nossa comunidade evoluir. Menção aos feras: Rodrigo Oliveira e Ricardo Odorczyk #DataEngineering #Databricks #SpecDrivenDevelopment #DataArchitecture #TechLeadership #Lakeflow #DataGovernance #Automation
77
6 Comments -
Carlos Henrique Brito
Bradesco • 571 followers
🔎 **Você sabe qual é a ordem real de execução de uma query?** Muita gente escreve na ordem: ```sql SELECT FROM WHERE GROUP BY HAVING ORDER BY ``` Mas a execução lógica do SQL acontece de forma bem diferente 👇 ✅ 1️⃣ FROM / JOIN ✅ 2️⃣ WHERE ✅ 3️⃣ GROUP BY ✅ 4️⃣ HAVING ✅ 5️⃣ SELECT ✅ 6️⃣ DISTINCT ✅ 7️⃣ ORDER BY ✅ 8️⃣ LIMIT / TOP 💡 Entender essa ordem muda completamente a forma como você: * Depura queries * Resolve erros de agregação * Trabalha com GROUP BY e HAVING * Otimiza consultas Um exemplo clássico: Por que não posso usar um alias criado no `SELECT` dentro do `WHERE`? 👉 Porque o `WHERE` é executado **antes** do `SELECT`. Parece simples, mas esse conhecimento separa quem “faz funcionar” de quem realmente **entende o que está acontecendo por baixo dos panos**. Se você trabalha com Engenharia de Dados, Analytics ou Backend, dominar isso é essencial. Você já sabia dessa ordem ou também achava que seguia a ordem de escrita? 👀 #SQL #DataEngineering #BancoDeDados #Analytics #AprendizadoContinuo
23
1 Comment -
Suelen Farias
Fortaleza Esporte Clube • 3K followers
Um desafio recorrente na controladoria é quando o dado nasce em PDF. Recentemente, desenvolvi um pipeline para transformar extratos e relatórios financeiros em PDF (com texto selecionável) em uma base estruturada, com as colunas: Data | Conciliação | Parceiro | Histórico | Débito | Crédito | Saldo Os desafios eram: i) Linhas quebradas (parceiro e histórico “saltando” para a linha seguinte) ii) Campos misturados (trechos do parceiro incorporados ao histórico e vice-versa) iii) Valores monetários colados ao fim da linha, com variações de formatação iv) Texto duplicado (ex.: “FORNECEDOR X FORNECEDOR X”) v) Rodapés como “Saldo Final” e “Totais” contaminando os lançamentos vi) Palavras coladas típicas da extração em PDF (ex.: “LTDADIREITO”) A solução foi estruturar um parser com múltiplas camadas: i) Extração via pdfplumber ii) Uso de regex para identificação robusta de datas e valores iii) Reconstrução de “linhas lógicas” a partir de quebras físicas iv) Heurísticas para separar Parceiro e Histórico com base em padrões recorrentes v) Camadas de limpeza (normalização de espaços, deduplicação, correção de tokens colados) vi) Validação automática por total de débitos, créditos e saldo final O que antes exigia horas de ajustes manuais no excel passou a ser um processo reprodutível e escalável. No fechamento contábil, o impacto foi direto. A base estruturada permitiu acelerar a conciliação bancária, identificar divergências com mais rapidez, reduzir ajustes de última hora e aumentar a confiabilidade dos saldos reportados. O processo ganhou previsibilidade e rastreabilidade, dois pontos críticos em períodos de fechamento. link no github: https://lnkd.in/dmHxnUue
64
-
Felipe Coutinho
Axur • 27K followers
O domínio de SQL básico ainda resolve mais problemas de negócio do que a criação de agentes autônomos. A expectativa comum de quem entra na área de dados é passar o dia criando sistemas complexos de IA e testando os modelos mais recentes. O mercado exige uma postura pragmática. A área de dados atua como um braço estratégico da empresa, e o trabalho diário tem o objetivo central de facilitar a tomada de decisão da diretoria. Isso exige traduzir informações soltas em direcionamentos claros para a operação. Requer direcionar a energia para os indicadores que afetam o resultado financeiro da companhia. Uma extração direta que resolve um problema de logística ou de fluxo de caixa hoje gera mais valor imediato do que um sistema avançado que a gestão não consegue interpretar. A comunicação clara e a visão de negócio se tornam as habilidades técnicas mais rentáveis de um profissional da área. Os momentos de pesquisa profunda e exploração de novas arquiteturas são essenciais e vão acontecer. O erro não está nas ferramentas avançadas, mas na falta de pragmatismo. Sistemas agênticos entregam valor real na tomada de decisão complexa. Eles são feitos para cruzar dados não estruturados, analisar cadeias de produção inteiras e automatizar auditorias pesadas que levariam dias de análise manual. Nesses cenários específicos, a IA deixa de ser vaidade e passa a ser o motor da empresa. O trabalho de um profissional focado em inteligência artificial não é forçar o uso da tecnologia mais nova em todos os projetos de forma cega. O foco deve ser saber exatamente quando usar um script direto e quando escalar para um sistema de agentes de IA. Tecnologia avançada resolvendo problema trivial gera apenas custo de infraestrutura.
70
8 Comments -
Yury Cavalcante
Red Bull • 17K followers
Durante muito tempo, quando falamos de modelos de Machine Learning, partimos de uma suposição implícita: o problema é estável. Na classificação, assumimos que as classes continuam significando a mesma coisa ao longo do tempo, já na regressão, assumimos que a relação entre variáveis permanece válida e mesmo em detecção de anomalias, assumimos que aquilo que aprendemos como “normal” continuará sendo normal amanhã, mas no mundo real, essa estabilidade é a exceção e não a regra. - Fraudes evoluem; - comportamentos mudam; - novos produtos alteram padrões de uso; - crises econômicas transformam consumo; - tecnologias criam novas formas de interação. O que hoje é raro pode se tornar comum e o que hoje é comum pode desaparecer. Esse fenômeno tem nome: Concept drift que é o que ocorre quando a relação entre variáveis e comportamento esperado muda ao longo do tempo. O modelo não está necessariamente mal construído ele apenas foi treinado para um mundo que já não existe mais. Em detecção de anomalias, isso é especialmente crítico, pois se o modelo aprende normalidade a partir do passado, mas o padrão normal se transforma, três coisas podem acontecer: - começamos a gerar falsos positivos em excesso; - deixamos de detectar desvios relevantes; - ou passamos a considerar “normal” algo que antes seria suspeito. Nesse ponto, o desafio deixa de ser apenas modelar desvio e passa a ser monitorar a própria definição de desvio e é por isso que sistemas reais de detecção de anomalias não vivem apenas de um modelo estático. Eles incorporam: - monitoramento contínuo da distribuição de dados e scores; - acompanhamento de métricas operacionais (taxa de alerta, taxa de confirmação); - re-treinamento periódico ou adaptativo; - revisão humana das decisões mais críticas. Modelos não são apenas treinados, eles são mantidos e se a classificação nos ensinou a prever e a clusterização nos ensinou a enxergar estrutura, a detecção de anomalias diante do concept drift nos ensina algo ainda mais profundo: aprender é acompanhar mudança. E talvez esse seja o maior deslocamento conceitual dessa jornada: deixar de enxergar modelos como respostas finais e passar a enxergá-los como sistemas vivos, que precisam evoluir junto com o espaço onde os dados vivem. #MachineLearning #AnomalyDetection #ConceptDrift #DataScience #ModelMonitoring https://lnkd.in/dUdQHBa2
9
1 Comment -
Caio Machado de Oliveira
CCT College Dublin • 3K followers
Databricks Genie Code Databricks acabou de lançar o "Genie Code", que chegou para aprimorar a eficiência e a automação das equipes de dados, e promete impactar a engenharia e a ciência de dados. O Databricks Genie Code se destaca como um aliado autônomo para equipes de dados. Com a capacidade de transformar conceitos de engenharia, ciência e análises em sistemas de produção totalmente autônomos, o Genie Code promete elevar a eficiência e a automação no trabalho com dados a um novo nível. Uma das funcionalidades mais notáveis é o ‘vibe-coding’, que permite aos usuários interagir de maneira intuitiva com a camada de dados dos sistemas empresariais. Essa abordagem não apenas simplifica o processo de codificação, mas também democratiza o acesso à análise de dados, permitindo que mais colaboradores dentro das organizações contribuam sem enfrentar uma curva de aprendizado acentuada. Em testes práticos, o desempenho do Genie Code superou as expectativas, apresentando uma taxa de sucesso que dobrou em comparação com agentes de codificação tradicionais. Os benchmarks disponíveis oferecem uma visão clara da precisão das respostas do Genie, assegurando que a qualidade do trabalho realizado permaneça em um nível elevado. Além disso, o Genie Code está disponível para todos os clientes do Databricks sem custo adicional. Os usuários pagam apenas pelo uso da computação ao executar seus notebooks, tornando essa ferramenta poderosa acessível a todos. Estamos entrando em uma nova fase na automação de dados. O Genie Code não é apenas uma inovação; é uma mudança significativa que pode transformar a forma como trabalhamos com dados. [link da notícia]: https://lnkd.in/dTPetjhr
7
-
Nicksson Freitas
SiDi • 6K followers
🧭 Já percebeu como o mercado de dados e IA está sempre te empurrando para aprender “a próxima stack”? 📚 Spark, Databricks, AWS, Airflow, Snowflake, LangChain, LlamaIndex, PyTorch, TensorFlow… A lista nunca acaba. Deixa eu te contar o que aprendi em mais de 13 anos de experiência, com projetos em escala global, liderança técnica e doutorado na área: 👉 Você não precisa dominar tudo. Você precisa saber o que escolher, por que escolher e como aplicar isso com inteligência de carreira. Muita gente estuda sem parar e mesmo assim se sente travada. Sabe por quê? Porque saber muito sem clareza gera ansiedade técnica e estagnação profissional. 📌 A real é que conhecimento técnico só vira oportunidade quando está conectado a um plano claro de ação. 💻 Ferramentas não faltam. Olha só: Python, Pandas, NumPy, Scikit-learn SQL, PostgreSQL, MongoDB, ClickHouse Power BI, Metabase, Dash, Plotly Spark, Dask, Databricks TensorFlow, PyTorch, Keras Hugging Face, Transformers, LlamaIndex LangChain, RAG pipelines, ChatGPT APIs MLflow, DVC, Airflow, Prefect AWS (S3, EC2, Glue, SageMaker), GCP, Azure Docker, Kubernetes, FastAPI, Streamlit Snowflake, Redshift, DataBricks, Kafka 📉 Mas de que adianta tudo isso se você não sabe o que aplicar — e como transformar isso em resultado e visibilidade no mercado? 🎯 Na Mentoria Maestria em Dados e IA, eu te ensino exatamente isso: ✅ Como montar um plano técnico e estratégico realista ✅ Como escolher o stack certo para o seu objetivo (e não para agradar o hype) ✅ Como usar suas habilidades de forma visível e alinhada com o que o mercado valoriza 📣 A pré-venda já está aberta com desconto promocional exclusivo. 👉 Garanta sua vaga preenchendo o formulário: 🔗 https://lnkd.in/dge7Hm2n Menos ansiedade técnica. Mais clareza, estratégia e crescimento. Vamos juntos? #mentoria #carreiraemdados #inteligenciaartificial #dados #ferramentastech #mlops #ciênciadedados #transicaodecarreira #portfólio #posicionamento
3
-
Vinícius Borges
Avanade • 6K followers
Você também percebeu que as partidas ranqueadas em 2026 parecem estar bem mais dificeis do que antigamente? Vem que eu tento te explicar o que rola com base no background de engenharia de dados / telemetry. Tudo começa no algoritmo do 𝑀𝑀𝑅. Matchmaking Rating. É um indicador, como qualquer outro. Porém, ele é um score dinâmico de habilidade calculado em tempo real. MMR NÃO É O SEU RANK VISÍVEL (ouro, prata, bronze). É o número interno que o jogo usa pra te colocar contra jogadores de skill parecida. BASICAMENTE... Vitória: +Δ MMR (quanto mais difícil o jogo, maior o ganho) Derrota: –Δ MMR Fatores extras: performance individual (KDA, objetivos, tempo de jogo), comportamento e até histórico recente. 𝑀𝑎𝑠 𝑐𝑜𝑚𝑜 𝑜 𝑀𝑀𝑅 𝑒́ 𝑐𝑜𝑛𝑠𝑡𝑟𝑢𝑖́𝑑𝑜? Ao longo do tempo. O jogador gera os dados. Todo evento do jogo (posição, habilidade usada, morte, win/loss, ping, etc.) é enviado em streaming e seu MMR é calculado instantaneamente. O MMR também detecta anomalias: Smurfing: jogador com winrate 90% + KDA absurdo em contas novas → possível flag! Desbalanceamento: média de MMR da partida diferente do esperado → sistema ajusta ou cancela queue da puxada de fila. O MMR busca equilibrar: fairness (partidas mais justas), tempo de procura, evita low v. high elos, e jogadores com pings aproximados. Claro, tudo isso depende de n variáveis. Horários de pico também afetam muito a qualidade do MMR. Sem uma pipeline robusta de dados, o jogo vira bagunça: smurfs livres, queues eternas e meta quebrada por meses. Obviamente, o algoritmo não é perfeito e o sistema erra (E MUITO!) e, por isso, o feedback da comunidade também é importante para gerar partidas competitivas cada vez mais saudáveis e acessíveis para uma comunidade. ---------------------------------------------------- ESTÁ MAIS DIFÍCIL? O que você sente como "mais difícil" é na verdade o live-service finalmente usando os dados direito. “Queremos que jogadores de todo rank tenham um spread similar de skills e entendimento do jogo.” Traduzindo: o jogo ficou mais justo. E justo = mais difícil pra quem tava acostumado com mismatch e stomps. Aliado a tudo isso, temos métricas impossíveis de se levantar: comunidade gerando conteúdo a todo momento com dicas, partidas competitivas alimentando o know-how do player comum e entre outros fatores externos.
17
-
Cezar Taurion
Self-employed • 78K followers
Por que ainda insistimos em chamar “sistema probabilístico de geração de linguagem” de “inteligência artificial”? A pergunta parece boba, mas revela algo curioso sobre como interpretamos tecnologia. Parte da resposta é histórica. O campo nasceu com esse nome. Em 1956, no Dartmouth Workshop, pesquisadores como John McCarthy propuseram o termo Artificial Intelligence para descrever um novo campo de pesquisa. Mas ali o termo era muito mais aspiração científica do que descrição literal. A ideia era estudar como máquinas poderiam realizar tarefas associadas à cognição humana. Não significava que aquelas máquinas fossem, de fato, inteligentes. Mas o nome pegou e nomes têm poder. Hoje, quando um sistema escreve textos convincentes, responde perguntas ou gera código, concluímos rapidamente que ali existe algum tipo de inteligência. Mas será que existe mesmo? Ou estamos apenas reagindo a um comportamento que se parece com inteligência? Essa confusão não é nova. Nos anos 1960, um chatbot extremamente simples chamado ELIZA já produzia essa ilusão. Criado por Joseph Weizenbaum, ele basicamente reformulava frases dos usuários em forma de pergunta. Mesmo assim, muitas pessoas acreditavam que o programa realmente entendia o que estava sendo dito. Se um programa tão simples já produzia essa impressão, o que esperar dos modelos atuais capazes de gerar textos longos, coerentes e tecnicamente plausíveis? Talvez o problema não esteja nas máquinas, mas em nós. Nós temos uma tendência natural a antropomorfizar sistemas complexos. Quando algo se comporta de maneira sofisticada, falando, respondendo, tomando decisões, tendemos a projetar ali intenção, compreensão e mente. Mas comportamento inteligente não é necessariamente inteligência. Um sistema que gera frases plausíveis está demonstrando compreensão ou apenas reproduzindo padrões estatísticos extremamente sofisticados? Quando um modelo explica um conceito ou escreve um código, ele realmente entende o problema ou está apenas prevendo a sequência de tokens mais provável? A palavra “inteligência” tem um peso narrativo enorme. Ela sugere algo quase mágico, como máquinas que pensam, aprendem e talvez superem humanos. Para empresas de tecnologia, investidores e mídia, esse enquadramento gera atenção, capital e expectativa de mercado. Afinal, chamar de “sistema probabilístico de geração de linguagem” não vende manchetes. Existe ainda uma questão conceitual mais profunda. Inteligência humana envolve várias capacidades integradas: compreensão semântica, raciocínio causal, memória consistente, objetivos próprios, consciência de contexto e experiência no mundo físico. Os sistemas atuais realmente possuem algo próximo disso? Ou estamos observando uma capacidade extremamente avançada de modelar padrões de linguagem? Se um sistema apenas simula comportamento inteligente, em que momento passamos a chamá-lo de inteligente de fato? Ou será que estamos apenas confundindo imitação convincente com cognição real?
33
3 Comments -
Robert Barbosa
acaso • 2K followers
🛠️ OPTIMIZE | ZORDER | REORG | VACUUM: O Guia de Performance no Delta Lake Você já sentiu que suas queries no Databricks estão ficando lentas com o tempo? O culpado costuma ser a fragmentação de arquivos e o "lixo invisível" de operações passadas. Vou mostrar 4 comandos essenciais para manter seu Lake rápido, barato e seguro. 1. O fim dos "Small Files" com OPTIMIZE Ingestões frequentes geram milhares de arquivos minúsculos. O Spark sofre para abrir cada um deles. O OPTIMIZE compacta esses "caquinhos" em arquivos grandes e eficientes. ⌨️ OPTIMIZE minha_tabela; 2. O Turbo das Queries: ZORDER Não basta compactar, é preciso organizar. O ZORDER reordena os dados fisicamente por colunas de filtro (WHERE). Isso ativa o Data Skipping: o Spark ignora arquivos irrelevantes e vai direto no dado. ⌨️ OPTIMIZE minha_tabela ZORDER BY (coluna_filtro); • Dica: Por padrão, o Delta coleta estatísticas das primeiras 32 colunas. Se sua coluna de filtro for a 33ª, o ZORDER não terá efeito! Resolva com: ⌨️ ALTER TABLE minha_tabela SET TBLPROPERTIES (delta.dataSkippingNumIndexedCols = 40); 3. Limpeza de "Dados Fantasmas" com REORG Se você usa muito MERGE ou UPDATE, o Delta usa Deletion Vectors. As linhas são marcadas como excluídas, mas continuam ocupando espaço físico. O REORG reescreve os arquivos para remover esse "lixo". ⌨️ REORG TABLE minha_tabela APPLY (PURGE); 4. Economia de Storage com VACUUM Remove fisicamente do ADLS os arquivos obsoletos que não são mais necessários. ⌨️ VACUUM minha_tabela RETAIN 168 HOURS; (Mantém 7 dias de histórico para segurança, permitindo a restauração de estados anteriores da tabela em caso de falhas). 🔄 Como automatizar todo esse fluxo? A performance não é um evento único, é uma rotina. Para garantir que seu ambiente continue eficiente, você pode usar um orquestrador externo ou o próprio Workflow do Databricks: Airflow (ou outro orquestrador): Se você já centraliza seus jobs, crie uma DAG que dispara esses comandos via DatabricksSqlOperator. A vantagem é a governança e alertas centralizados em um único lugar. Databricks Workflows (Simplicidade): Crie um Job (Workflows > Create Job). Adicione uma task do tipo SQL selecionando seu SQL Warehouse e defina o agendamento. • Dica: Prefira rodar essas manutenções via SQL Task em vez de Notebooks. O motor do SQL Warehouse é otimizado para essas operações e costuma ser mais barato que manter um cluster Spark Core ativo. #Databricks #DeltaLake #DataEngineering #Azure #Airflow #DataOps #BigData #EngenhariaDeDados #CloudCost #Otimização
18
-
Juliano Martins
Mercado Libre • 26K followers
E la vamos nós para uma curadoria do que aconteceu nas ultimas 48 horas, e que eu acredito que importa bastante. Obviamente, escrito com apoio de AI! A NVIDIA encaixou 30 bilhões de parâmetros em um orçamento de computação ativa de 3 bilhões. O Nemotron-Cascade 2 foi lançado hoje como um modelo open source de mistura de especialistas. A proporção importa aqui. Você obtém a profundidade de raciocínio de um modelo muito maior ao executar inferências por uma fração do custo. Essa diferença entre o total de parâmetros e os parâmetros ativos é onde a engenharia de verdade acontece. Em outros lançamentos de hoje, o padrão é claro. O DoorDash está pagando trabalhadores autônomos para se filmarem enquanto cozinham e caminham para gerar dados de treinamento de IA. O Starling Bank lançou uma IA agêntica para finanças pessoais no Reino Unido. O LlamaIndex lançou um parser de PDF nativo em TypeScript desenvolvido especificamente para fluxos de trabalho com agentes. A OpenAI confirmou planos para um superapp do ChatGPT com um assistente de pesquisa em IA integrado. A camada de infraestrutura e a de aplicação estão se movendo na mesma direção, simultaneamente. Um lançamento mais discreto, mas que merece atenção: O Tansu.io, apresentado na QCon Londres, é um message broker open source compatível com Kafka que roda sem estado, sem líder, escala até zero e conta com backends de armazenamento plugáveis, incluindo S3 e Postgres. Essa arquitetura tem implicações para qualquer pessoa que opera sistemas orientados a eventos, sem precisar de babysitters de cluster. O fio condutor que conecta todos os lançamentos de hoje é a eficiência de custos encontrando a expansão de capacidades. Computação ativa menor. Menos recursos de infraestructura dedicados. Execução de tarefas mais autônoma. A economia de rodar IA em produção vem mudando mais rápido do que a maioria das equipes está atualizando suas premissas de arquitetura. Qual premissa de custo em produção de seis meses atrás já ficou desatualizada no seu stack? Qual será o futuro dos custos? Links nos comentarios!
26
2 Comments -
Marcos Aurelio Wozhiak Junior de Oliveira
C&A Brasil • 16K followers
você já ouviu falar de lakehouse? é basicamente a tentativa de parar de brigar entre data lake e data warehouse e juntar o melhor dos dois. em vez de: jogar tudo num data lake bagunçado depois transformar tudo pra um warehouse caro e duplicar dado no meio do caminho a ideia do lakehouse é simples: 👉 armazenar dados brutos e estruturados no mesmo lugar, com governança e performance de warehouse. vantagens na prática: menos duplicação de dados custo menor (armazenamento barato tipo object storage) suporte a batch + streaming schema enforcement e versionamento um único stack pra analytics + machine learning exemplo real: você recebe eventos brutos de aplicação (json) salva no object storage (ex: S3) usa um formato transacional tipo Delta / Iceberg consulta com Spark, Trino ou até ferramentas de BI direto ali sem precisar mover tudo pra outro sistema. outro exemplo: quer treinar modelo de ML? os dados já estão no mesmo ambiente que o analytics. não precisa criar outro pipeline só pra ciência de dados. é menos fricção. menos retrabalho. menos infra duplicada. e principalmente: mais flexibilidade pra crescer. se você quer aprender mais sobre isso, me siga. em breve vou liberar um projeto gratuito reproduzindo um lakehouse 100% open source, do zero, pra você rodar na sua máquina ou na cloud. vai ser bem mão na massa, me segue ai que nas próximas semanas vou liberar o link do vídeo no youtube!
35
5 Comments -
Victor Macedo
Olist • 1K followers
Quem é da tropinha de dados sabe o quanto o Airflow ajuda. Mas, com o crescente uso do Kubernetes dentro do ecossistema de dados, será que ele é uma alternativa kube-native para orquestração de pipelines de dados? Imagine construir uma plataforma de dados onde a orquestração, o processamento e o gerenciamento de eventos são nativos do Kubernetes. 🚀 Nesse artigo fiz uma PoC em como arquitetar e implementar uma stack poderosa e verdadeiramente "kube-native" para pipelines de dados, combinando o Kubernetes com a flexibilidade do Argo Workflows e Argo Events, e a capacidade de processamento distribuído do Apache Spark. Descubra como essa abordagem integrada pode transformar sua engenharia de dados, oferecendo: ✨ Escalabilidade Elástica e Sob Demanda: Adapte seus recursos automaticamente para cargas de trabalho. ⚡ Resiliência Nativa: Aproveite a capacidade de auto-recuperação do Kubernetes para garantir a continuidade e robustez dos seus pipelines de dados. 🔄 GitOps para Dados (DataOps): Implemente pipelines declarativos, versionados e auditáveis, aplicando as melhores práticas de CI/CD para seus fluxos de dados. 💰 Otimização de Custos: Utilize recursos de forma mais eficiente, explorando funcionalidades como Spot Instances e recursos on-demand. 🛠️ Simplificação da Stack: Reduza a complexidade operacional com um conjunto de ferramentas coeso e projetado para funcionar em conjunto. ⏱️ Aceleração do Time-to-Market: Leve seus projetos de dados para produção mais rapidamente com automação e orquestração eficientes. Este artigo não é apenas teoria; ele mostra na prática como montar esse quebra-cabeça e levar sua plataforma de dados para o próximo nível. Confira o artigo completo e veja como construir uma arquitetura de dados moderna e eficiente! 👇 https://lnkd.in/dvsa8cvA E você, já está explorando uma abordagem kube-native para o ecossistema de dados da sua empresa? Compartilhe sua experiência! 👇 #Kubernetes #DataEngineering #ArgoWorkflows #ArgoEvents #ApacheSpark #CloudNative #DevOps #DataOps #BigData #Orchestration #CI_CD #PlatformEngineering
8
-
Marcus Vinicius Coufal
Amazon Web Services (AWS) • 5K followers
Aceleração de Performance do Amazon Redshift: Impacto Estratégico em BI e ETL Um avanço significativo no Amazon Redshift: uma nova otimização de compilação de consultas que proporciona um aumento de desempenho de até 7 vezes no tempo de resposta de novas consultas SQL. Este aprimoramento é crucial para ambientes que demandam baixa latência e alta performance: Business Intelligence (BI): Melhora substancial na experiência do usuário de dashboards, garantindo análises em tempo quase real. Workloads de ETL/ELT: Acelera pipelines de dados, otimizando o fluxo de ingestão e transformação. Aplicações de IA: Capacita agentes de IA autônomos com respostas de consulta mais rápidas e consistentes. Detalhe Técnico: A inovação reside na introdução da técnica de "composição", que permite a execução imediata da consulta ao remover a compilação do caminho crítico, enquanto o código altamente otimizado é gerado em segundo plano. Esta melhoria está disponível por padrão em todos os clusters provisionados e workgroups serverless, sem requerer qualquer ação do cliente ou incorrer em custos adicionais. https://lnkd.in/db4p_dK2
6
-
Marllon Zucolotto
Consórcio Embracon • 6K followers
🚀 AUTOMAÇÃO DE DEPLOY NO DATABRICKS AGORA É CÓDIGO. Antes, era caos. Scripts manuais, ambientes desalinhados, medo de quebrar produção. O Databricks Asset Bundles (DAB) muda o jogo. Ele empacota TODO seu projeto: notebooks, pipelines, configurações. Tudo versionado como código. A integração com GitHub Actions é o pulo do gato. Aqui está o fluxo: 1. Você desenvolve localmente com a CLI do DAB. 2. Commita para um branch no GitHub. 3. O GitHub Actions aciona o workflow. O workflow usa a ação oficial 'databricks/deploy-databricks-asset-bundle'. Ele valida, constrói e implanta no ambiente alvo (dev, staging, prod) automaticamente. ✅ VANTAGENS CLARAS: 🔁 REPRODUCIBILIDADE TOTAL Deploy idêntico em qualquer ambiente. Fim dos "funciona na minha máquina". ⚙️ CONFIGURAÇÃO POR AMBIENTE Um único bundle, com variáveis específicas para dev, QA e prod. Simples. 🤖 DEPLOY AUTOMATIZADO E SEGURO CI/CD nativo. Merge para a branch principal? Deploy em produção é automático e rastreável. 🚨 ROLLBACK EM UM CLIQUE Problema? Reverta para o commit estável anterior. A infraestrutura volta ao estado conhecido. Minha visão: Isso não é só uma ferramenta nova. É uma mudança cultural. Engenharia de dados finalmente se alinha com as melhores práticas de DevOps. Sua equipe já usa bundles para gerenciar pipelines? #Databricks #DataEngineering #CICD #DevOps #GitHubActions
16
2 Comments -
Thiago Coirano
iEVO Solutions • 1K followers
⭐Star Schema vs ❄️Snowflake Schema: qual faz mais sentido no Data Warehouse? Quando começamos a estruturar um Data Warehouse, uma das decisões mais importantes é a forma de modelar os dados. Nesse contexto, dois modelos aparecem com frequência: Star Schema e Snowflake Schema. Ambos são usados para organizar dados para análise, mas seguem abordagens diferentes. ⭐ Star Schema: No modelo estrela, temos uma tabela fato central conectada diretamente às tabelas de dimensão. Esse formato costuma favorecer: • simplicidade estrutural • menor quantidade de joins • consultas mais rápidas Por isso, é muito comum em cenários de Business Intelligence, dashboards e análises em que a prioridade é facilitar o consumo dos dados. ❄️Snowflake Schema: No modelo snowflake, as dimensões são normalizadas em várias tabelas relacionadas. Essa abordagem busca: • maior organização estrutural • redução de redundância • mais governança sobre os dados Em contrapartida, as consultas tendem a exigir mais joins, o que pode aumentar a complexidade do modelo analítico. Na prática em muitos projetos, o Star Schema acaba sendo a escolha preferida por entregar uma estrutura mais simples para consulta e exploração analítica. Já o Snowflake Schema pode fazer mais sentido quando existe uma necessidade maior de normalização, governança e organização detalhada das dimensões. No fim, a escolha entre os dois depende do contexto: • objetivo do Data Warehouse • volume de dados • perfil das consultas • maturidade analítica da organização Mas uma coisa continua sendo verdade: Bons dashboards começam com bons modelos de dados. No seu contexto, qual modelo aparece com mais frequência: Star Schema ou Snowflake Schema? #dados #sql #dataanalytics #dataengineering #analytics #StarSchema #SnowflakeSchema
59
Explore top content on LinkedIn
Find curated posts and insights for relevant topics all in one place.
View top content