Neste episódio, exploramos o Databricks e seu papel no ecossistema de dados: fundamentos do Spark, conceito de Lakehouse, integrações com ferramentas como Power BI e MLflow, casos práticos e tendências para o futuro do data engineering.
Neste episódio exploramos os Small Language Models (SLMs), versões compactas e eficientes dos grandes modelos de linguagem. Você vai entender o que são, como funcionam, onde podem ser aplicados e quais as vantagens e limitações em comparação com os LLMs tradicionais. Também falamos sobre os principais modelos disponíveis (open-source e comerciais), como começar a usá-los em projetos reais — desde aplicações móveis até soluções SaaS — e quais cenários fazem mais sentido para apostar nessa tecnologia. Um guia prático e direto para quem quer colocar IA de linguagem em suas aplicações de forma leve, rápida e acessível.
Um mergulho objetivo na arquitetura e nos sistemas que sustentam operações de Geração Distribuída (GD) Compartilhada em escala: aquisição e onboarding, comissionamento, gestão de usinas e listas de beneficiários, monitoramento de geração, billing e compensação (com parser de faturas), demonstrativos ao consumidor, integrações de pagamento e conciliação, régua de cobrança, atendimento omnichannel, portal/app do cliente, além de BI e controles operacionais. Tudo em um contexto multiusina e multidistribuidora, orientado por dados e automação.
Este episódio foi produzido exclusivamente a partir do PDF anexado ao NotebookLM, com análise de conteúdo feita com ChatGPT e geração de áudio no NotebookLM.
Piloto 2 – Matemática Discreta?
Neste episódio, vamos mostrar por que a Matemática Discreta é muito mais do que teoria abstrata: ela está em tudo!
Você vai entender como conceitos como lógica, conjuntos, grafos, combinatória e criptografia movem as tecnologias que usamos todos os dias — do algoritmo de rotas do Google Maps à segurança das suas mensagens no WhatsApp.
De forma leve, divertida e cheia de analogias práticas, este episódio é um convite para enxergar essa disciplina como o verdadeiro alicerce da Computação.
Ouça agora e descubra como dominar Discreta pode ser o seu maior trunfo como programador!
O Apache Spark surgiu para superar as limitações de lentidão do Hadoop MapReduce, introduzindo o processamento em memória em 2009. Isso o torna até 100 vezes mais rápido para tarefas repetitivas, como machine learning e análises interativas. A evolução para DataFrames e Datasets e o Catalyst Optimizer facilitaram o uso e otimizaram a execução, impulsionando sua adoção.Sua principal força é ser uma plataforma unificada, consolidando processamento em lote, streaming, SQL, machine learning (MLlib) e grafos em um único ambiente, o que simplifica arquiteturas complexas. O Spark é usado desde ETL clássico até detecção de fraude em tempo real e treinamento de modelos.Apesar de poderoso, o Spark não é mágico: o gerenciamento de RAM é crucial, a otimização de clusters exige conhecimento e o custo da memória pode ser alto. Seu streaming é "quase em tempo real", não de latência ultrabaixa. Para volumes pequenos de dados, o overhead pode não compensar. No geral, o Spark virou um "canivete suíço" da engenharia de dados, transformando e unificando pipelines complexos, democratizando o processamento distribuído em larga escala.