Embarcamos em uma jornada bem-humorada e técnica no episódio 174 do Kubicast, intitulado ObservIAbilidade, para brincar com a convergência entre Observabilidade e Inteligência Artificial (IA). Recebendo o expert Luccas Quadros, desenvolvedor de software no time de IA e Machine Learning da Grafana, exploramos como essas duas áreas se entrelaçam para elevar o monitoramento a um novo patamar.
Logs, NLP e a arte de domar dados
Logo de cara, debatemos como logs — tradicionalmente desordenados e escritos para humanos — se beneficiam do Processamento de Linguagem Natural (NLP). Lucas compartilhou insights de sua trajetória, saindo de aplicações jurídicas para trabalhar na formatação e extração de significado em trilhões de eventos textuais. Descobrimos que, apesar de estruturados, logs exigem um pré‑processamento cuidadoso para que LLMs entendam timestamps, endereços IP e mensagens de erro, transformando caos em contexto.
Evolução da detecção de anomalias para IA generativa
Revisitamos os conceitos de detecção estatística de anomalias em séries temporais, tão difundidos há dois anos, e avançamos para a aplicação de IA generativa. Discutimos como modelos de linguagem podem gerar dashboards dinâmicos, sugerir thresholds inteligentes para alertas e até propor definições de SLOs. A transição do aprendizado de máquina tradicional para agentes capazes de recuar e revisar grandes volumes de métricas redefiniu o que consideramos “hype” e trouxe usabilidade real ao SRE.
Agentes inteligentes e o protocolo MCP
O grande destaque recaiu sobre os agentes de observabilidade, dotados de contexto dos ambientes, capazes de read-only access a repositórios, runbooks e dashboards. Aqui entra o MCP (Machine Connect Protocol): um conjunto de integrações que conecta LLMs a sistemas externos — Grafana, DataDog, Elastic, GitHub — permitindo que nosso agente não só leia logs, mas também colete métricas e trace spans em tempo real.
Desafios de segurança e privacidade
Nosso papo também abordou as preocupações inerentes ao envio de dados confidenciais para APIs de LLMs. Lucas ressaltou ataques de prompt injection, riscos de vazamento e a necessidade de equilibrar eficiência e compliance. Debatemos trade‑offs entre rodar modelos on‑premise versus aproveitar a escala da nuvem, definindo as melhores práticas de governança.
Perspectivas e próximos passos
Encerramos com previsões ousadas: em breve, entraremos na era em que alertas já chegarão “mastigados”, antecipando falhas como estouro de disco ou degradações sutis de performance. Discutimos o papel crítico do engenheiro no desenho de protocolos de self‑healing e as oportunidades de aceleração de carreiras para quem dominar ObservIAbilidade.
Para quem quer começar hoje:
Conecte sua base de runbooks e documentação a um LLM como assistente.
Experimente projetos open‑source de MCP para ler métricas do Prometheus e logs do Kubernetes.
Participe de eventos como o KCD Rio de Janeiro para trocar experiências.
Acesse os repos awesome-mcp no GitHub e amplie seu arsenal.
ObservIAbilidade não é apenas um trocadilho: é o futuro do monitoramento e da resposta a incidentes, costurando o melhor da Observabilidade e da IA.
Participe de nosso programa de acesso antecipado e tenha um ambiente mais seguro em instantes! https://getup.io/zerocve
🎧 Ouça também o Kubicast no Spotify, e compartilhe com toda a turma de DevOps que você ama e que adoram quebrar alguma coisinha a mais né!