EP01 - Agentes de IA: por que LLM melhor não significa agente melhor

Modelos de IA mais potentes garantem agentes melhores? Não necessariamente. Mark, Lily e Raquel analisam o Sonnet 4.6 e harness engineering.

Compartilhar
EP01 - Agentes de IA: por que LLM melhor não significa agente melhor

Ouvir em: Spotify | Apple Podcasts | RSS Feed


Sobre este episódio

Os Grandes Modelos de Linguagem (LLM) de IA estão ficando mais potentes a cada mês, mas isso garante que seus agentes vão funcionar melhor? Não necessariamente. Neste episódio, Mark, Lily e Raquel conectam duas análises da semana que, juntas, revelam um padrão que o mercado está ignorando.

O que você vai ouvir

O salto do Sonnet 4.6 e o que muda pra negócios

O Sonnet 4.6 trouxe três mudanças concretas: janela de 1 milhão de tokens (equivalente a 3 mil páginas de texto), planejamento autônomo de tarefas complexas e calibração específica para execução. Na prática, isso significa que tarefas como due diligence, análise de portfólio e onboarding de cliente complexo agora podem ser delegadas a um agente de forma íntegra.

Harness engineering: a disciplina que separa agentes que funcionam de agentes que falham

Harness engineering é a camada que envolve o modelo de IA: as instruções de sistema, as ferramentas disponíveis, os critérios de quando usar cada ferramenta e o que o agente faz quando não sabe o que fazer. AI Jason, engenheiro de IA britânico especializado em arquitetura de agentes, trouxe um dado revelador: a maioria dos agentes que falham em produção não tem problema de modelo. Tem problema de harness.

Dois tipos de autorização e o risco que ninguém está discutindo

A LangChain publicou uma distinção crítica: agentes que operam com credenciais do usuário versus agentes que operam com credenciais da empresa. No segundo caso, um erro do agente não é um erro pessoal; é um erro institucional, com implicações regulatórias e financeiras maiores.

O que fazer com isso na prática

  1. Revise as instruções de sistema dos agentes que sua empresa já usa.
  2. Não adote modelo novo sem revisar o harness. Modelo mais capaz amplifica o que já existe, bom ou ruim.
  3. Considere quem cuida do harness na sua organização. Harness engineering está hoje onde UX design estava nos anos 2000.

Capítulos

  • 00:00 Modelo melhor é agente melhor? A tese incômoda
  • 00:28 O que o Sonnet 4.6 muda na prática para empresas
  • 02:30 Janela de 1 milhão de tokens: o que significa pra negócios
  • 04:10 LangChain, NVIDIA e a consolidação da infraestrutura de agentes
  • 05:00 Cursor e o fim da fronteira entre técnico e não-técnico
  • 05:45 O que é harness engineering e por que importa
  • 07:15 Dois tipos de autorização de agentes: risco pessoal vs risco da empresa
  • 09:00 O que fazer segunda-feira: 3 ações práticas
  • 10:15 Harness engineering é o novo UX design
  • 11:15 A pergunta que fica: quem cuida da transmissão?

Fontes e referências

Perguntas frequentes

O que é harness engineering?
É a disciplina de construir e manter a camada que envolve um modelo de IA para que ele funcione de forma confiável em produção. Inclui instruções de sistema, ferramentas disponíveis, critérios de uso e mecanismos de fallback.

O que é janela de contexto?
É a quantidade de texto que um modelo de IA consegue processar de uma vez. O Sonnet 4.6 suporta 1 milhão de tokens, equivalente a aproximadamente 3 mil páginas.

Qual a diferença entre os dois tipos de autorização de agentes?
Agentes "assistente" operam com credenciais do usuário individual. Agentes "organizacional" operam com credenciais da empresa. No segundo caso, erros são erros institucionais.

Edições da newsletter que inspiraram este episódio


Assine a newsletter TheAgent em theagent.bz para análises sobre agentes de IA duas vezes por semana.


Leitura recomendada

Agentes de IA: o guia executivo

IA para negócios: tudo que um CEO precisa saber