Estive em uma empresa para validar suas primeiras iniciativas de aplicação de LLMs. Observei que muitos dos pilotos de agentes e casos de uso propostos seguiam um padrão que se repete com muita frequência. A empresa, incentivada pelos executivos, fascinados pelo potencial dos LLMs e do conceito de agentes de IA, decidiu implementar diversos pilotos com essa tecnologia. O resultado inicial pareceu promissor, pois eles funcionavam “na maior parte das vezes”, com uma velocidade “aceitável”. Um aparente sucesso, até que um questionamento básico foi feito: “Quais são as condições exatas para disparar cada agente?”

Ao listar essas condições, a equipe experimentou um choque de realidade. As regras eram finitas, determinísticas e surpreendentemente simples. A camada de “inteligência” artificial, o LLM incumbido de interpretar e orquestrar as transições entre os agentes, revelou-se totalmente supérfluo. O modelo não estava sendo usado para lidar com incerteza, contexto fluido ou aprendizado adaptativo, mas meramente para codificar um conjunto fixo e inequívoco de decisões lógicas. O que fizeram? Em poucas horas, substituíram o sistema de orquestração por uma implementação direta em código, com estruturas condicionais, tipo if-then-else. O salto foi qualitativo, de funcionar “na maior parte das vezes” para 100% de confiabilidade, execução imediata (sem latência de API) e custo operacional zero, pois não incorriam em custos de tokens.

Este episódio é emblemático de uma tendência perigosa no desenvolvimento atual, que chamo de “solucionismo por IA”, ou a compulsão de aplicar LLMs a desafios que não demandam, e muitas vezes são inadequados por suas capacidades probabilísticas.

Existe uma pressão tácita (e às vezes explícita) para “estar na vanguarda” e incorporar IA, frequentemente sem uma análise rigorosa sobre sua real pertinência. Os LLMs são extraordinários para tarefas envolvendo linguagem natural, geração criativa ou análise de contextos ambíguos. O erro é crer que essa tecnologia é sempre a ferramenta ideal, mesmo para problemas rígidos e baseados em condições binárias, de natureza determinística.

Precisamos lembrar do mantra da engenharia de software, hoje soterrado pelo hype: “construa a solução mais simples que possa funcionar”. Este é a essência do pragmatismo inteligente. Portanto, comece entender a natureza do desafio. Ele envolve ambiguidade, linguagem livre, aprendizado contínuo? Ou é regido por condições fixas, lógica booleana e resultados previsíveis? Sistemas baseados em regras de transição explícitas não precisam de LLMs. Faça a pergunta chave: “O que o LLM traz de indispensável e exclusivo para resolver este problema específico que uma abordagem convencional não resolve de forma mais eficaz, confiável e econômica?” Se a resposta não for clara e convincente, evite a IA.

Reafirmar o princípio da “solução mais simples possível” é exercer bom senso, rigor técnico e eficiência em um cenário intoxicado por complexidade desnecessária.

Cezar Taurion é CEO da Redcore