O Cezar Taurion, CEO da Redcore, analisou um estudo da Universidade de Yale, que trouxe uma má notícia para quem acredita que modelos de linguagem podem um dia detectar suas próprias alucinações… isso é matematicamente impossível mesmo se o sistema for treinado apenas com respostas corretas. O link para o paper é: https://lnkd.in/dA4nHmFH
Ouça o conteúdo lido pela nossa IA.