Conexão Digital 1178 - Pesquisa afirma que IAs alucinam em 39% das vezes em média
Você já pediu alguma coisa pra uma inteligência artificial e a resposta foi meio nada a ver? Então, o nome disso é alucinação.
As alucinações das inteligências artificiais, quando inventam informações falsas com aparência de verdade, estão se tornando mais frequentes, mesmo nos modelos mais avançados. O assunto foi matéria recente no New York Times e na Folha de São Paulo.
Empresas como a OpenAI, dona do ChatGPT, Deepseek e Microsoft, dona do Copilot, têm observado que, quanto mais potentes os modelos ficam, mais erros eles cometem, E o mais preocupante: não se sabe exatamente o motivo disso.
Essas alucinações incluem referências inventadas, nomes e fatos falsos, e explicações até plausíveis, mas erradas. O ChatGPT, por exemplo, já confundiu memórias salvas deu respostas fora de contexto. O Perplexity responde com confiança, mas ignora o contexto, levando a imprecisões.
Já o Copilot pode criar conteúdo fictício mesmo com fontes confiáveis disponíveis. Até a Manus, nova IA viral do momento, chegou a afirmar falsamente que era brasileira, alucinando sobre a própria origem. O problema não está apenas na tecnologia, mas em como usamos essas ferramentas sem senso crítico.
A recomendação é clara: não confie cegamente na IA. Ofereça um prompt o mais completo possível e sempre revise o resultado final com responsabilidade. As IAs são poderosas, mas não são neutras e nem infalíveis.
Me segue no Instagram @marcelosander. Por uma internet melhor para todos, até o próximo artigo!

Nenhum comentário :
Postar um comentário