Apresentação: Ana Frazão / Caitlin Mulholland Produção: José Jance Marques O que é a “verdade”? Essa pergunta simples e profunda move os filósofos desde a Grécia antiga e ainda gera inquietações nos dias de hoje, especialmente em um ambiente dominado por categorias como pós-verdade, narrativas e desinformação potencializado por algoritmos e inteligências artificiais generativas. Inclusive o historiador e filósofo Yuval Harari publicou agora em setembro de 2024 uma nova obra, intitulada “Nexus: Uma breve história das redes de informação, da Idade da Pedra à inteligência artificial” (editora Companhia das Letras), na qual discute as implicações do acúmulo de dados e a busca da verdade. Harari argumenta que a informação nem sempre está vinculada à realidade ou à verdade, podendo, ao contrário, criar novas realidades ao conectar diferentes pontos de uma rede social, política ou cultural. No contexto da IA, Harari alerta que, embora as redes de informação (como os modelos de IA) possam processar volumes massivos de dados, elas não garantem uma representação precisa da realidade. Pelo contrário, as IAs podem facilmente propagar informações errôneas ou ilusórias, perpetuando crenças enganosas ou fortalecendo ideologias perigosas. A visão de Harari enfatiza a importância de não confiar cegamente na IA para descobrir a verdade, uma vez que a mera quantidade de dados processados não é suficiente para garantir sabedoria ou decisões corretas, e a informação pode ser utilizada tanto para conectar quanto para manipular. Nessa mesma linha entra o debate sobre o "discurso descuidado" em modelos de linguagem grande, ou LLMs, como são mais conhecidos. Quando falamos de LLMs, estamos nos referindo a modelos como o ChatGPT, BERT ou GPT-4, que são ferramentas poderosas de IA que geram textos a partir de vastos volumes de dados. Esses modelos, usados em assistentes virtuais, plataformas de busca, e em muitas outras aplicações, são alimentados por uma quantidade imensa de dados retirados da internet, de livros, artigos e até mídias sociais. Mas, apesar da sofisticação dessas IAs, elas frequentemente cometem erros, como fornecer informações imprecisas, incompletas ou até mesmo completamente inventadas. Esses erros são conhecidos como "alucinações" da IA. Isso nos leva a uma pergunta essencial "é possível falar em dever de falar a verdade pela IA? E se não houver, quais as implicações disso? Sabe-se que o "discurso descuidado" refere-se às saídas que esses modelos geram que parecem autoritativas, factuais, mas que, na verdade, contêm erros ou omissões significativas. Pode ser uma informação falsa, uma omissão crítica de contexto, ou até a ausência de uma indicação clara de incerteza. Um exemplo clássico seria o modelo afirmar um fato com muita confiança, quando na verdade esse fato está sujeito a debate ou é baseado em dados limitados. Para entendermos melhor, é importante lembrar que esses modelos não "entendem" a verdade. Eles funcionam por meio de predições estatísticas: dados são alimentados no modelo, que então "prevê" a sequência de palavras mais provável com base em tudo o que foi treinado. Isso significa que, ao responder perguntas factuais, o modelo se baseia na frequência com que certas informações aparecem no seu conjunto de dados. Portanto, se um fato for comum ou repetido muitas vezes nos dados, é mais provável que o modelo o gere corretamente. Mas quando a questão é mais complexa, ambígua ou sensível ao tempo, como eventos históricos com várias interpretações ou questões filosóficas, a IA pode falhar e produzir um discurso problemático. Um exemplo prático seria uma pergunta sobre filosofia, onde o LLM pode citar apenas teorias ocidentais, ignorando por completo outras tradições de pensamento, como a filosofia oriental ou africana. Isso é um exemplo claro do viés de fonte, onde o modelo favorece uma perspectiva, negligenciando outras. Outro exemplo é a apresentação de informações sem referência, onde o LLM faz uma afirmação factual sem citar uma fonte confiável, ou pior, cita fontes inventadas. Então deveríamos obrigar legalmente que os desenvolvedores de IA garantam que seus modelos digam a verdade? Em um mundo onde a IA está se tornando cada vez mais integrada em serviços essenciais, desde a saúde até o governo, essa é uma questão urgente. Há especialistas e teóricos da ética que acreditam que sim, deveríamos criar um dever legal para os provedores de IA. Essa ideia visa responsabilizar os desenvolvedores pela precisão das saídas que suas IAs produzem. Afinal, ao permitir que um chatbot de IA ofereça informações errôneas ou enganosas, corremos o risco de danificar a confiança pública em setores vitais, como a ciência, a educação e as decisões políticas. Como definir "verdade" de forma universal e aplicável a todos os cenários? Essas e outras ...