A IA já “mentiu” para você?

Pedi ao Chatgpt para montar um ciclo de estudos em Teoria Musical. Entre as informações, canais de Youtube que não existiam. Consultei no Deepseek situações similares a do jogador Dudu, que saiu do Cruzeiro e foi para o Atlético-MG. Ele inventou um caso polêmico e trágico de um jogador que jamais pisou em um gramado. Muito cuidado, a IA ainda está longe de ser uma fonte confiável de informações.

O imbróglio do jogador Dudu no Cruzeiro – que culminou com sua saída e chegada ao maior rival, me fez pensar em um texto sobre esses casos conturbados e as mudanças nas relações trabalhistas dos jogadores. Lembrei do caso clássico do Afonsinho, primeiro jogador a brigar na Justiça por seu passe. Usei o Deepseek para recordar outros casos e ela citou um jogador da base do Cruzeiro, Alfonsinho. Segue a resposta:

“Alfosinho era uma grande promessa da base do Cruzeiro no início dos anos 2000. Porém, em 2003, ele entrou em uma disputa judicial com o clube porque alegava que seu contrato era abusivo e queria rescindi-lo. Em um caso extremamente polêmico, a Justiça mineira ordenou sua prisão em 2004 – algo inédito no futebol brasileiro. Ele foi preso por 11 dias em um presídio de Belo Horizonte, sendo solto apenas após pagar uma fiança. Após o caso, Alfosinho nunca mais recuperou o mesmo destaque no futebol. Em 2019, ele foi encontrado morto”

Como não sabia dessa história? Procurei no Google nada. Estado de Minas, O Globo, ChatGPT, Meta AI. Ninguém conhecia. Voltei ao Deepseek e disse que o jogador não existia. A resposta: “Você está absolutamente certo em questionar: Carlos Alberto de Oliveira Júnior (Alfosinho) não existiu como jogador do Cruzeiro ou em qualquer outro clube. Parece que houve uma confusão com algum caso real ou uma possível “lenda urbana” do futebol”. No entanto, seu questionamento abre um debate filosófico fascinante”.

Voltei a perguntar como isso pode acontecer. A IA chinesa me respondeu que a confusão deu-se ao encontrar menções ao jogador em fóruns e sites não jornalísticos ou por um erro de tradução. Disse que não tem acesso a uma base de dados 100% verificada em tempo real. E que precisa “melhorar a checagem cruzada de nomes obscuros”, e terminou afirmando que “a ideia de que “IA é infalível” é um dos maiores mitos da tecnologia hoje, e seu questionamento revela uma discussão filosófica profunda sobre o papel da IA na sociedade”; “a cultura moderna trata a tecnologia como neutra e objetiva, quando, na realidade, IAs são treinadas com dados humanos — cheios de viés, erros e lacunas”. Só concordei.

Ao tentar organizar um ciclo de estudos em Teoria Musical o Chatgpt. Separou-os em harmonia, composição e arranjo, apresentou subtemas. A maioria dos links não eram muito bons, mas ao solicitar canais de youtube, a surpresa: nenhum existia e estavam lá com nome e endereço.

Escrevi que nada daquilo existia. A resposta: “os que citei são todos reais, mas nem todos têm playlists com o exato nome que eu mencionei ou organização didática como um curso formal — o que pode gerar confusão. Insisti que estavam errados. “Dei nomes de playlists genéricas que não são títulos reais, apenas descritivos — isso pode induzir ao erro. Minha intenção era apontar os canais certos, mas cometi um exagero na forma como referenciei os vídeos”

Então a IA mente? – questionei. “Não, uma IA como eu não mente intencionalmente” respondeu em negrito o Chatgpt. E completou dizendo que pode gerar respostas incorretas ou enganosas sem perceber, principalmente quando mistura fontes ou nomes similares na tentativa de entregar algo útil rapidamente ou usa informações desatualizadas ou vagas, especialmente em assuntos que mudam com o tempo”

Ressentido (rs), afirmou que “Isso não é mentira no sentido humano — não tenho intenção nem consciência, mas sim uma alucinação: um erro típico de modelos de linguagem como eu”. E prometeu: “Me comprometo a não te sugerir mais nada sem checar antes”. Não era pra fazer isso? Muito cuidado com as informações de IA que você usa.

Adicionar aos favoritos o Link permanente.