A verdade, ao longo da história, nunca foi um conceito estático. Ela foi disputada, construída, reinterpretada e, muitas vezes, instrumentalizada por diferentes sistemas de poder. Da tradição filosófica clássica à ciência moderna, a busca pela verdade sempre esteve associada a critérios de validação, autoridade e consenso. No entanto, na contemporaneidade, marcada pela ascensão da Inteligência Artificial, como já abordamos na coluna anterior, e pela hiperprodução de informações, observa-se um fenômeno inquietante: não apenas a relativização da verdade, mas o seu possível colapso como categoria estruturante da experiência humana.
A IA, ao ampliar exponencialmente a capacidade de produção, organização e disseminação de informações, redefine o próprio estatuto do verdadeiro. Nesse novo cenário, dados, narrativas e simulações coexistem em um mesmo nível de plausibilidade, tornando cada vez mais difícil distinguir o que é factual do que é fabricado. A coluna desta semana, a quarta de cinco, propõe analisar esse fenômeno a partir de uma perspectiva interdisciplinar, articulando psicologia cognitiva, psicologia social, psicanálise e teoria crítica, com o objetivo de levar você, leitora e leitor, a compreender como a verdade se transforma e, em certa medida, se dissolve na era dos algoritmos.
A ideia de verdade, embora frequentemente tratada como objetiva, é profundamente mediada por processos psicológicos e sociais. Jean Piaget já demonstrava que o conhecimento é construído ativamente pelo sujeito, por meio de processos de assimilação e acomodação. A verdade, nesse sentido, não é simplesmente descoberta, mas construída.
Complementando essa perspectiva, Lev Vygotsky enfatiza o papel da linguagem e da interação social na formação do conhecimento. O que consideramos verdadeiro é, em grande medida, resultado de processos coletivos de significação.
No campo da psicologia social, Serge Moscovici introduz o conceito de representações sociais, destacando que a verdade cotidiana é moldada por consensos simbólicos compartilhados. Ou seja, acreditamos em algo não apenas porque é verdadeiro, mas porque é socialmente validado como tal.
Essa base já indica que a verdade sempre foi, em alguma medida, vulnerável à influência, e é exatamente essa vulnerabilidade que a IA potencializa.
A era digital introduziu uma mudança radical na ecologia da informação. A quantidade de dados disponíveis supera, de forma massiva, a capacidade humana de processamento crítico. Nesse contexto, a verificação, elemento central da construção da verdade científica, torna-se cada vez mais difícil.
Herbert Simon já alertava que a abundância de informação gera escassez de atenção. Em outras palavras, quanto mais dados temos, menos conseguimos analisá-los profundamente.
A IA intensifica esse fenômeno ao produzir conteúdos em larga escala, muitas vezes indistinguíveis de produções humanas. Textos, imagens, vídeos e até vozes podem ser gerados com alto grau de realismo, criando um ambiente no qual a evidência sensorial, historicamente um critério de verdade, perde sua confiabilidade.
O resultado é uma crise de verificação: não sabemos mais em que confiar.
Paradoxalmente, quanto mais dados temos, mais nos aproximamos de formas narrativas que se assemelham ao mito. Isso ocorre porque o excesso de informação exige simplificação, e essa simplificação frequentemente assume a forma de histórias coerentes, ainda que não necessariamente verdadeiras.
Daniel Kahneman demonstra que o cérebro humano tende a buscar coerência narrativa, mesmo em contextos de incerteza. Esse processo, conhecido como ilusão de compreensão, leva o indivíduo a aceitar explicações plausíveis como verdadeiras, independentemente de sua veracidade.
A IA, ao organizar dados em narrativas fluidas e convincentes, potencializa esse efeito. Ela não apenas apresenta informações, mas constrói histórias, e histórias são mais persuasivas do que dados brutos.
Nesse sentido, o algoritmo não elimina o mito, ele o reconfigura. O mito contemporâneo não é mais transmitido oralmente ou por tradições religiosas, mas por sistemas digitais que produzem narrativas com aparência de objetividade.
Se a verdade sempre esteve ligada ao poder, como argumenta Michel Foucault, a era da IA introduz uma nova forma de poder: a manipulação invisível.
Diferentemente das formas tradicionais de controle, que eram explícitas, os algoritmos operam de maneira silenciosa, influenciando o que vemos, lemos e pensamos sem que percebamos. Eles selecionam informações, priorizam conteúdos e moldam percepções.
Shoshana Zuboff descreve esse fenômeno como uma forma de capitalismo de vigilância, no qual dados comportamentais são utilizados para prever e influenciar ações humanas. Nesse contexto, a verdade deixa de ser um objetivo e passa a ser um instrumento.
O indivíduo acredita estar formando suas próprias opiniões, quando, na realidade, está sendo guiado por sistemas que operam nos bastidores.
Diante desse cenário, a mente humana responde de maneira previsível. A incerteza aumenta a ansiedade, e a ansiedade intensifica a busca por respostas rápidas e seguras.
Leon Festinger demonstra que os indivíduos tendem a evitar informações que contradizem suas crenças, buscando reduzir a dissonância cognitiva. Em um ambiente saturado de informações, essa tendência é amplificada, levando à formação de bolhas informacionais.
Além disso, a IA pode reforçar essas bolhas ao personalizar conteúdos com base em preferências anteriores, criando uma realidade informacional sob medida para cada indivíduo.
O resultado é uma fragmentação da verdade: diferentes grupos passam a viver em universos simbólicos distintos, cada um com sua própria versão do que é real.
Diante de tudo isso, surge a questão central: estamos assistindo ao colapso da verdade ou à sua transformação?
Do ponto de vista psicológico, a verdade não desaparece, mas muda de função. Ela deixa de ser um critério universal e passa a ser um recurso contextual, utilizado de acordo com interesses, identidades e emoções.
A IA não destrói a verdade, ela expõe sua fragilidade. Ao tornar evidente que narrativas convincentes podem ser construídas a partir de dados, revela que o que chamamos de verdade sempre esteve, em alguma medida, ligado à interpretação.
No entanto, essa revelação tem um custo: a perda de referências compartilhadas. Sem um mínimo de consenso sobre o que é verdadeiro, a coesão social se fragiliza.
A era da Inteligência Artificial inaugura um novo capítulo na história da verdade. Entre dados, mitos e manipulações, o sujeito contemporâneo se vê diante de um cenário no qual a distinção entre real e artificial se torna cada vez mais difusa.
O desafio não é apenas tecnológico, mas profundamente psicológico e ético. Trata-se de preservar a capacidade crítica, a reflexão e o compromisso com a verdade em um ambiente que constantemente os desafia.
Se, no passado, a verdade era disputada entre religião, filosofia e ciência, hoje ela se encontra em um campo ainda mais complexo, mediado por algoritmos que operam em escalas e velocidades sem precedentes.
E talvez a questão mais urgente não seja o que é verdade, mas sim: estamos preparados, enquanto sujeitos, para viver em um mundo onde a verdade já não é evidente?
Até a próxima…