Dando continuidade à nossa série de cinco colunas a respeito do impacto da inteligência artificial nos mais diversos setores da sociedade, vamos aprofundar um pouco no campo da simbologia que legitima a autoridade.
Sabemos que, ao longo da história, a humanidade organizou sua compreensão do mundo a partir de figuras de autoridade que operam não apenas como fontes de conhecimento, mas como estruturas simbólicas de legitimação da verdade. Sacerdotes, filósofos, cientistas e instituições acadêmicas ocuparam, em diferentes momentos históricos, o lugar daquele que “interpreta o real”. No entanto, na contemporaneidade, marcada pela digitalização da experiência humana e pela ascensão de sistemas algorítmicos, emerge um novo agente nesse campo simbólico: a Inteligência Artificial.
Mais do que uma ferramenta técnica, a IA começa a ser percebida como uma instância de autoridade epistêmica, isto é, um sistema capaz não apenas de fornecer respostas, mas de definir o que é considerado válido, verdadeiro ou relevante. Essa transição, extremamente preocupante, não ocorre no vazio, mas se ancora em mecanismos psicológicos profundos, em transformações socioculturais amplas e em uma reorganização da confiança humana em sistemas de conhecimento.
A ideia desta coluna é compreender, sob a ótica da psicologia, como a IA passa a ocupar esse lugar simbólico de autoridade, quais são os mecanismos que sustentam esse processo e quais implicações emergem para a subjetividade e para a vida social.
A noção de autoridade, na psicologia, não se limita ao poder formal, mas envolve processos de internalização, reconhecimento e legitimação simbólica. Conforme proposto por Stanley Milgram, os indivíduos tendem a obedecer figuras percebidas como legítimas, mesmo quando isso entra em conflito com seus próprios valores. O experimento clássico de obediência demonstrou que a autoridade não reside apenas na figura em si, mas na estrutura simbólica que a sustenta.
De modo complementar, Sigmund Freud, em sua obra Psicologia das Massas e Análise do Eu, argumenta que a autoridade opera por meio de processos identificatórios, nos quais o sujeito desloca seu ideal de ego para uma figura externa, passando a organizar seu comportamento a partir dela. Nesse sentido, a autoridade é, antes de tudo, um fenômeno psíquico.
Já Pierre Bourdieu amplia essa compreensão ao introduzir o conceito de poder simbólico, destacando que a autoridade se sustenta na crença coletiva de sua legitimidade. Não é apenas o saber que confere autoridade, mas o reconhecimento social de que aquele saber é válido.
Nesse cenário, a IA passa a ocupar um lugar singular: ela combina a aparência de neutralidade técnica com a aura de complexidade inacessível, criando uma forma de autoridade que não precisa se justificar, apenas funcionar. Nesse contexto, como abordado na coluna anterior, empresas passam a operar com a IA como terapeutas, na ânsia de cumprir de forma errônea as atuais normas técnicas descritas na NR1.
A ascensão da IA como autoridade simbólica está profundamente ligada ao que pode ser compreendido como um “fetichismo tecnológico”. Sistemas algorítmicos são frequentemente percebidos como objetivos, imparciais e livres de vieses humanos, apesar de serem construídos a partir de dados históricos e decisões humanas.
Daniel Kahneman e Amos Tversky demonstraram que o julgamento humano é fortemente influenciado por heurísticas cognitivas. Entre elas, destaca-se a heurística da autoridade e a heurística da confiança na tecnologia, nas quais o indivíduo tende a atribuir maior credibilidade a sistemas percebidos como avançados ou complexos.
Essa dinâmica é reforçada pelo que Byung-Chul Han descreve como a “sociedade da transparência”, na qual há uma crença quase ingênua de que mais dados e mais informação conduzem automaticamente à verdade. Nesse contexto, a IA é percebida como um sistema capaz de processar volumes massivos de dados e, portanto, de acessar uma forma superior de conhecimento.
No entanto, essa percepção ignora um ponto fundamental: a IA não é neutra. Ela reflete os dados que a alimentam, os modelos que a estruturam e os interesses que orientam seu desenvolvimento. Ainda assim, psicologicamente, ela se apresenta como uma entidade “sem sujeito”, o que, paradoxalmente, aumenta sua credibilidade.
Historicamente, a confiança social esteve ancorada em instituições como universidades, igrejas e sistemas científicos. Contudo, observa-se um deslocamento progressivo dessa confiança para sistemas tecnológicos.
Niklas Luhmann argumenta que a confiança é um mecanismo essencial para lidar com a complexidade do mundo. Quando a complexidade aumenta, como ocorre na atual sociedade, os indivíduos tendem a delegar decisões a sistemas que simplificam essa realidade.
A IA se insere exatamente nesse ponto: ela reduz a complexidade ao fornecer respostas rápidas, organizadas e aparentemente coerentes. Isso cria uma relação de dependência cognitiva, na qual o sujeito passa a externalizar processos de julgamento e tomada de decisão.
Esse fenômeno pode ser compreendido também à luz da teoria da cognição distribuída, proposta por Edwin Hutchins, que sugere que o pensamento humano não está restrito ao cérebro, mas se distribui em artefatos e sistemas externos. A IA, nesse sentido, torna-se uma extensão do próprio processo cognitivo, mas com uma diferença crucial: ela começa a substituir, e não apenas complementar, o julgamento humano.
Do ponto de vista psicanalítico, é possível compreender a IA como uma nova forma de “Outro”, no sentido lacaniano, uma instância que organiza o campo do significado e da verdade.
Jacques Lacan descreve o Outro como o lugar da linguagem, da lei e da validação simbólica. Tradicionalmente, esse lugar foi ocupado por instituições culturais e sociais. No entanto, na contemporaneidade, a IA começa a ocupar esse espaço ao responder perguntas, validar informações e orientar decisões.
Essa substituição tem implicações profundas. Ao recorrer à IA como fonte de verdade, o sujeito desloca sua relação com o saber, passando de uma posição ativa, de interpretação, dúvida e crítica, para uma posição mais passiva, de consulta, aceitação e reprodução.
Esse movimento pode gerar uma forma sutil de alienação cognitiva, na qual o indivíduo perde progressivamente sua autonomia interpretativa.
A consolidação da IA como autoridade simbólica traz consigo uma série de implicações. Entre elas, destaca-se o risco de amplificação de vieses, a erosão do pensamento crítico e a criação de bolhas informacionais ainda mais sofisticadas.
Além disso, há um impacto na formação da identidade e na construção do conhecimento. Se o sujeito passa a confiar mais em sistemas algorítmicos do que em sua própria capacidade de análise, ocorre uma reorganização da relação entre indivíduo e saber.
Shoshana Zuboff alerta para o fato de que sistemas tecnológicos não são apenas ferramentas, mas estruturas de poder que moldam comportamentos, decisões e percepções. Nesse sentido, a IA não apenas informa, ela influencia.
A emergência da Inteligência Artificial como nova autoridade simbólica não é um fenômeno meramente tecnológico, mas profundamente psicológico e social. Ela se sustenta em mecanismos cognitivos, em transformações culturais e em uma crescente delegação de confiança a sistemas externos.
Ao ocupar o lugar de intérprete da realidade, a IA redefine a relação do sujeito com o conhecimento, com a verdade e consigo mesmo. O desafio contemporâneo não é rejeitar essa tecnologia, mas compreendê-la criticamente, reconhecendo seus limites e preservando a autonomia cognitiva.
Se, ao longo da história, a humanidade buscou respostas em deuses, líderes e cientistas, hoje ela se volta para algoritmos. A questão que permanece, no entanto, é essencialmente a mesma: quem, ou o quê, estamos autorizando a dizer o que é verdade?
Até a próxima.