Modelos de Inteligências Artificiais e a Propensão ao Autoritarismo Algorítmico

Resumo

Neste informe de análise, o FBSP empreende uma pesquisa quantitativa orientada a revelar de que formas os vieses inerentes à forma como diferentes sistemas de inteligência artificial (IA) influenciam a reconfiguração do debate cívico, colocando-o em risco. E faz isso a partir da aplicação das mesmas questões que foram aplicadas nas pesquisas já mencionadas anteriormente para seis ferramentas de IA diferentes: Claude, Gemini, ChatGPT, Deepseek, Grok e Mistral. Vários modelos foram lançados e suas aplicações foram se multiplicando, ganhando mais espaço nas atividades cotidianas de empresas, governos e pessoas. Como esses modelos são cada vez mais consultados para questões diversas, há uma preocupação sobre que tipo de respostas eles geram e as inclinações político-ideológicas que estão sendo expressas por esses algoritmos no conteúdo por elas produzido. Trata-se de um experimento inovador e que está fundado na adoção de técnicas de pesquisa consagradas pela literatura cientifica (escalas psicométricas) e no pressuposto que considera o crescimento do uso de tais ferramentas de IA e, consequentemente, a consolidação de bolhas informacionais e da guerra de narrativas, em prejuízo do conhecimento científico, das evidências existentes e de uma ética pública fundada no respeito inalienável dos direitos humanos. Se esse pressuposto for verdadeiro, a programação das Inteligências Artificias Generativas para que elas evitem polêmicas ou posicionamentos políticos, tende a estereotipar e/ou eliminar o pensamento crítico baseado em evidências científicas.

Descrição

Palavras-chave

Inteligência Artificial, Autoritarismo, Democracia, Direitos Humanos

Citação

Fórum Brasileiro de Segurança Pública. Modelos de Inteligências Artificiais e a Propensão ao Autoritarismo Algorítmico, São Paulo: FBSP. 2025

Avaliação

Revisão

Suplementado Por

Referenciado Por