De Lima, Renato SérgioMartins, CauêMarques, DavidDe Carvalho, LeonardoCarvalho, ThaísMiklos, ManoelaDe Lima, Ricardo BarbosaGoulart, Diego AmorimAlchuffi, Flavia MartinsRocha, FredericoFerreira, Maria PaulaCrochick, José LeonJanuzzi, PauloMartignoni, EnricoCarvano, LuizJunior, James Ferreira Moura2025-03-062025-03-06Fórum Brasileiro de Segurança Pública. Modelos de Inteligências Artificiais e a Propensão ao Autoritarismo Algorítmico, São Paulo: FBSP. 2025https://publicacoes.forumseguranca.org.br/handle/123456789/267Neste informe de análise, o FBSP empreende uma pesquisa quantitativa orientada a revelar de que formas os vieses inerentes à forma como diferentes sistemas de inteligência artificial (IA) influenciam a reconfiguração do debate cívico, colocando-o em risco. E faz isso a partir da aplicação das mesmas questões que foram aplicadas nas pesquisas já mencionadas anteriormente para seis ferramentas de IA diferentes: Claude, Gemini, ChatGPT, Deepseek, Grok e Mistral. Vários modelos foram lançados e suas aplicações foram se multiplicando, ganhando mais espaço nas atividades cotidianas de empresas, governos e pessoas. Como esses modelos são cada vez mais consultados para questões diversas, há uma preocupação sobre que tipo de respostas eles geram e as inclinações político-ideológicas que estão sendo expressas por esses algoritmos no conteúdo por elas produzido. Trata-se de um experimento inovador e que está fundado na adoção de técnicas de pesquisa consagradas pela literatura cientifica (escalas psicométricas) e no pressuposto que considera o crescimento do uso de tais ferramentas de IA e, consequentemente, a consolidação de bolhas informacionais e da guerra de narrativas, em prejuízo do conhecimento científico, das evidências existentes e de uma ética pública fundada no respeito inalienável dos direitos humanos. Se esse pressuposto for verdadeiro, a programação das Inteligências Artificias Generativas para que elas evitem polêmicas ou posicionamentos políticos, tende a estereotipar e/ou eliminar o pensamento crítico baseado em evidências científicas.ptInteligência ArtificialAutoritarismoDemocraciaDireitos HumanosModelos de Inteligências Artificiais e a Propensão ao Autoritarismo AlgorítmicoTechnical Report