Logo do repositório
Comunidades & Coleções
Tudo no DSpace
  • English
  • العربية
  • বাংলা
  • Català
  • Čeština
  • Deutsch
  • Ελληνικά
  • Español
  • Suomi
  • Français
  • Gàidhlig
  • हिंदी
  • Magyar
  • Italiano
  • Қазақ
  • Latviešu
  • Nederlands
  • Polski
  • Português
  • Português do Brasil
  • Srpski (lat)
  • Српски
  • Svenska
  • Türkçe
  • Yкраї́нська
  • Tiếng Việt
Entrar
Esqueceu sua senha?
  1. Início
  2. Anuário Brasileiro de Segurança Pública
  3. Pesquisar por Autor

Navegando por Autor "Alchuffi, Flavia Martins"

Filtrar resultados informando as primeiras letras
Agora exibindo 1 - 1 de 1
  • Resultados por Página
  • Opções de Ordenação
  • Imagem de Miniatura
    Item
    Modelos de Inteligências Artificiais e a Propensão ao Autoritarismo Algorítmico
    (Fórum Brasileiro de Segurança Pública, 2025-03-06) De Lima, Renato Sérgio; Martins, Cauê; Marques, David; De Carvalho, Leonardo; Carvalho, Thaís; Miklos, Manoela; De Lima, Ricardo Barbosa; Goulart, Diego Amorim; Alchuffi, Flavia Martins; Rocha, Frederico; Ferreira, Maria Paula; Crochick, José Leon; Januzzi, Paulo; Martignoni, Enrico; Carvano, Luiz; Junior, James Ferreira Moura
    Neste informe de análise, o FBSP empreende uma pesquisa quantitativa orientada a revelar de que formas os vieses inerentes à forma como diferentes sistemas de inteligência artificial (IA) influenciam a reconfiguração do debate cívico, colocando-o em risco. E faz isso a partir da aplicação das mesmas questões que foram aplicadas nas pesquisas já mencionadas anteriormente para seis ferramentas de IA diferentes: Claude, Gemini, ChatGPT, Deepseek, Grok e Mistral. Vários modelos foram lançados e suas aplicações foram se multiplicando, ganhando mais espaço nas atividades cotidianas de empresas, governos e pessoas. Como esses modelos são cada vez mais consultados para questões diversas, há uma preocupação sobre que tipo de respostas eles geram e as inclinações político-ideológicas que estão sendo expressas por esses algoritmos no conteúdo por elas produzido. Trata-se de um experimento inovador e que está fundado na adoção de técnicas de pesquisa consagradas pela literatura cientifica (escalas psicométricas) e no pressuposto que considera o crescimento do uso de tais ferramentas de IA e, consequentemente, a consolidação de bolhas informacionais e da guerra de narrativas, em prejuízo do conhecimento científico, das evidências existentes e de uma ética pública fundada no respeito inalienável dos direitos humanos. Se esse pressuposto for verdadeiro, a programação das Inteligências Artificias Generativas para que elas evitem polêmicas ou posicionamentos políticos, tende a estereotipar e/ou eliminar o pensamento crítico baseado em evidências científicas.

DSpace software copyright © 2002-2025 LYRASIS

  • Política de privacidade
  • Termos de uso
  • Enviar uma sugestão
Logo do repositório COAR Notify