Logo do repositório
Comunidades & Coleções
Tudo no DSpace
  • English
  • العربية
  • বাংলা
  • Català
  • Čeština
  • Deutsch
  • Ελληνικά
  • Español
  • Suomi
  • Français
  • Gàidhlig
  • हिंदी
  • Magyar
  • Italiano
  • Қазақ
  • Latviešu
  • Nederlands
  • Polski
  • Português
  • Português do Brasil
  • Srpski (lat)
  • Српски
  • Svenska
  • Türkçe
  • Yкраї́нська
  • Tiếng Việt
Entrar
Esqueceu sua senha?
  1. Início
  2. Anuário Brasileiro de Segurança Pública
  3. Publicações- Anuário Brasileiro de Segurança Pública
  4. Pesquisar por Autor

Navegando por Autor "Alchuffi, Flavia Martins"

Filtrar resultados informando as primeiras letras
Agora exibindo 1 - 1 de 1
  • Resultados por Página
  • Opções de Ordenação
  • Imagem de Miniatura
    Item
    Modelos de Inteligências Artificiais e a Propensão ao Autoritarismo Algorítmico
    (Fórum Brasileiro de Segurança Pública, 2025-03-06) De Lima, Renato Sérgio; Martins, Cauê; Marques, David; De Carvalho, Leonardo; Carvalho, Thaís; Miklos, Manoela; De Lima, Ricardo Barbosa; Goulart, Diego Amorim; Alchuffi, Flavia Martins; Rocha, Frederico; Ferreira, Maria Paula; Crochick, José Leon; Januzzi, Paulo; Martignoni, Enrico; Carvano, Luiz; Junior, James Ferreira Moura
    Neste informe de análise, o FBSP empreende uma pesquisa quantitativa orientada a revelar de que formas os vieses inerentes à forma como diferentes sistemas de inteligência artificial (IA) influenciam a reconfiguração do debate cívico, colocando-o em risco. E faz isso a partir da aplicação das mesmas questões que foram aplicadas nas pesquisas já mencionadas anteriormente para seis ferramentas de IA diferentes: Claude, Gemini, ChatGPT, Deepseek, Grok e Mistral. Vários modelos foram lançados e suas aplicações foram se multiplicando, ganhando mais espaço nas atividades cotidianas de empresas, governos e pessoas. Como esses modelos são cada vez mais consultados para questões diversas, há uma preocupação sobre que tipo de respostas eles geram e as inclinações político-ideológicas que estão sendo expressas por esses algoritmos no conteúdo por elas produzido. Trata-se de um experimento inovador e que está fundado na adoção de técnicas de pesquisa consagradas pela literatura cientifica (escalas psicométricas) e no pressuposto que considera o crescimento do uso de tais ferramentas de IA e, consequentemente, a consolidação de bolhas informacionais e da guerra de narrativas, em prejuízo do conhecimento científico, das evidências existentes e de uma ética pública fundada no respeito inalienável dos direitos humanos. Se esse pressuposto for verdadeiro, a programação das Inteligências Artificias Generativas para que elas evitem polêmicas ou posicionamentos políticos, tende a estereotipar e/ou eliminar o pensamento crítico baseado em evidências científicas.

DSpace software copyright © 2002-2025 LYRASIS

  • Política de privacidade
  • Termos de uso
  • Enviar uma sugestão
Logo do repositório COAR Notify