THE EPOICH TIMES USA
ChatGPT rejeitou mais de 250.000 solicitações para criar imagens de candidatos presidenciais antes da eleição
A OpenAI disse que aplicou medidas de segurança ao ChatGPT para recusar solicitações de geração de imagens de pessoas reais.
A OpenAI disse na sexta-feira que o ChatGPT negou mais de 250.000 solicitações para gerar imagens de candidatos presidenciais dos EUA antes das eleições gerais de 5 de novembro.
O chatbot de inteligência artificial (IA) bloqueou solicitações para gerar imagens do ex-presidente Donald Trump, da vice-presidente Kamala Harris, do presidente Joe Biden, do governador de Minnesota, Tim Walz, e do senador JD Vance (R-Ohio) no mês que antecedeu o dia da eleição, disse a OpenAI.
Aplicamos medidas de segurança ao ChatGPT para recusar solicitações de geração de imagens de pessoas reais, incluindo
políticos, disse a empresa em uma postagem de blog em 8 de novembro.
Essas proteções são especialmente importantes em um contexto eleitoral e são uma parte fundamental de nossos esforços mais
amplos para evitar que nossas ferramentas sejam usadas para propósitos enganosos ou prejudiciais, acrescentou.
O ChatGPT também direcionou perguntas sobre votação nos Estados Unidos para o CanIVote.org como parte de suas medidas de segurança durante a temporada eleitoral deste ano, de acordo com a postagem do blog.
A OpenAI disse que estava se concentrando em identificar e interromper tentativas de usar seus modelos para gerar conteúdo para operações secretas de influência visando as eleições globais deste ano.
A empresa disse que não houve evidências de operações secretas que tivessem a intenção de influenciar as eleições dos EUA, obtendo engajamento viral ou construindo públicos sustentados por meio do uso de seus modelos.
Em seu relatório de outubro , a OpenAI disse ter interrompido mais de 20 operações e redes enganosas em todo o mundo que tentaram usar seus modelos para atividades como depuração de malware, escrita de artigos para sites e geração de conteúdo postado por pessoas falsas em contas de mídia social.
Ele afirmou que a OpenAI havia interrompido os esforços para criar conteúdo de mídia social sobre as eleições nos Estados Unidos, Ruanda, Índia e União Europeia, mas que não havia nenhuma indicação de que essas redes fossem capazes de atrair engajamento viral ou construir uma audiência sustentada usando suas ferramentas.
Os agentes de ameaças continuam a evoluir e a experimentar nossos modelos, mas não vimos evidências de que isso leve a avanços significativos em sua capacidade de criar malware substancialmente novo ou construir públicos virais, afirmou o relatório.
No início deste ano , um grupo de 20 grandes empresas de tecnologia — incluindo OpenAI, Google e Meta — assinaram um pacto afirmando seu compromisso de impedir o uso enganoso de IA nas eleições deste ano em todo o mundo.
O foco específico do pacto é em áudio, vídeo e imagens gerados por IA, projetados para enganar eleitores e manipular processos eleitorais.
As empresas se comprometeram a “trabalhar colaborativamente” para desenvolver cada um de seus esforços existentes nessa área, de acordo com um comunicado à imprensa.
As empresas participantes concordaram com oito ações, incluindo o desenvolvimento de tecnologia para detectar e lidar com deepfakes, mitigar riscos e promover resiliência entre setores, além de fornecer transparência ao público sobre seus esforços.
Caden Pearson contribuiu para esta reportagem.
Por: Aldgra Fredly
Link original da matéria:
THE EPOCH TIMES USA