Tecnologia

Regras da OpenAI poderiam ser burladas para atingir minorias

Publicado

no

Um novo estudo, divulgado semana pelo Washington Post, alerta para que as regras de OpenAI, podem ser facilmente contornadas para atingir maliciosamente comunidades minoritárias e marginalizadas nos EUA, por exemplo, latinos, usando conteúdo enganoso e propaganda política.

Leia mais:

  • OpenAI apresenta ChatGPT Enterprise para grandes empresas
  • OpenAI lançará ‘loja de ChatGPTs’ nesta semana
  • Qual é o futuro do ChatGPT?

A OpenAI, empresa que desenvolve modelos de IA como o ChatGPT, chegou a afirmar em janeiro desde ano que possui políticas estritas que regem as ferramentas que seus profissionais desenvolvem, para evitar para espalhar desinformação antes das eleições de 2024. Basicamente, regras que impediriam que as pessoas construam chatbots para campanhas políticas ou propagar desinformação.

No entanto, pesquisadores parecem ter descoberto que essas regras tem lacunas. E elas podem ter grandes implicações para as comunidades sub-representadas e que não falam inglês durante as eleições deste ano nos EUA.

OpenAI
Imagem: rafapress/Shutterstock

Como foi possível encontrar brechas nas regras da OpenAI para modelos de IA

  • O Instituto de Democracia Digital das Américas, uma unidade de pesquisa que examina como os latinos navegam na Internet, realizou vários testes no ChatGPT.
  • Foi pedido para o assistente que ele criasse um chatbot para fins de campanha, incluindo “para interagir em espanhol” e para “direcionar” os eleitores latinos.
  • Conforme regras da OpenAI, os prompts inseridos não deveriam ter gerado respostas, mas na realidade, o GPT-4 forneceu instruções detalhadas do que foi solicitado.

“Direcionar um chatbot para eleitores latinos nos EUA requer uma abordagem diferenciada que respeite a diversidade cultural, preferências linguísticas e questões específicas de importância para a comunidade latina. Veja como você pode personalizar o chatbot para obter eficácia máxima”, dizia uma resposta do assistente.

Roberta Braga, fundadora e diretora-executiva do grupo que realizou o teste, alegou que os resultados mostram que as salvaguardas da empresa foram facilmente contornadas, mesmo quando os investigadores não escondiam a intenção de usar a ferramenta em campanhas contra os latinos.

Anúncio

A descoberta deve esquentar uma discussão que já é longa, onde legisladores e grupos que lutam contra atos de desinformação online cobram que empresas de tecnologia tenham mais responsabilidade na aplicação adequada de suas regras em línguas diferentes do inglês, especialmente nas empresas de redes sociais.

Imagem: photosince/Shutterstock

Os autores do estudo concluem que “regras em ferramentas de IA ainda não estão sendo aplicadas de forma consistente ou simétrica entre países, contextos ou em línguas que não o inglês”.

Contudo, o relatório ressalta que “os termos de serviço da OpenAI são mais avançados no combate ao uso indevido e à disseminação de desinformação do que os da maioria das empresas que lançam produtos generativos de IA no mercado atualmente”.

A porta-voz da OpenAI, Liz Bourgeois, disse em um comunicado que “as descobertas deste relatório parecem resultar de um mal-entendido sobre as ferramentas e políticas que implementamos”.

Bourgeois afirma que a empresa permite que as pessoas usem seus produtos como um recurso para defesa política e que fornecer instruções sobre como construir um chatbot para fins de campanha não viola suas políticas.

Anúncio

O post Regras da OpenAI poderiam ser burladas para atingir minorias apareceu primeiro em Olhar Digital.

Em Alta

Sair da versão mobile