Este ano, bilhões de pessoas em algumas das maiores democracias do mundo irão às urnas, da Europa aos Estados Unidos, enquanto cresce a preocupação de que os sistemas de inteligência artificial possam gerar desinformação em massa e influenciar os eleitores.
A OpenAI, empresa emblemática da IA generativa com o ChatGPT, delineou seus planos para tentar proibir o uso de sua tecnologia para criar candidatos falsos e visa detectar fotos geradas por software.
“Queremos garantir que nossa tecnologia não seja usada de maneira que possa minar o processo democrático”, explica a empresa liderada por Sam Altman, que dois meses atrás foi removido e depois reintegrado como CEO, devido a preocupações de que a tecnologia pudesse ficar fora de controle.
Além do popular software ChatGPT, a OpenAI produz o gerador de imagens Dall-E e fornece seu sistema de inteligência artificial para muitas empresas, incluindo a Microsoft.
Em seu blog, declarou que não permitirá que as pessoas usem sua tecnologia para criar aplicativos para campanhas políticas e atividades de lobby, para desencorajar as pessoas a votar ou espalhar desinformação sobre o processo de votação.
E não permitirá que os desenvolvedores criem chatbots que finjam ser candidatos ou instituições.
Também afirmou que começará a incorporar em imagens criadas por seu gerador Dall-E uma ferramenta para detectar fotos criadas por inteligência artificial.
Será lançado “no início deste ano”, e está sendo testado por um grupo de pessoas, incluindo jornalistas e pesquisadores.
“Estamos trabalhando para antecipar e prevenir abusos relevantes, como deepfakes enganosos, operações de influência em larga escala ou chatbots que se passam por candidatos”, diz a OpenAI, na postagem do blog.
Em relação às eleições nos Estados Unidos, em particular, a empresa explica que direcionará as perguntas dos usuários sobre o processo eleitoral para fontes confiáveis, como o CanIVote.org.
As medidas da OpenAI ocorrem depois que outras empresas de tecnologia também atualizaram suas políticas eleitorais para lidar com o aumento da inteligência artificial.
Em dezembro, o Google declarou que limitaria o tipo de respostas fornecidas por suas ferramentas de IA a perguntas relacionadas às eleições.
E exigirá que quem comprou espaços publicitários eleitorais revele quando a inteligência artificial foi usada.
Meta, a empresa-mãe do Facebook, também pedirá aos anunciantes políticos que revelem se usaram essa tecnologia.
“Até que saibamos mais, não permitiremos que as pessoas criem aplicativos para campanhas políticas e lobby. Teremos mais para compartilhar nos próximos meses”, conclui a OpenAI.