Hannah Maruci

O rápido avanço da Inteligência Artificial (IA), principalmente das chamadas inteligências generativas, nos últimos anos têm chamado a atenção e levantado debates importantes. De um lado, busca-se compreender e maximizar a forma como essas ferramentas podem auxiliar na realização de tarefas que hoje são – ou ao menos eram até os últimos anos – feitas exclusivamente por humanos. Escrever artigos, criar imagens, traduzir palavras, resumir longos textos, tudo isso já pode ser feito com alguma precisão pelas máquinas. Assim, nas redes sociais, na escrita acadêmica e até mesmo nas artes a possibilidade de se utilizar a IA para facilitar o trabalho vem sendo cada vez mais aceita, ao mesmo tempo em que os limites para essa aceitação ainda são nebulosos.

Por outro lado, a proximidade da corrida eleitoral para as eleições municipais de 2024 levanta reais preocupações sobre os possíveis impactos nocivos do uso desenfreado dessas tecnologias. O principal receio é que elas possam intensificar e escalonar o uso já preocupante das fake news, por meio principalmente das chamadas deep fakes, tecnologias que são capazes de criar áudios, fotos e até mesmo vídeos de situações que não ocorreram e com pessoas que sequer estavam realmente no local de forma impressionantemente fidedigna.

Diante dessa preocupação, a Justiça Eleitoral apresentou, no início do mês de março deste ano, resoluções que irão reger estas eleições, sendo parte delas dedicada a regulamentar o uso da IA nas eleições. O ministro Alexandre de Moraes afirmou se tratar de umas das normas mais modernas do mundo sobre o uso ilícito de Inteligência Artificial. Dentre as normativas, destacam-se: (i) a necessidade de aviso de utilização de qualquer modalidade de IA nos conteúdos de campanha, de modo que fique explícito para o eleitor quando o uso dessas ferramentas foi feito; (ii) a proibição total do uso de deep fakes, mesmo que sendo usadas imagens do próprio candidato ou candidata, com seu consentimento, podendo implicar a cassação de seu registro ou do mandato; (iii) a responsabilização das plataformas, as quais devem retirar imediatamente do ar conteúdos que contenham discurso de ódio e desinformação.

Em relação ao terceiro ponto, é importante notar, porém, que a plataforma se responsabiliza pela remoção ou suspensão de perfis que estejam praticando os atos em questão apenas após decisão judicial e com a determinação de um prazo que não pode ser inferior a 24 horas. O que talvez esteja sendo deixado de lado nessa equação são dois pontos importantes. O primeiro ponto é que 24 horas (o prazo mínimo para que a plataforma remova um conteúdo ou perfil do ar após decisão judicial), somadas ao tempo da elaboração da representação e o envio à Justiça Eleitoral, podem ser determinantes no período eleitoral. A imagem de um candidato ou candidata pode ser destruída por meio de uma fake news em 24 horas, ou ainda, uma campanha pode perder muito tempo ao ser bombardeada por bots, por exemplo.

Essa questão é delicada, pois o outro modelo possível seria colocar nas mãos da plataforma a decisão de retirar ou não um conteúdo ou usuário, sem a necessidade da intervenção do Judiciário. Tal modelo poderia ser ainda mais prejudicial, visto que esse o trabalho de identificar esse tipo de conteúdo é muitas vezes feito justamente por IA, o que pode levar à perda de contexto do conteúdo em questão, além de reproduzir desigualdades estruturais  – fenômeno ligado ao que se chamada de dupla opacidade algorítmica, segundo a qual os discursos dominantes invisibilizam os aspectos sociais e raciais na sociedade, incluindo a tecnologia.

O segundo ponto é que algo que se apresenta como “simples”, como fazer uma representação para a Justiça Eleitoral em caso de fake news, pode ser mais simples para uns do que para outros. Isto porque estamos falando do momento de campanha, no qual cada minuto vale para a conquista de votos. Há ainda uma desigualdade inegável entre as estruturas de campanhas de um ponto de vista de gênero e raça. Isto é, as desigualdades estruturais da sociedade brasileira não são dissolvidas no contexto eleitoral, pelo contrário, podem se aprofundar. Assim, os grupos que já são os mais sub-representados e que mais sofrem com a violência política de gênero e raça, podem ser também os mais prejudicados diante da necessidade dessa espera.

Em síntese, diante do avanço acelerado da Inteligência Artificial e suas potenciais aplicações nas eleições municipais de 2024, as preocupações sobre o uso ético e regulamentação adequada se tornam prementes. A recente iniciativa da Justiça Eleitoral em apresentar resoluções que regem o uso da IA nas eleições demonstra um esforço para mitigar os possíveis impactos negativos, como a disseminação de fake news e deep fakes. No entanto, é crucial reconhecer que a aplicação dessas normativas enfrenta desafios significativos. O tempo necessário para a remoção de conteúdos prejudiciais pode ser insuficiente diante da velocidade com que as informações se propagam durante uma campanha eleitoral. Além disso, as disparidades sociais, especialmente de gênero e raça, podem amplificar as dificuldades enfrentadas por determinados grupos na proteção de suas imagens e reputações. Nesse sentido, a busca por soluções eficazes requer uma abordagem que contemple não apenas a regulação tecnológica, mas também a promoção da equidade e da justiça social em todos os aspectos do processo eleitoral[1].

[1] O parágrafo de conclusão deste artigo foi gerado pela inteligência artificial Chat GPT por meio do comando “crie um parágrafo de conclusão para este artigo”.