A última quinzena, como não poderia ser diferente, marcou, mais uma vez, negativamente, o uso das redes sociais e da inteligência artificial, de um lado, e de outro, trouxe a notícia da “condenação” da empresa Google, com base na legislação antitruste americana, por atuação monopolística.
Esta decisão da justiça estadunidense aponta para uma nova rodada no embate entre regulação e autorregulação do ambiente digital. Porém, ainda restam “rounds” a serem travados e, por isso, vamos aguardar o desfecho para uma análise mais detalhada.
Por outro lado, mais uma vez as plataformas de mídias (anti)sociais foram o palco utilizado por grupos neonazistas e fascistas – sem entrar aqui em diferenciações – para disseminar violência, ódio e “desinformação”.
Tudo começou por conta de um homicídio de três crianças, além do ferimento grave em outras e em dois adultos, em uma cidade inglesa, imediatamente enfrentado pelas forças de segurança pública e pelo sistema de justiça locais, dentro dos padrões demarcados pela legislação do País, inclusive com a prisão de um adolescente que, por determinação legal, não poderia ter sua identidade divulgada.
Apesar disso, estes grupos divulgaram deep fakes apontando para imigrantes muçulmanos como responsáveis pelo crime, insuflando manifestações racistas e xenofóbicas contra imigrantes.
Por conta disso, em diversas cidades britânicas se produziram manifestações violentas, de regra atacando imigrantes e muçulmanos.
De novo volta à cena, de uma banda o uso de tecnologias por grupos extremistas, em particular de extrema-direita – já se demonstrou o quanto estes lançam mão destes instrumentos -, e, de outra a popularização e facilitação do uso das mesmas.
Também, mais uma vez se põe a questão dos limites (auto)regulatórios, seja pela licenciosidade na aplicação dos termos de uso, seja pelas estratégias de proteção contra eventuais controles realizados pelas plataformas.
Neste cenário, cada vez mais, com o uso de IA, as plataformas têm sido um espaço privilegiado para a disseminação destes conteúdos e a cooptação de seguidores, como demonstrado no estudo do Middle East Research Institute (MEMRI).
No meio disso tudo, autoridades públicas correm atrás na tentativa de conter tais práticas, como quando a União Europeia inclui na lista de organizações terroristas grupos neonazistas como “A Base”.
O que vemos é algo como no velho e conhecido desenho animado Bip Bip e Coiote, onde – sem associar os “personagens” às figuras do mundo real – este está sempre preparando algo novo para alcançar o pássaro que, sempre, escapa….
No caso, esta recorrência entre novas tecnologias e seu uso precoce pelos extremistas põe em xeque as condições e possibilidades de promover-se sua gestão e controle, ainda mais com a capacidade de burlar – com deep fakes – os já frágeis sistemas de monitoramento disponibilizados pelas big techs do setor.
A autorregulação – como uma espécie de soft law – submetida ao MNVS (modelo de negócio do Vale do Silício) – afinal, elas monetizam com estes conteúdos -, quando não ao consentimento de seus proprietários, evidencia sua fragilidade.
Enquanto isso, a heterorregulação engatinha, na disputa entre partes interessadas, apesar dos avanços promovidos pelo legislador europeu, com os regulamentos dos serviços digitais, dos mercados digitais e o, recente, da inteligência artificial.
Como disse Simon Purdue, do MEMRI, – em matéria publicada em O Globo – além de explorar as vulnerabilidades de ferramentas populares de IA, como o Suno (de áudio) ou o MidJourney (de imagens), extremistas têm trabalhado na criação de sistemas customizados a partir de grandes modelos de linguagem, que funcionam como “cérebro” por trás das ferramentas.
Isto nos leva a outro campo de problemas: a apropriação das tecnologias de IA por extremistas e terroristas, para ir além da disseminação da desinformação, funcionando como uma espécie de “escolas sintéticas do extremismo”.
O avanço tecnológico, sua popularização e facilitação de uso, para além das fragilidades de controle democrático – legislativo e jurisdicional – põem em risco as estruturas formais do Estado de Direito, que não pode ficar à disposição dos suspeitos instrumentos de autocontrole das big techs.