Resolução do TSE responsabiliza solidariamente big techs por publicação de conteúdos

Tribunal Superior Eleitoral prevê, durante o período eleitoral, a retirada imediata de conteúdos e contas por parte dos provedores de aplicação de internet sob pena de responsabilização solidária.

 

john-schnobrich-yFbyvpEGHFQ-unsplashResolução tem sido questionada por conta do seu do alto teor subjetivo. (Foto: Unsplash)

No fim de fevereiro, o TSE (Tribunal Superior Eleitoral) regulamentou o uso da inteligência artificial nas eleições municipais deste ano por meio da Resolução 23.732/2024, que alterou a de número 23.610/2019. As principais regras adicionadas foram proibição das deepfakes; obrigação de aviso sobre o uso de IA na propaganda eleitoral; restrição do emprego de robôs para intermediar contato com o eleitor (ou seja, não pode haver simulação de diálogo com candidato ou qualquer outra pessoa); e responsabilização solidária dos provedores de aplicação (como as big techs).

Ainda sobre essa última determinação, que consta no artigo 9º-E, os provedores de aplicação de internet serão solidariamente responsáveis civil e administrativamente (com o autor da publicação) quando não promoverem a indisponibilização imediata de conteúdos e contas durante o período eleitoral nos seguintes casos:

- de condutas, informações e atos antidemocráticos caracterizadores de violação a artigos específicos do Código Penal;

- de divulgação ou compartilhamento de fatos notoriamente inverídicos ou gravemente descontextualizados que atinjam a integridade do processo eleitoral, inclusive os processos de votação, apuração e totalização de votos;

- de grave ameaça, direta e imediata, de violência ou incitação à violência contra a integridade física de membros e servidores da Justiça Eleitoral e Ministério Público eleitoral ou contra a infraestrutura física do Poder Judiciário para restringir ou impedir o exercício dos poderes constitucionais ou a abolição violenta do Estado Democrático de Direito;

- de comportamento ou discurso de ódio, inclusive promoção de racismo, homofobia, ideologias nazistas, fascistas ou odiosas contra uma pessoa ou grupo por preconceito de origem, raça, sexo, cor, idade, religião e quaisquer outras formas de discriminação;

- de divulgação ou compartilhamento de conteúdo fabricado ou manipulado, parcial ou integralmente, por tecnologias digitais, incluindo IA, em desacordo com as formas de rotulagem trazidas na resolução.

A questão que tem sido debatida é que esse texto diverge do Marco Civil da Internet, legislação federal que disciplina a matéria desde 2014, cuja determinação é que as empresas só podem ser punidas civilmente por conteúdos de terceiros se não fizerem a remoção após ordem judicial, com exceção dos casos de nudez não consentida ou violação de propriedade intelectual. Ou seja, há, como regra geral, necessidade de uma decisão da Justiça para que as publicações sejam retiradas do ar.

“A resolução altera o regime de responsabilidade no Brasil dos provedores de aplicação de internet, incluindo as big techs. Isso porque as pessoas que encontrarem conteúdo em violação às regras da resolução do TSE poderão processar o provedor e o autor da publicação, que responderão solidariamente. Na prática, houve uma transferência da responsabilidade sobre definir o que exatamente seria um discurso de ódio para as plataformas de internet. Esse papel não cabe a elas”, diz Sandra Avella Ramirez, gerente na EY Brasil da área de Corporate & Commercial Services.

Nesse contexto, têm sido muito questionadas, por causa do alto teor subjetivo, duas expressões citadas na resolução para definir os fatos que precisam ser retirados do ar pelas empresas: “notoriamente inverídicos” e “gravemente descontextualizados”. Também por isso, o argumento é da inviabilidade de transferir a responsabilidade pela retirada do conteúdo para os provedores de aplicação de internet, já que, na prática, isso poderia resultar em censura, como parte de uma estratégia dessas empresas para controlar os riscos de serem responsabilizadas, retirando todo e qualquer conteúdo que trouxesse alguma dúvida sobre a possibilidade de responsabilização. Sem contar que a parte não interessada na veiculação de determinado conteúdo pode se aproveitar da possibilidade trazida pela resolução para exigir a retirada da publicação, alegando que se trata de algo inverídico, quando, na realidade, quer apenas omitir a informação.

“Como ainda não temos o Marco Legal da IA aprovado, o que traz riscos sobre o uso indevido dessa tecnologia nas eleições deste ano, o TSE optou por legislar sobre alguns pontos que caberiam ao Congresso Nacional. A inteligência artificial tem caminhado rapidamente, exigindo uma resposta em termos regulatórios. Há um descompasso entre regulação e tecnologia, já que as leis vêm depois das inovações tecnológicas, sendo salutar que assim seja para não inibir ou limitar seu desenvolvimento. O que não pode é demorar muito para que as regras sejam criadas sob pena de insegurança jurídica para todos os envolvidos, como empresas e cidadãos”, finaliza a advogada.

Combate à desinformação

Na semana passada, o TSE inaugurou o Centro Integrado de Enfrentamento à Desinformação e Defesa da Democracia (CIEDDE), que funciona na sede do tribunal, reunindo esforços de diferentes instituições no combate à desinformação e deepfakes no processo eleitoral. O objetivo é que o CIEDDE também atue no enfrentamento dos discursos de ódio, discriminatórios e antidemocráticos no âmbito eleitoral. A atuação será no formato de cooperação entre Justiça Eleitoral, órgãos públicos e entidades privadas, em especial plataformas de redes sociais e serviços de mensageria privada, para garantir, durante o período eleitoral, as regras da Resolução 23.732/2024.

Entre as atribuições do CIEDDE estão trocar informações entre seus integrantes, a fim de agilizar a comunicação entre os órgãos, entidades e plataformas de redes sociais, além de aprimorar a implementação de ações preventivas e corretivas; coordenar a realização de cursos, seminários e estudos para a educação em cidadania, democracia, Justiça Eleitoral, direitos digitais e combate à desinformação eleitoral; organizar campanhas publicitárias e educativas; e sugerir aos órgãos competentes mudanças normativas para fortalecer a Justiça Eleitoral, assim como para enfrentar a desinformação e os discursos de ódio e antidemocráticos no período eleitoral.