'Não é um critério aberto e subjetivo', diz Barroso sobre regulação de big techs

'Não é um critério aberto e subjetivo', diz Barroso sobre regulação de big techs

FÓRUM DE LISBOA

'Não é um critério aberto e subjetivo', diz Barroso sobre regulação de big techs

 

Não há censura na responsabilização das plataformas digitais sobre conteúdos gerados por terceiros, e os critérios que serão utilizados para coibir publicações criminosas não são subjetivos e abertos, pelo contrário. A percepção é do presidente do Supremo Tribunal Federal, ministro Luís Roberto Barroso, que participou de um painel sobre inteligência artificial no XIII Fórum de Lisboa nesta quarta-feira (2/7). A TV ConJur transmite o evento ao vivo, que acontece na Faculdade de Direito da Universidade de Lisboa (FDUL).

ConJur

Luís Roberto Barroso discursou durante o XIII Fórum de Lisboa

“Não há nenhum tipo de censura aqui, a menos que alguém ache que proibir pornografia infantil seja censura”, disse. O ministro explicou que o STF tentou encontrar um equilíbrio entre o modelo europeu de regulação (em que as plataformas recebem notificações privadas) e o norte-americano, que dá imunidade ao setor.

No modelo proposto pelo STF, o conteúdo deve ser removido por notificação privada sempre que se trate de crime, afirmou o ministro. Isso quer dizer que a vítima, o Ministério Público e qualquer pessoa pode notificar a plataforma. Também há a regra do “dever de cuidado”, sobre condutas que a plataforma não pode sequer deixar chegar ao espaço público, nas palavras de Barroso.

Isso inclui terrorismo, indução ao suicídio, racismo, feminicídio, pornografia infantil, tráfico de pessoas e atos antidemocráticos. “Não é um critério aberto e subjetivo. A legislação aprovada, aliás, no governo passado, define o que é crime contra o Estado Democrático de Direito”, disse.

Quanto aos crimes contra a honra, as plataformas só devem retirar o conteúdo do ar se houver notificação judicial. “Calúnia, injúria e difamação são critérios, por vezes, muito subjetivos. Se transferirmos para a plataforma o dever da remoção, ela é que fica sendo o árbitro de um debate público muito importante”, disse o ministro.

Participação do Legislativo

O ministro do Superior Tribunal de Justiça, Ricardo Villas Bôas Cueva, falou sobre sua participação na comissão de juristas, no Senado, do Projeto de Lei 2.338/2023, que pretende regular a inteligência artificial no Brasil.

“Não há uma resposta fácil, mas o projeto procurou atender às reclamações de associações representativas, dos produtores de conteúdo, dos artistas e dos defensores da propriedade intelectual”, disse.

O senador Eduardo Gomes (PL-TO), vice-presidente do Senado, e o deputado Aguinaldo Ribeiro (PP-PB) também falaram no painel.

“Eu enxergo a decisão do Supremo como o início de uma discussão que o Congresso, a sociedade e o Executivo devem ter sobre uma nova dinâmica com relação à vida na presença das redes sociais. A gente pode e deve discordar avançando”, disse Gomes.

Relator da Reforma Tributária, Ribeiro criticou a insistência em discussões menores pelo governo federal. “Nós deixamos, muitas vezes, de ter projetos de Estado para discutir questões circunstanciais. Não era para estarmos discutindo, por exemplo, questões fiscais, porque acabamos de aprovar a Reforma Tributária”, disse o deputado.

IA e a intervenção humana

A advogada e pesquisadora Luna van Brussel Barroso, do BFBM Advogados, defendeu que, com a regulação adequada, a IA tem o poder de tornar as decisões ainda mais transparentes. “O desenvolvimento dos algoritmos nos força a articular quais são os nossos objetivos”, disse.

Entretanto, Luna acredita que há um problema grave em concentrar a capacidade de desenvolver algoritmos em poucas empresas privadas. De acordo com ela, muitas companhias do mesmo setor recorrem ao mesmo algoritmo. Quando os mesmos sistemas produzidos pelas mesmas empresas são usados por um setor inteiro, as implicações da exclusão desse algoritmo são muito maiores e muito mais devastadoras, principalmente para o poder público.

“A decisão humana no uso da IA deve ser alocada para o momento anterior, para a etapa de desenvolvimento dos algoritmos”, concluiu.

A advogada Laura Schertel Mendes foi a mediadora do debate. “Estamos vivendo, no Brasil e no mundo, um momento de grandes transformações pela IA na comunicação, no trabalho e em todos os setores sociais. Naturalmente, temos que pensar também em soluções jurídicas”.