NOTÍCIA
Representantes do Google, Meta, TikTok e YouTube falam da inteligência artificial para evitar ou denunciar crimes virtuais e outros cuidados que as plataformas afirmam aplicarem
Publicado em 22/02/2024
Cada dia que passa aumenta a preocupação da sociedade com os nativos digitais por conta do tempo excessivo diante do celular, exposição a discursos de ódio, crimes virtuais, de abuso e outros riscos. Mesmo com visões e interesses eventualmente conflitantes, as big techs, os grandes agentes de governo(s) e do terceiro setor buscam estratégias de cooperação em ações concretas de proteção a crianças e adolescentes nos ambientes digitais.
“Todos querem um ambiente online seguro e saudável. Para isso acontecer, tem que haver canais de colaboração, recursos e estrutura”, resumiu Estela Aranha, secretária de Direitos Digitais do Ministério da Justiça e Segurança Pública, no Dia da Internet Segura 2024 no país, evento realizado pela Safernet Brasil e o Núcleo de Informação e Coordenação do Ponto BR (NIC.br).
_________________________________________________________________________________________________
Leia também
Licenciaturas a distância estão em xeque. Governo deve mudar regras
Como fazer a integração da tecnologia digital na sala de aula
_________________________________________________________________________________________________
“Há consenso sobre os problemas”, constata Demi Getschko, diretor-presidente do NIC.br. Ele enfatiza que o primeiro passo para se discutir as respostas é acertar os conceitos e os papéis dos vários atores. “Tudo que é tratado de forma generalizada gera risco a direitos e se joga o bebê fora junto com a água do banho”, adverte.
“Entregar produtos seguros não é uma linha de chegada; é um processo contínuo”, observa Taís Niffinegger, gerente de Segurança e Bem-estar da Meta (antigo Facebook). Ela enfatiza a capacitação dos usuários não apenas para o melhor uso das ferramentas quanto para uma intervenção no próprio desenvolvimento.
“Segurança é o que permite que se usufruam os benefícios da tecnologia. Outra prioridade é a oferta de conteúdo apropriado (para crianças e para adolescentes) e de qualidade”, destaca Alana Rizzo, head de Políticas Públicas do YouTube. “A tecnologia resolve cada vez melhor o bloqueio de vídeos relacionadas a armas, drogas, abusos e outras violações às normas. Mas outras análises dependem do contexto”, pondera Fernando Gallo, diretor de Políticas Públicas do TikTok.
“Um ponto grave é que crianças consomem produtos que não foram feitos para elas, com exceções como o YouTube Kids”, observa Thiago Tavares, diretor-presidente da SaferNet Brasil. “Mesmo as coisas desenhadas por utópicos são operadas por distópicos”, acrescenta Michael Sheath, instrutor da Europol para o combate à exploração sexual infantil online e consultor da INHOP.
Com 95% das crianças conectadas, temos que pensar na quantidade; no tempo de exposição a telas. Mas a qualidade também é importante. Mais de 80% desses acessos são pelo celular, que é uma experiência efêmera, pobre, de difícil controle e vai a todos os lugares, como uma extensão do braço, lembra Laís Peretto, diretora executiva da Childhood Brasil.
Pesquisas multidisciplinares no Brasil; dados locais de uso das plataformas; e programas educação digital são os eixos da estratégia de uso ético e seguro, conforme defende Virgílio Almeida, professor da UFMG e autor de referência sobre inteligência artificial (IA).
Entre os três principais motivos apontados por Thiago Tavares, diretor-presidente da SaferNet Brasil, para o recorde de ocorrências de abuso infantil em 2023 no Canal de Denúncias Safernet, se incluem “a introdução da IA generativa para a criação desse tipo de conteúdo e a proliferação da venda de packs com imagens de nudez e sexo autogeradas por adolescentes”.
A contrapartida é que problemas criados com tecnologia podem ser resolvidos com tecnologia.
“Dos mais de 5 milhões de vídeos bloqueados no terceiro trimestre de 2023, 97% foram identificados proativamente (antes de qualquer denúncia externa ou interna) e 80% foram removidos antes de qualquer visualização. Também identificamos e desabilitamos milhões de usuários com menos de 13 anos”, informa Fernando Gallo, do TikTok.”
“O objetivo é aumentar nossa capacidade de categorizar os conteúdos no back office. Além da agilidade e eficácia para identificar o que viola as normas, a tecnologia tem também que ajudar a pegar outros conteúdos inadequados”, explica Gallo. Ele reconhece, todavia, a necessidade de uma estrutura de recursos humanos para moderação, o que, segundo o executivo, é descrita de forma granular (com dados por país) no Relatório de Transparência.
Alana Rizzo, do Google, destaca que o YouTube Kids segue cinco princípios: crianças precisam ser protegidas; pais e curadores devem poder estabelecer regras; prover acesso a conteúdo adequado e de qualidade; criança e adolescentes são diferentes; e segurança permite que se usufrua dos benefícios da tecnologia.
Ela esclarece que as recomendações usam milhões de parâmetros, com especial atenção à qualificação das fontes e sem os mecanismos de publicidade direcionada. “O YouTube Kids é outra plataforma”, salienta.
Alana Rizzo também destaca as perspectivas de evolução das ferramentas de IA aplicadas à segurança. “Com mais de 500 horas de vídeos postadas por minuto, é preciso contar com IA e ML (aprendizado de máquina) para dar conta da escala. Imagens de violência ou abuso já são mais fáceis de identificar, mas há muitos outros desafios”, diz.
Segundo Taís Niffinegger, gerente de Segurança e Bem-estar da Meta, 85% do conteúdo que viola as normas já se consegue bloquear por IA. “É importante que os usuários denunciem, inclusive para que a IA ‘aprenda’ a reconhecer”, afirma. A gerente fala de novas funcionalidades de controles para contas de menores, como limitação de tempo e restrição de mensagens privadas.
Contudo, ela enfatiza a capacitação dos usuários não apenas para o melhor uso das ferramentas quanto para uma intervenção no próprio desenvolvimento. “O produto seguro não é uma linha de chegada. É um processo que deve ser aberto e participativo”, defende. “Precisamos de adultos com conhecimento e senso crítico no ambiente digital”, complementa Alana, do Google.
A gerente de segurança da Meta informa que a empresa também converge para a abordagem de classificar os arquivos na origem. Ela menciona serviços como o StopNCII (stopncii.org) e Take It Down (takeitdown.ncmec.org/pt-pt). Na prática, os aplicativos colhem alguns parâmetros não relacionados ao conteúdo em si dos arquivos a se proteger. A partir de itens como tamanho, data e outros critérios, é gerado um hash (um número que caracteriza o arquivo), compartilhado entre os publicadores de conteúdo.
“Hoje, o volume de imagens gerado a cada segundo é assustador. Se tudo convergir para estruturas centralizadas, tudo vai depender do que acontece nos datacenters das big techs. Os próprios smartphones (fazendo jus ao próprio nome) têm recursos para aplicar políticas de tratamento de conteúdo antes que seja transmitido ou até mesmo gerado”, explica Alessandro de Oliveira Faria, especialista em visão computacional.
Em 2023, a Central Nacional de Denúncias de Crimes Cibernéticos, operada pela Safernet, recebeu um total de 101.313 denúncias únicas (ocorrências reportadas por um ou mais usuários), um recorde em seus 18 anos de atuação. As notificações de imagens de abuso e exploração sexual infantil online chegaram a 71.867, um aumento de 77% em comparação ao ano anterior.
Até então, os maiores volumes tinham ocorrido em 2008, que, conforme a Safernet “marcou o auge da disputa jurídica do Ministério Público Federal com o Google em virtude dos crimes reportados no Orkut e do acordo judicial que obrigou a companhia a entregar dados para a investigação de crimes”.
Enquanto as denúncias de racismo, homofobia e misoginia tiveram redução de 20%, 60% e 57%, respectivamente, as de intolerância religiosa aumentaram 30% e as de xenofobia 252%. “Essa taxa se concentrou no quarto trimestre e se relaciona diretamente à conjuntura no Oriente Médio”, esclarece Thiago Tavares, diretor-presidente da SaferNet Brasil.
_________________________________________________________________________________________________
Leia também
País precisa olhar para os jovens nem-nem
Governo prepara decreto de combate à violência nas escolas
_________________________________________________________________________________________________
A melhoria em 2023 do número de denúncias a crimes como racismo e misoginia, segundo o pesquisador, segue uma tendência cíclica.
“Em anos ímpares, o debate eleitoral mobiliza menos. Em anos eleitorais, como se viu em 2016, 2020 e 2022, a extrema-direita usa o discurso de ódio como tática (para manter o engajamento de sua base ideológica). Por isso é absurda a proposta de imunidade a parlamentares no PL das fake news, quando sabemos que perfis oficiais são grandes fontes de desinformação”, constata Thiago.
Junto às recentes facilidades para criação de conteúdo falso, ilegal ou impróprio, o diretor da Safernet avalia que as demissões em massa nas big techs atingiram em cheio as equipes de segurança e moderação.
“Não se revelam números, distribuição geográfica e perfil dos moderadores. Alguns vêm segurança como centro de custos e ainda há quem se escore em uma noção errática de ‘liberdade de expressão’. As imagens de abuso infantil, apesar da gravidade do crime, são mais facilmente detectadas com recursos tecnológicos. Mais complicado é entender o contexto explorado pelos discursos de ódio e outros conteúdos destrutivos. Isso exige supervisão humana”, argumenta Thiago Tavares, da Safernet Brasil.”
Entre as recomendações práticas, Tavares sugere que o Ministério do Trabalho inclua a função de ‘moderador’ na Classificação Brasileira de Ocupações. “É uma forma de termos estatísticas e de verificarmos os dados”, diz.
Apesar de sua crítica às grandes empresas, Tavares reconhece a convergência da maioria das big techs em torno de fundamentos de responsabilidade social e boas práticas. Ainda assim, avalia que a autorregulação seria insuficiente. Os mecanismos de competição no mercado, por sua vez, podem até agravar as distorções.
“Para ganhar participação no mercado, alguns entrantes baixam a régua”, diagnostica. Isso seria uma tática de marketing bem conhecida no segmento de TV aberta, em que emissoras de segunda e terceira linhas exploram conteúdo grotesco, o que acaba pressionando o padrão para baixo.
O especialista em cibersegurança lembra que as políticas públicas, de uso da rede por crianças e adolescentes, devem incluir uma agenda positiva, de oferecer alternativas. “Para tirar da frente da tela, é preciso haver espaço para outras atividades.”
Demi Getschko, do NIC.br, enfatiza que é preciso acertar os conceitos e os papéis dos vários atores.
“Quando se fala de ‘plataformas’, tem que se definir a taxonomia dos serviços. A operadora de telefonia não é responsável por alguém ligar me ofendendo, nem o carteiro tem que garantir que uma carta conte a verdade. Outra coisa é um algoritmo me entregar o que eu não quero, o que se assemelha a um spam”, exemplifica Demi Getschko.”
“Se não definirmos as categorias e organizarmos um entendimento comum, não adianta. Caso contrário, se um indivíduo quebra a cabeça do outro, se vai criminalizar o martelo”, compara.
A Safernet reitera que não se usa mais a expressão ‘pornografia infantil’: “A imagem de nudez e sexo envolvendo uma criança ou adolescente (por lei, pessoas de zero a 18 anos incompletos), por definição, não é consensual. Logo, não se trata de pornografia. O uso da expressão pornografia pressupõe também o consumo passivo do conteúdo, o que diminui a percepção da gravidade da posse e distribuição dessas imagens”, consta em comunicado da organização.
“Quem consome imagens de violência sexual infantil é cúmplice do abuso e da exploração sexual infantil”, enfatiza a Safernet.
Estela Aranha, do MJSP, observa que legislação deixa lacunas na caraterização dos abusos. “A tipificação penal para conteúdos gerados por IA generativa é complicada”, exemplifica. Ela defende que a produção e divulgação de imagens relacionadas à pedofilia, ainda que não haja o crime primário de exploração de crianças reais, devam também ser criminalizadas. “Esse tipo de conteúdo banaliza a violência”, argumenta.
Ao falar sobre ideologia da pedofilia, Michael Sheath, da INHOP, aponta correlações entre misoginia e homofobia com os crimes de abuso e exploração infantil. Segundo o investigador, é perfil típico dos criminosos ver um ‘mundo perigoso’, em que pessoas e relacionamentos necessariamente representam ameaças. “Buscam quem possa ser mais facilmente subjugado”, explica.
_________________________________________________________________________________________________
Revista Educação: referência há 28 anos em reportagens jornalísticas e artigos exclusivos para profissionais da educação básica
_________________________________________________________________________________________________