As empresas de redes sociais devem parar de enviar conteúdo prejudicial às crianças online com algoritmos “agressivos”, exigiu o regulador online.
Ofcom publicou um novo conjunto de diretrizes para empresas de tecnologia para garantir que as crianças estejam mais protegidas online.
As sugestões incluem verificações de idade mais robustas para usuários jovens e mudanças nos algoritmos de mídia social para impedir a promoção de material prejudicial.
Acontece que o grupo de campanha de segurança online Internet Matters revela que um em cada sete adolescentes com menos de 16 anos sofreu abuso sexual online baseado em imagens.
A mãe da estudante assassinada Brianna Ghey, Esther Ghey, que fez campanha para proteger as crianças dos danos online após a morte da sua filha, saudou as novas directrizes como “extremamente positivas”, mas disse que poderiam ir um passo mais longe.
A senhora deputada Ghey disse O Independente: “Reunir-se com o Ofcom foi muito positivo. Sinto que eles realmente querem fazer uma mudança e que isso seja o mais bem-sucedido possível. Eles têm em mente os melhores interesses dos jovens.”
Ela disse que a orientação poderia ser melhorada exigindo que as empresas de mídia social permitam que os pais vejam o conteúdo acessado pelas crianças, bem como a opção de denunciar material problemático em nome da criança.
Ela acrescentou: “Brianna estava acessando sites de automutilação e páginas sobre transtornos alimentares no Twitter. Se ela não fosse capaz de acessar isso, provavelmente não teria sido encorajada a se machucar dessa forma.”
A nova orientação do Ofcom foi escrita para ajudar as empresas a cumprir os seus deveres na Lei de Segurança Online, que torna as plataformas legalmente responsáveis por manter as pessoas seguras online.
Os gigantes da mídia social deveriam ter ferramentas eficazes de verificação de idade, disse o Ofcom
De acordo com as regras, as empresas de comunicação social online terão de avaliar se as crianças têm probabilidade de aceder aos seus serviços e, em seguida, realizar uma avaliação de risco para identificar os riscos que os seus produtos representam para as crianças.
A Ofcom também afirmou que as empresas devem impedir que as crianças vejam os conteúdos mais nocivos relacionados com suicídio, automutilação, distúrbios alimentares e pornografia. Devem também minimizar a exposição de uma criança a danos graves, como material violento, odioso ou abusivo e conteúdo de bullying.
Ofcom estabeleceu uma série de coisas que sugere que as empresas façam para cumprir suas obrigações legais sob a Lei de Segurança Online, como rastrear aumentos incomuns de conteúdo prejudicial em suas plataformas e usar uma “garantia de idade altamente eficaz” para garantir que as crianças tenham idade suficiente para usar seus aplicativos.
As empresas de redes sociais não têm de seguir completamente as recomendações, mas se decidirem não o fazer, terão de mostrar como cumpriram os seus deveres legais de outra forma.
Outras propostas do regulador incluem garantir que as crianças não recebam conteúdos cada vez mais nocivos ou violentos nos seus feeds de redes sociais. Ofcom disse que as empresas de mídia social usam algoritmos para determinar como o conteúdo é mostrado aos usuários com base em suas características, interesses inferidos e comportamento. Esta é a principal forma pela qual as crianças encontram conteúdo sobre suicídio, automutilação ou distúrbios alimentares, afirma o relatório.
A Ofcom quer que as empresas de mídia social garantam que esse tipo de conteúdo não seja mostrado a crianças. Eles também querem que as regras tornem mais fácil para as crianças denunciarem conteúdo enquanto estão online. As crianças devem poder aceitar ou recusar um convite para um bate-papo em grupo, desativar comentários em suas próprias postagens e bloquear ou silenciar outras pessoas, sugeriu o Ofcom.
As empresas de tecnologia também precisam melhorar a moderação do conteúdo em suas plataformas e removê-lo mais rapidamente quando for sinalizado como impróprio para a idade, disse o Ofcom.
Uma pesquisa da Internet Matters mostrou que 14% dos adolescentes com 16 anos ou menos disseram ter sofrido abuso sexual baseado em imagens. As descobertas vêm de uma pesquisa com 1.000 crianças de 9 a 16 anos.
A Agência Nacional do Crime emitiu recentemente um raro aviso às escolas sobre os perigos crescentes dos criminosos que atacam crianças nas redes sociais e as coagem a partilhar imagens nuas. Os fraudadores então ameaçam compartilhar as fotos, a menos que o dinheiro seja pago.
Dame Melanie Dawes, diretora executiva do Ofcom, disse que por “muito tempo” as experiências on-line das crianças “foram prejudicadas por conteúdos seriamente prejudiciais que elas não podem evitar ou controlar”.
Referindo-se ao novo código de conduta, Dame Melanie disse que as empresas de tecnologia “precisarão domar algoritmos agressivos que enviam conteúdo prejudicial às crianças nos seus feeds personalizados e introduzir verificações de idade para que as crianças tenham uma experiência adequada à sua idade”.
Ela disse que, assim que as diretrizes entrarem em vigor, “não hesitaremos em usar toda a nossa gama de poderes de aplicação para responsabilizar as plataformas”.
A secretária de tecnologia, Michelle Donelan, disse que as regras do Ofcom eram “claras”, acrescentando: “As plataformas devem introduzir os tipos de verificações de idade que os jovens experimentam no mundo real e abordar algoritmos que significam muito facilmente que eles encontram material prejudicial online”.
Sir Peter Wanless, CEO da NSPCC, disse que os projetos de códigos estabelecem “altos padrões” para as empresas de tecnologia manterem as crianças seguras.
A comissária infantil, Dame Rachel de Souza, disse esperar que as diretrizes do Ofcom, juntamente com outras proteções da Lei de Segurança Online, “marquem um passo significativo no esforço contínuo para proteger as crianças online”.
Este é o primeiro rascunho de um código online para proteger as crianças produzido pelo Ofcom. Será agora consultado e uma proposta final será publicada na primavera de 2025.