Funcionários da Apple estão levantando preocupações internamente sobre os planos da gigante da tecnologia de lançar um recurso que permitiria a seus dispositivos escanear as fotos e mensagens das pessoas para verificar se há sinais de abuso infantil.
Funcionários da empresa inundaram um canal interno de folga com mais de 800 mensagens sobre o plano anunciado há uma semana, informou a agência de notícias Reuters.
Muitos funcionários da Apple expressaram preocupação em uma série de mensagens no Slack de que governos repressivos poderiam explorar o recurso para encontrar materiais para censura ou prisões.
A Apple anunciou há uma semana que os novos recursos do plano a serem lançados “ainda este ano” usariam o aprendizado de máquina no dispositivo do telefone para avaliar o conteúdo das mensagens das crianças para fotos que podem ser sexualmente explícitas.
“Ao receber esse tipo de conteúdo, a foto ficará desfocada e a criança será avisada, apresentada a recursos úteis e assegurada de que está tudo bem se não quiser ver esta foto”, observou a Apple em um post no blog.
Ele disse que os recursos virão como atualizações para todas as suas plataformas, incluindo iOS 15, iPadOS 15, WatchOS 8 e MacOS Monterey.
“Queremos ajudar a proteger as crianças de predadores que usam ferramentas de comunicação para recrutá-los e explorá-los e limitar a disseminação de Material de Abuso Sexual Infantil (CSAM)”, observou Apple.
A empresa de tecnologia disse que as crianças seriam avisadas antes de enviarem fotos sexualmente explícitas e que os pais poderiam configurar notificações quando seus filhos enviarem uma foto que aciona o novo sistema.
Em um dos recursos, a Apple disse que usaria um banco de dados de imagens conhecidas de CSAM fornecidas por organizações de segurança infantil e aplicaria o aprendizado de máquina no dispositivo para procurar correspondências nas fotos armazenadas no dispositivo.
“Em vez de digitalizar imagens na nuvem, o sistema executa a correspondência no dispositivo usando um banco de dados de hashes de imagem CSAM conhecidos fornecidos pelo NCMEC e outras organizações de segurança infantil. A Apple transforma ainda mais esse banco de dados em um conjunto ilegível de hashes que é armazenado com segurança nos dispositivos dos usuários ”, observou a empresa.
Embora a Apple tenha dito que o recurso foi projetado para que a empresa não tenha acesso às mensagens, isso pode gerar preocupações por parte dos defensores da privacidade, dada a longa história da gigante da tecnologia e o compromisso de proteger a privacidade de seus usuários.
Segundo consta, os principais funcionários de segurança não faziam parte dos reclamantes sobre o assunto, mas alguns disseram que consideravam a resposta da empresa razoável para a repressão ao conteúdo ilegal.