Um executivo sênior da Apple admitiu que o anúncio de seus novos recursos anti-abuso infantil foi “bastante confuso”.
Na semana passada, a empresa anunciou duas novas ferramentas importantes que seriam adicionadas ao iPhone. Um examinaria as fotos enviadas e recebidas quando fossem enviadas por crianças e procuraria sinais de imagens sexuais, enquanto outro usaria técnicas para procurar material de abuso sexual infantil nas fotos de proprietários de iPhone.
As ferramentas foram imediatamente atingidas por um grande clamor de especialistas em segurança e ativistas de privacidade, que argumentaram que a Apple estava perigosamente enfraquecendo seu compromisso de garantir que tudo em um iPhone permanecesse privado.
Embora a Apple tenha enfatizado que desenvolveu os recursos com a privacidade em mente e que nenhum ser humano veria nenhuma outra foto a menos que um limite muito alto específico fosse atingido, muitos argumentaram que as novas ferramentas representavam um enfraquecimento significativo das proteções que poderiam ser expandidas ainda mais no futuro.
Em uma nova entrevista, o chefe de software da Apple, Craig Federighi, aceitou que a forma como os recursos foram anunciados foi uma “receita para esse tipo de confusão” e que “muitas mensagens ficaram bastante confusas em termos de como as coisas eram entendidas”.
Federighi disse que a Apple continua “se sentindo muito positiva e fortemente sobre o que estamos fazendo”, mesmo em face de protestos de fora e de dentro da empresa. Mas ele disse ao Wall Street Journal que não havia feito o suficiente para explicar os recursos.
Ele sugeriu que o problema foi em grande parte motivado pelo fato de que a empresa não fez o suficiente para distinguir entre os dois recursos e, portanto, deixou as pessoas com a sensação de que a Apple estava examinando todas as fotos enviadas por meio de mensagens ou outras crenças que eram tecnicamente incorreta.
Em vez disso, ele enfatizou que o recurso mais polêmico – que examina a biblioteca de fotos de um telefone em busca de imagens de abuso infantil em um banco de dados existente e alerta a Apple se uma biblioteca atingir um limite alto o suficiente de imagens – é feito no telefone. que na maioria das vezes a Apple não verá nenhuma imagem.
Federighi também prometeu que a Apple permitirá que um auditor independente verifique o banco de dados de imagens, que é fornecido por uma organização terceirizada.
Ele também disse que a Apple iria apresentá-lo ao telefone de forma que os pesquisadores de segurança pudessem “inspecionar o que está acontecendo” no software. “Portanto, se forem feitas alterações para expandir o escopo disso de alguma forma – de uma forma que nos comprometemos a não fazer – há verificabilidade, eles podem detectar o que está acontecendo”, disse ele.
Isso vem em resposta aos avisos de alguns críticos, que disseram que a Apple poderia, por exemplo, ser forçada a adicionar outros tipos de conteúdo ao seu banco de dados, como imagens políticas.