A Apple divulgou ainda mais detalhes sobre seus novos recursos de digitalização de fotos, já que a controvérsia sobre se eles devem ser adicionados ao iPhone continua.
No início deste mês, a Apple anunciou que adicionaria três novos recursos ao iOS, todos com o objetivo de lutar contra a exploração sexual infantil e a distribuição de imagens de abuso. Um adiciona novas informações ao Siri e à pesquisa, outro verifica as mensagens enviadas a crianças para ver se podem conter imagens inadequadas e o terceiro compara as fotos de um iPhone com um banco de dados de material conhecido de abuso sexual infantil (CSAM) e alerta a Apple se houver. encontrado.
É a última dessas três características que se provou especialmente controversa. Os críticos dizem que o recurso viola o compromisso da Apple com a privacidade e que pode, no futuro, ser usado para procurar outros tipos de imagens, como fotos políticas nos telefones de pessoas que vivem em regimes autoritários.
A Apple disse repetidamente que não permitirá que o recurso seja usado para qualquer outro material e que existem várias salvaguardas para garantir que o processo seja feito de uma forma que preserve a privacidade dos usuários. Desde que o recurso foi anunciado, ele o defendeu em uma série de entrevistas e publicações e diz que ainda está adicionando o recurso conforme planejado.
Agora ela publicou um novo artigo, intitulado ‘Análise do modelo de ameaça à segurança dos recursos de segurança infantil da Apple’, que visa dar mais garantias de que o recurso será usado apenas como pretendido. Ele responde a uma série de questões de segurança e privacidade que foram levantadas desde que foi introduzido.
Um dos anúncios específicos do jornal é que a base de dados de possíveis imagens não será obtida apenas da organização oficial de um país. As fotos só serão combinadas se estiverem presentes em pelo menos dois bancos de dados de grupos diferentes – o que deve garantir que nenhum governo seja capaz de injetar outro conteúdo no banco de dados.
A Apple também permitirá que os auditores verifiquem esse banco de dados, com o banco de dados completo de identificadores que o recurso está procurando, sendo fornecido para que outros possam verificar se ele está apenas digitalizando imagens de abuso infantil. Esse banco de dados será incluído em todos os dispositivos que executam iOS e iPadOS, embora o recurso só esteja ativo nos EUA, de forma que não haverá como um telefone específico procurar imagens diferentes.
Os próprios moderadores da Apple também serão instruídos a não relatar outros tipos de imagens, diz a empresa no relatório, com o mesmo objetivo.
Ele também diz que uma conta só será sinalizada se sua biblioteca de fotos incluir pelo menos 30 imagens que parecem ser CSAM. Isso é para garantir que haja o mínimo possível de falsos positivos e deve significar que a chance de uma conta ser sinalizada incorretamente é de uma em um trilhão.