Apple News

Pesquisadores de segurança expressam preocupação com os planos da Apple de digitalizar imagens do iCloud, mas a prática já está amplamente difundida

Quinta-feira, 5 de agosto de 2021 14h04 PDT por Juli Clover

maçã anunciado hoje que com o lançamento de iOS 15 e iPadOS 15 , começará a escanear Fotos iCloud nos EUA em busca de material conhecido de abuso sexual infantil (CSAM), com planos de relatar as descobertas ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC).





Recurso de segurança infantil
Antes de a Apple detalhar seus planos, a notícia da iniciativa CSAM vazou e os pesquisadores de segurança já começaram a expressar preocupações sobre como o novo protocolo de digitalização de imagens da Apple poderia ser usado no futuro, conforme observado por Financial Times .

A Apple está usando um sistema 'NeuralHash' para comparar imagens CSAM conhecidas com fotos em um usuário Iphone antes de serem carregados para o iCloud. Se houver uma correspondência, essa fotografia é carregada com um voucher de segurança criptográfico e, em um determinado limite, uma revisão é acionada para verificar se a pessoa tem CSAM em seus dispositivos.



como compactar pasta no mac

No momento, a Apple está usando sua tecnologia de verificação e correspondência de imagens para detectar abuso infantil, mas os pesquisadores temem que, no futuro, ela possa ser adaptada para escanear outros tipos de imagens que são mais preocupantes, como sinais antigovernamentais em protestos.

Em uma série de tweets, o pesquisador de criptografia da Johns Hopkins Matthew Green disse que a varredura de CSAM é uma 'ideia realmente ruim' porque, no futuro, ela poderia se expandir para a varredura de fotos criptografadas de ponta a ponta, em vez de apenas o conteúdo enviado para o & zwnj; iCloud & zwnj ;. Para crianças, Apple é implementar um recurso de varredura separado que procura conteúdo sexualmente explícito diretamente em iMessages, que são criptografados de ponta a ponta.

Green também levantou preocupações sobre os hashes que a Apple planeja usar porque poderia haver 'colisões', em que alguém envia um arquivo inofensivo que compartilha um hash com o CSAM e pode resultar em uma bandeira falsa.

A Apple, por sua vez, afirma que sua tecnologia de escaneamento tem um 'nível extremamente alto de precisão' para garantir que as contas não sejam sinalizadas incorretamente e os relatórios sejam revisados ​​manualmente antes do & zwnj; iCloud & zwnj; conta é desabilitada e um relatório é enviado ao NCMEC.

Green acredita que a implementação da Apple levará outras empresas de tecnologia a adotar técnicas semelhantes. “Isso vai quebrar a represa”, escreveu ele. 'Os governos exigirão isso de todos.' Ele comparou a tecnologia a 'ferramentas que os regimes repressivos implantaram'.


O pesquisador de segurança Alec Muffett, que anteriormente trabalhou no Facebook, disse que a decisão da Apple de implementar esse tipo de digitalização de imagens foi um 'grande e regressivo passo para a privacidade individual'. 'A Apple está voltando à privacidade para permitir 1984', disse ele.

Ross Anderson, professor de engenharia de segurança da Universidade de Cambridge, disse que é uma 'ideia absolutamente terrível' que pode levar à 'vigilância em massa distribuída' de dispositivos.

Como muitos apontaram no Twitter, várias empresas de tecnologia já fazem varredura de imagens para CSAM. Google, Twitter, Microsoft, Facebook e outros usam métodos de hash de imagem para procurar e relatar imagens conhecidas de abuso infantil.


Também é importante notar que a Apple foi escaneando algum conteúdo para imagens de abuso infantil antes do lançamento da nova iniciativa CSAM. Em 2020, a diretora de privacidade da Apple, Jane Horvath, disse que a Apple usava tecnologia de triagem para procurar imagens ilegais e, em seguida, desabilitar contas se evidências de CSAM forem detectadas.

ios 9.3.3 ainda está sendo assinado

Apple em 2019 atualizou suas políticas de privacidade observar que ele examinaria o conteúdo carregado em busca de 'conteúdo potencialmente ilegal, incluindo material de exploração sexual infantil', portanto, os anúncios de hoje não são inteiramente novos.

Nota: Devido à natureza política ou social da discussão sobre este tópico, o tópico de discussão está localizado em nosso Notícias Políticas fórum. Todos os membros do fórum e visitantes do site podem ler e seguir o tópico, mas as postagens são limitadas a membros do fórum com pelo menos 100 postagens.

Tags: privacidade da Apple, recursos de segurança infantil da Apple