maçã anunciado hoje que com o lançamento de iOS 15 e iPadOS 15 , começará a escanear Fotos iCloud nos EUA em busca de material conhecido de abuso sexual infantil (CSAM), com planos de relatar as descobertas ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC).
Antes de a Apple detalhar seus planos, a notícia da iniciativa CSAM vazou e os pesquisadores de segurança já começaram a expressar preocupações sobre como o novo protocolo de digitalização de imagens da Apple poderia ser usado no futuro, conforme observado por Financial Times .
A Apple está usando um sistema 'NeuralHash' para comparar imagens CSAM conhecidas com fotos em um usuário Iphone antes de serem carregados para o iCloud. Se houver uma correspondência, essa fotografia é carregada com um voucher de segurança criptográfico e, em um determinado limite, uma revisão é acionada para verificar se a pessoa tem CSAM em seus dispositivos.
como compactar pasta no mac
No momento, a Apple está usando sua tecnologia de verificação e correspondência de imagens para detectar abuso infantil, mas os pesquisadores temem que, no futuro, ela possa ser adaptada para escanear outros tipos de imagens que são mais preocupantes, como sinais antigovernamentais em protestos.
Em uma série de tweets, o pesquisador de criptografia da Johns Hopkins Matthew Green disse que a varredura de CSAM é uma 'ideia realmente ruim' porque, no futuro, ela poderia se expandir para a varredura de fotos criptografadas de ponta a ponta, em vez de apenas o conteúdo enviado para o & zwnj; iCloud & zwnj ;. Para crianças, Apple é implementar um recurso de varredura separado que procura conteúdo sexualmente explícito diretamente em iMessages, que são criptografados de ponta a ponta.
Green também levantou preocupações sobre os hashes que a Apple planeja usar porque poderia haver 'colisões', em que alguém envia um arquivo inofensivo que compartilha um hash com o CSAM e pode resultar em uma bandeira falsa.
A Apple, por sua vez, afirma que sua tecnologia de escaneamento tem um 'nível extremamente alto de precisão' para garantir que as contas não sejam sinalizadas incorretamente e os relatórios sejam revisados manualmente antes do & zwnj; iCloud & zwnj; conta é desabilitada e um relatório é enviado ao NCMEC.
Green acredita que a implementação da Apple levará outras empresas de tecnologia a adotar técnicas semelhantes. “Isso vai quebrar a represa”, escreveu ele. 'Os governos exigirão isso de todos.' Ele comparou a tecnologia a 'ferramentas que os regimes repressivos implantaram'.
Essas são coisas ruins. Particularmente, não quero estar do lado da pornografia infantil e não sou um terrorista. Mas o problema é que a criptografia é uma ferramenta poderosa que fornece privacidade, e você não pode ter privacidade forte ao mesmo tempo que vigia cada imagem que alguém envia. - Matthew Green (@matthew_d_green) 5 de agosto de 2021
O pesquisador de segurança Alec Muffett, que anteriormente trabalhou no Facebook, disse que a decisão da Apple de implementar esse tipo de digitalização de imagens foi um 'grande e regressivo passo para a privacidade individual'. 'A Apple está voltando à privacidade para permitir 1984', disse ele.
Ross Anderson, professor de engenharia de segurança da Universidade de Cambridge, disse que é uma 'ideia absolutamente terrível' que pode levar à 'vigilância em massa distribuída' de dispositivos.
Como muitos apontaram no Twitter, várias empresas de tecnologia já fazem varredura de imagens para CSAM. Google, Twitter, Microsoft, Facebook e outros usam métodos de hash de imagem para procurar e relatar imagens conhecidas de abuso infantil.
E se você está se perguntando se o Google verifica as imagens em busca de imagens de abuso infantil, respondi isso na história que escrevi há oito anos: tem feito isso ** DESDE 2008 **. Talvez todos se sentem e coloquem os chapéus. pic.twitter.com/ruJ4Z8SceY - Charles Arthur (@charlesarthur) 5 de agosto de 2021
Também é importante notar que a Apple foi já escaneando algum conteúdo para imagens de abuso infantil antes do lançamento da nova iniciativa CSAM. Em 2020, a diretora de privacidade da Apple, Jane Horvath, disse que a Apple usava tecnologia de triagem para procurar imagens ilegais e, em seguida, desabilitar contas se evidências de CSAM forem detectadas.
ios 9.3.3 ainda está sendo assinado
Apple em 2019 atualizou suas políticas de privacidade observar que ele examinaria o conteúdo carregado em busca de 'conteúdo potencialmente ilegal, incluindo material de exploração sexual infantil', portanto, os anúncios de hoje não são inteiramente novos.
Nota: Devido à natureza política ou social da discussão sobre este tópico, o tópico de discussão está localizado em nosso Notícias Políticas fórum. Todos os membros do fórum e visitantes do site podem ler e seguir o tópico, mas as postagens são limitadas a membros do fórum com pelo menos 100 postagens.
Tags: privacidade da Apple, recursos de segurança infantil da Apple
Publicações Populares