Apple News

Pesquisadores universitários que criaram um sistema de digitalização CSAM incentivam a Apple a não usar a tecnologia 'perigosa'

Sexta-feira, 20 de agosto de 2021 6h48 PDT por Sami Fathi

Pesquisadores universitários respeitados estão dando o alarme sobre a tecnologia por trás dos planos da Apple para digitalizar Iphone bibliotecas de fotos dos usuários para CSAM, ou material de abuso sexual infantil, chamando a tecnologia de 'perigosa'.





privacidade da maçã
Jonanath Mayer, professor assistente de ciência da computação e relações públicas da Universidade de Princeton, bem como Anunay Kulshrestha, pesquisador do Centro de Política de Tecnologia da Informação da Universidade de Princeton, ambos escreveu um artigo de opinião para The Washington Post , descrevendo suas experiências com a construção de tecnologia de detecção de imagem.

Os pesquisadores iniciaram um projeto há dois anos para identificar o CSAM em serviços online criptografados de ponta a ponta. Os pesquisadores observam que, devido ao seu campo, eles 'conhecem o valor da criptografia ponta a ponta, que protege os dados do acesso de terceiros'. Essa preocupação, dizem eles, é o que os horroriza com a 'proliferação de CSAM em plataformas criptografadas'.



como fazer a triagem do ios 14

Mayer e Kulshrestha disseram que queriam encontrar um meio-termo para a situação: construir um sistema que as plataformas online pudessem usar para encontrar o CSAM e proteger a criptografia de ponta a ponta. Os pesquisadores observam que especialistas na área duvidam da perspectiva de tal sistema, mas eles conseguiram construí-lo e, no processo, perceberam um problema significativo.

Procuramos explorar um possível meio-termo, onde os serviços online poderiam identificar conteúdo prejudicial enquanto preservavam a criptografia de ponta a ponta. O conceito era direto: se alguém compartilhasse um material que correspondesse a um banco de dados de conteúdo nocivo conhecido, o serviço seria alertado. Se uma pessoa compartilhasse um conteúdo inocente, o serviço não aprenderia nada. As pessoas não conseguiam ler o banco de dados ou saber se o conteúdo era compatível, uma vez que essas informações poderiam revelar métodos de aplicação da lei e ajudar os criminosos a evitarem a detecção.

Observadores experientes argumentaram que um sistema como o nosso estava longe de ser viável. Depois de muitas partidas em falso, construímos um protótipo funcional. Mas encontramos um problema gritante.

Desde o anúncio do recurso pela Apple, a empresa tem sido bombardeada com preocupações que o sistema por trás da detecção de CSAM poderia ser usado para detectar outras formas de fotos a pedido de governos opressores. A Apple se opôs fortemente a tal possibilidade, dizendo que recusará qualquer pedido de governos.

No entanto, as preocupações sobre as implicações futuras da tecnologia que está sendo usada para detecção de CSAM são generalizadas. Mayer e Kulshrestha disseram que suas preocupações sobre como os governos poderiam usar o sistema para detectar conteúdo diferente do CSAM os deixaram 'perturbados'.

iphone 8 plus versus iphone 7 plus

Um governo estrangeiro poderia, por exemplo, obrigar um serviço a pessoas que compartilham discursos políticos desfavorecidos. Isso não é hipotético: o WeChat, o popular aplicativo de mensagens chinês, já usa correspondência de conteúdo para identificar material dissidente. A Índia promulgou regras este ano que podem exigir a pré-triagem de conteúdo crítico à política governamental. A Rússia recentemente multou o Google, o Facebook e o Twitter por não removerem os materiais de protesto pró-democracia.

Identificamos outras deficiências. O processo de correspondência de conteúdo pode ter falsos positivos, e usuários mal-intencionados podem manipular o sistema para sujeitar usuários inocentes ao escrutínio.

Ficamos tão perturbados que demos um passo que não tínhamos visto antes na literatura da ciência da computação: alertamos contra o design de nosso próprio sistema, solicitando mais pesquisas sobre como mitigar as desvantagens graves ....

A Apple continuou a abordar as preocupações dos usuários sobre seus planos, publicação de documentos adicionais e uma página de FAQ . A Apple continua a acreditar que seu sistema de detecção CSAM, que ocorrerá no dispositivo do usuário, está alinhado com seus valores de privacidade de longa data.

Tags: privacidade da Apple, WashingtonPost.com, recursos de segurança infantil da Apple