Apple News

Craig Federighi reconhece a confusão em torno dos recursos de segurança infantil da Apple e explica novos detalhes sobre as proteções

Sexta-feira, 13 de agosto de 2021 7h33 PDT por Hartley Charlton

O vice-presidente sênior de engenharia de software da Apple, Craig Federighi, defendeu hoje o polêmico plano da empresa recursos de segurança infantil em uma entrevista significativa com Jornal de Wall Street , revelando uma série de novos detalhes sobre as salvaguardas incorporadas ao sistema da Apple para escanear as bibliotecas de fotos dos usuários em busca de Material de Abuso Sexual Infantil (CSAM).





privacidade craig wwdc 2021
Federighi admitiu que a Apple havia lidado com o anúncio dos dois novos recursos mal, relacionados à detecção de conteúdo explícito em Mensagens para crianças e conteúdo CSAM armazenado em Fotos iCloud bibliotecas e reconheceu a confusão generalizada em torno das ferramentas:

É realmente claro que muitas mensagens foram confundidas muito mal em termos de como as coisas foram entendidas. Gostaríamos que isso tivesse ficado um pouco mais claro para todos, porque nos sentimos muito positivos e fortemente sobre o que estamos fazendo.



como você esconde fotos no iphone

[...]

Em retrospecto, apresentar esses dois recursos ao mesmo tempo foi uma receita para esse tipo de confusão. Ao liberá-los ao mesmo tempo, as pessoas os conectaram tecnicamente e ficaram muito assustados: o que está acontecendo com minhas mensagens? A resposta é ... nada está acontecendo com suas mensagens.

O recurso de segurança nas comunicações significa que se as crianças enviarem ou receberem imagens explícitas via iMessage, elas serão avisadas antes de visualizá-las, a imagem ficará desfocada e haverá a opção de alertar seus pais. A digitalização de CSAM, por outro lado, tenta combinar as fotos dos usuários com imagens hash de CSAM conhecidos antes de serem carregadas no iCloud. As contas que tiveram o CSAM detectado estarão então sujeitas a uma revisão manual pela Apple e podem ser relatadas ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC).

um ipad tem um cartão sim?

Os novos recursos foram sujeitos a muitas críticas dos usuários, pesquisadores de segurança , a Electronic Frontier Foundation (EFF) e Edward Snowden , Ex-chefe de segurança do Facebook , e até mesmo Funcionários da Apple .

Em meio a essas críticas, Federighi abordou uma das principais áreas de preocupação, enfatizando que o sistema da Apple será protegido contra aproveitamento de governos ou terceiros com 'vários níveis de auditabilidade'.


Federighi também revelou uma série de novos detalhes sobre as salvaguardas do sistema, como o fato de que um usuário precisará atender cerca de 30 correspondências para conteúdo CSAM em seu Fotos biblioteca antes que a Apple seja alertada, após o que ela confirmará se essas imagens parecem ser instâncias genuínas de CSAM.

Se e somente se você atingir um limite de algo na ordem de 30 imagens de pornografia infantil conhecidas, só então a Apple saberá alguma coisa sobre sua conta e saberá alguma coisa sobre essas imagens e, nesse ponto, só saberá sobre essas imagens, não sobre qualquer uma de suas outras imagens. Isso não está fazendo uma análise porque você tinha uma foto do seu filho na banheira? Ou, por falar nisso, você tinha uma foto de algum outro tipo de pornografia? Isso é literalmente apenas coincidir com as impressões digitais exatas de imagens específicas de pornografia infantil.

Ele também apontou a vantagem de segurança de colocar o processo de correspondência no Iphone diretamente, em vez de ocorrer nos servidores do & zwnj; iCloud & zwnj ;.

Por estar no [telefone], os pesquisadores de segurança são constantemente capazes de introspectar o que está acontecendo no software [do telefone] da Apple. Portanto, se forem feitas alterações para expandir o escopo disso de alguma forma - de uma forma que nos comprometemos a não fazer - há verificabilidade, eles podem detectar o que está acontecendo.

Quando questionado se o banco de dados de imagens usado para corresponder ao conteúdo CSAM nos dispositivos dos usuários poderia ser comprometido por ter outros materiais inseridos, como conteúdo político em certas regiões, Federighi explicou que o banco de dados é construído a partir de imagens CSAM conhecidas de várias organizações de segurança infantil, com pelo menos dois sendo 'em jurisdições distintas,' para proteger contra o abuso do sistema.

você não tem permissão para abrir o aplicativo big sur

Essas organizações de proteção à infância, além de um auditor independente, poderão verificar se o banco de dados de imagens é composto apenas por conteúdo dessas entidades, segundo Federighi.

A entrevista de Federighi está entre as maiores resistências de relações públicas da Apple até agora, após a resposta mista do público ao anúncio dos recursos de segurança infantil, mas a empresa também tentou repetidamente abordar as preocupações dos usuários , publicando um FAQ e abordando diretamente as preocupações em entrevistas com a mídia .

Tags: The Wall Street Journal, Craig Federighi, recursos de segurança infantil da Apple