Apple News

Apple apresenta novos recursos de segurança infantil, incluindo a verificação de material de abuso sexual conhecido em bibliotecas de fotos dos usuários

Quinta-feira, 5 de agosto de 2021 13h PDT por Joe Rossignol

Apple hoje visualizou novos recursos de segurança infantil que chegará às suas plataformas com atualizações de software ainda este ano. A empresa disse que os recursos estarão disponíveis nos EUA apenas no lançamento e serão expandidos para outras regiões ao longo do tempo.





recurso de segurança de comunicação do iphone

Segurança de comunicação

Primeiro, o aplicativo Mensagens no iPhone, iPad e Mac receberá um novo recurso de Segurança de Comunicação para alertar as crianças e seus pais ao receber ou enviar fotos sexualmente explícitas. A Apple disse que o aplicativo Mensagens usará aprendizado de máquina no dispositivo para analisar anexos de imagem e, se uma foto for considerada sexualmente explícita, ela será automaticamente desfocada e a criança será avisada.



quanto custa um iphone 6 com um upgrade

Quando uma criança tenta visualizar uma foto sinalizada como confidencial no aplicativo Mensagens, ela será alertada de que a foto pode conter partes privadas do corpo e pode ser prejudicial. Dependendo da idade da criança, também haverá a opção de os pais receberem uma notificação se seu filho continuar a ver a foto sensível ou se optarem por enviar uma foto sexualmente explícita a outro contato após serem avisados.

A Apple disse que o novo recurso de Segurança de Comunicação virá em atualizações para iOS 15, iPadOS 15 e macOS Monterey ainda este ano para contas configuradas como famílias no iCloud. A Apple garantiu que as conversas do iMessage permanecerão protegidas com criptografia ponta a ponta, tornando as comunicações privadas ilegíveis pela Apple.

Digitalização de fotos para material de abuso sexual infantil (CSAM)

Em segundo lugar, a partir deste ano com iOS 15 e iPadOS 15, a Apple será capaz de detectar imagens conhecidas de Material de Abuso Sexual Infantil (CSAM) armazenadas em Fotos do iCloud, permitindo que a Apple denuncie essas ocorrências ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) , uma organização sem fins lucrativos que trabalha em colaboração com as agências de aplicação da lei dos EUA.

A Apple disse que seu método de detecção de CSAM conhecido é projetado com a privacidade do usuário em mente. Em vez de escanear imagens na nuvem, a Apple disse que o sistema fará a comparação no dispositivo contra um banco de dados de hashes de imagem CSAM conhecidos fornecidos pelo NCMEC e outras organizações de segurança infantil. A Apple disse que vai transformar ainda mais esse banco de dados em um conjunto ilegível de hashes que é armazenado com segurança nos dispositivos dos usuários.

A tecnologia de hashing, chamada NeuralHash, analisa uma imagem e a converte em um número único específico daquela imagem, segundo a Apple.

'O principal objetivo do hash é garantir que imagens idênticas e visualmente semelhantes resultem no mesmo hash, enquanto imagens diferentes umas das outras resultam em hashes diferentes', disse a Apple em um novo white paper 'Proteção Expandida para Crianças'. 'Por exemplo, uma imagem que foi ligeiramente cortada, redimensionada ou convertida de colorida para preto e branco é tratada de forma idêntica ao original e tem o mesmo hash.'

fluxograma apple csam
Antes de uma imagem ser armazenada no iCloud Photos, a Apple disse que um processo de correspondência no dispositivo é executado para aquela imagem contra o conjunto ilegível de hashes CSAM conhecidos. Se houver uma correspondência, o dispositivo cria um voucher de segurança criptográfico. Este voucher é carregado no iCloud Photos junto com a imagem e, uma vez que um limite não divulgado de correspondências seja excedido, a Apple pode interpretar o conteúdo dos vouchers para correspondências CSAM. A Apple então analisa manualmente cada relatório para confirmar se há uma correspondência, desativa a conta iCloud do usuário e envia um relatório ao NCMEC. A Apple não está compartilhando seu limite exato, mas garante um 'nível extremamente alto de precisão' de que as contas não sejam sinalizadas incorretamente.

A Apple disse que seu método de detecção de CSAM conhecido fornece 'benefícios de privacidade significativos' em relação às técnicas existentes:

• Este sistema é uma forma eficaz de identificar CSAM conhecidos armazenados nas contas do iCloud Photos, protegendo ao mesmo tempo a privacidade do usuário.
• Como parte do processo, os usuários também não podem aprender nada sobre o conjunto de imagens CSAM conhecidas que é usado para correspondência. Isso protege o conteúdo do banco de dados contra uso malicioso.
• O sistema é muito preciso, com uma taxa de erro extremamente baixa de menos de um em um trilhão de contas por ano.
• O sistema preserva significativamente mais a privacidade do que a varredura baseada em nuvem, pois relata apenas os usuários que possuem uma coleção de CSAM conhecidos armazenados nas Fotos do iCloud.

A tecnologia subjacente ao sistema da Apple é bastante complexa e publicou um resumo técnico com mais detalhes.

'A proteção expandida da Apple para crianças é uma virada de jogo. Com tantas pessoas usando produtos da Apple, essas novas medidas de segurança têm o potencial de salvar vidas para crianças que estão sendo atraídas online e cujas imagens horríveis estão circulando em material de abuso sexual infantil ', disse John Clark, presidente e CEO do National Center for Missing & Crianças exploradas. “No Centro Nacional para Crianças Desaparecidas e Exploradas, sabemos que esse crime só pode ser combatido se formos firmes em nossa dedicação à proteção das crianças. Só podemos fazer isso porque parceiros de tecnologia, como a Apple, se apresentam e mostram sua dedicação. A realidade é que a privacidade e a proteção da criança podem coexistir. Aplaudimos a Apple e esperamos trabalhar juntos para tornar este mundo um lugar mais seguro para as crianças. '

Orientação expandida de CSAM em Siri e Pesquisa

iphone csam siri
Terceiro, a Apple disse que vai expandir a orientação do Siri e do Spotlight Search em todos os dispositivos, fornecendo recursos adicionais para ajudar crianças e pais a se manterem seguros online e obter ajuda em situações inseguras. Por exemplo, os usuários que perguntam ao Siri como eles podem relatar CSAM ou exploração infantil serão direcionados a recursos sobre onde e como registrar uma denúncia.

As atualizações para Siri e Search estão chegando no final deste ano em uma atualização para iOS 15, iPadOS 15, watchOS 8 e macOS Monterey, de acordo com a Apple.

Nota: Devido à natureza política ou social da discussão sobre este tópico, o tópico de discussão está localizado em nosso Notícias Políticas fórum. Todos os membros do fórum e visitantes do site podem ler e seguir o tópico, mas as postagens são limitadas a membros do fórum com pelo menos 100 postagens.

Tags: privacidade da Apple, recursos de segurança infantil da Apple