Apple News

Apple está aberta para expandir novos recursos de segurança infantil para aplicativos de terceiros

Segunda-feira, 9 de agosto de 2021 12h PDT por Joe Rossignol

A Apple realizou hoje uma sessão de perguntas e respostas com repórteres sobre seu novos recursos de segurança infantil , e durante o briefing, a Apple confirmou que estaria aberta para expandir os recursos para aplicativos de terceiros no futuro.





recurso de segurança de comunicação do iphone
Como uma lembrança, a Apple revelou três novos recursos de segurança infantil para futuras versões do iOS 15, iPadOS 15, macOS Monterey e / ou watchOS 8.

Novos recursos de segurança infantil da Apple

Primeiro, um recurso opcional de Segurança de comunicação no aplicativo Mensagens no iPhone, iPad e Mac pode avisar as crianças e seus pais ao receber ou enviar fotos sexualmente explícitas. Quando o recurso está ativado, a Apple disse que o aplicativo Mensagens usará aprendizado de máquina no dispositivo para analisar anexos de imagem e, se uma foto for considerada sexualmente explícita, ela será automaticamente desfocada e a criança será avisada.



Em segundo lugar, a Apple será capaz de detectar imagens conhecidas de material de abuso sexual infantil (CSAM) armazenadas no iCloud Photos, permitindo que a Apple relate essas ocorrências ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC), uma organização sem fins lucrativos que trabalha em colaboração com as agências de aplicação da lei dos EUA. A Apple confirmou hoje que o processo só se aplicará a fotos enviadas para o iCloud Photos e não a vídeos.

Terceiro, a Apple expandirá a orientação do Siri e do Spotlight Search em todos os dispositivos, fornecendo recursos adicionais para ajudar crianças e pais a se manterem seguros online e obter ajuda em situações inseguras. Por exemplo, os usuários que perguntam ao Siri como eles podem relatar CSAM ou exploração infantil serão direcionados a recursos sobre onde e como registrar uma denúncia.

Expansão para aplicativos de terceiros

A Apple disse que embora não tenha nada a compartilhar hoje em termos de anúncio, expandir os recursos de segurança infantil para terceiros para que os usuários fiquem ainda mais protegidos seria uma meta desejável. A Apple não forneceu nenhum exemplo específico, mas uma possibilidade poderia ser o recurso de segurança de comunicação disponibilizado para aplicativos como Snapchat, Instagram ou WhatsApp para que as fotos sexualmente explícitas recebidas por uma criança fiquem borradas.

Outra possibilidade é que o conhecido sistema de detecção de CSAM da Apple possa ser expandido para aplicativos de terceiros que fazem upload de fotos em outro lugar que não o iCloud Photos.

A Apple não forneceu um prazo para a expansão dos recursos de segurança infantil para terceiros, observando que ainda precisa concluir os testes e a implantação dos recursos, e a empresa também disse que precisaria garantir que qualquer expansão potencial não minar as propriedades de privacidade ou eficácia dos recursos.

Em termos gerais, a Apple disse que expandir os recursos para terceiros é a abordagem geral da empresa, desde que ela introduziu o suporte para aplicativos de terceiros com o lançamento da App Store no iPhone OS 2 em 2008.