A Apple realizou hoje uma sessão de perguntas e respostas com repórteres sobre seu novos recursos de segurança infantil , e durante o briefing, a Apple confirmou que estaria aberta para expandir os recursos para aplicativos de terceiros no futuro.
Como uma lembrança, a Apple revelou três novos recursos de segurança infantil para futuras versões do iOS 15, iPadOS 15, macOS Monterey e / ou watchOS 8.
Novos recursos de segurança infantil da Apple
Primeiro, um recurso opcional de Segurança de comunicação no aplicativo Mensagens no iPhone, iPad e Mac pode avisar as crianças e seus pais ao receber ou enviar fotos sexualmente explícitas. Quando o recurso está ativado, a Apple disse que o aplicativo Mensagens usará aprendizado de máquina no dispositivo para analisar anexos de imagem e, se uma foto for considerada sexualmente explícita, ela será automaticamente desfocada e a criança será avisada.
Em segundo lugar, a Apple será capaz de detectar imagens conhecidas de material de abuso sexual infantil (CSAM) armazenadas no iCloud Photos, permitindo que a Apple relate essas ocorrências ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC), uma organização sem fins lucrativos que trabalha em colaboração com as agências de aplicação da lei dos EUA. A Apple confirmou hoje que o processo só se aplicará a fotos enviadas para o iCloud Photos e não a vídeos.
Terceiro, a Apple expandirá a orientação do Siri e do Spotlight Search em todos os dispositivos, fornecendo recursos adicionais para ajudar crianças e pais a se manterem seguros online e obter ajuda em situações inseguras. Por exemplo, os usuários que perguntam ao Siri como eles podem relatar CSAM ou exploração infantil serão direcionados a recursos sobre onde e como registrar uma denúncia.
Expansão para aplicativos de terceiros
A Apple disse que embora não tenha nada a compartilhar hoje em termos de anúncio, expandir os recursos de segurança infantil para terceiros para que os usuários fiquem ainda mais protegidos seria uma meta desejável. A Apple não forneceu nenhum exemplo específico, mas uma possibilidade poderia ser o recurso de segurança de comunicação disponibilizado para aplicativos como Snapchat, Instagram ou WhatsApp para que as fotos sexualmente explícitas recebidas por uma criança fiquem borradas.
Outra possibilidade é que o conhecido sistema de detecção de CSAM da Apple possa ser expandido para aplicativos de terceiros que fazem upload de fotos em outro lugar que não o iCloud Photos.
A Apple não forneceu um prazo para a expansão dos recursos de segurança infantil para terceiros, observando que ainda precisa concluir os testes e a implantação dos recursos, e a empresa também disse que precisaria garantir que qualquer expansão potencial não minar as propriedades de privacidade ou eficácia dos recursos.
Em termos gerais, a Apple disse que expandir os recursos para terceiros é a abordagem geral da empresa, desde que ela introduziu o suporte para aplicativos de terceiros com o lançamento da App Store no iPhone OS 2 em 2008.
Publicações Populares