Apple News

Funcionários da Apple expressando preocupações sobre planos de detecção de CSAM internamente

Sexta-feira, 13 de agosto de 2021 12h43 PDT por Sami Fathi

Os funcionários da Apple estão agora se juntando ao coro de indivíduos que levantam preocupações sobre os planos da Apple para digitalizar Iphone bibliotecas de fotos dos usuários para CSAM ou material de abuso sexual infantil, supostamente falando internamente sobre como a tecnologia poderia ser usada para digitalizar as fotos dos usuários em busca de outros tipos de conteúdo, de acordo com um relatório do Reuters .





apple park drone 2 de junho de 2018
De acordo com Reuters , um número não especificado de funcionários da Apple acessou os canais internos do Slack para levantar questões sobre a detecção de CSAM. Especificamente, os funcionários estão preocupados que os governos possam forçar a Apple a usar a tecnologia para censura, encontrando conteúdo diferente do CSAM. Alguns funcionários estão preocupados com o fato de a Apple estar prejudicando sua reputação de privacidade líder do setor.

Funcionários da Apple inundaram um canal interno da Apple no Slack com mais de 800 mensagens sobre o plano anunciado há uma semana, disseram à Reuters trabalhadores que pediram para não ser identificados. Muitos expressaram preocupação de que o recurso pudesse ser explorado por governos repressivos em busca de outro material para censura ou prisões, de acordo com trabalhadores que viram o tópico de vários dias.



Mudanças de segurança anteriores na Apple também geraram preocupação entre os funcionários, mas o volume e a duração do novo debate são surpreendentes, disseram os trabalhadores. Alguns pôsteres temem que a Apple esteja prejudicando sua reputação de liderança na proteção da privacidade.

Os funcionários da Apple em funções relacionadas à segurança do usuário não devem ter feito parte do protesto interno, de acordo com o relatório.

Desde que é anúncio semana passada , A Apple foi bombardeada com críticas sobre seus planos de detecção de CSAM, que ainda devem ser lançados com iOS 15 e iPadOS 15 neste outono. As preocupações giram principalmente em torno de como a tecnologia pode representar uma ladeira escorregadia para futuras implementações por governos e regimes opressores.

como encontrar minha capa airpod

A Apple rejeitou firmemente a ideia de que a tecnologia no dispositivo usada para detectar material CSAM poderia ser usada para qualquer outra finalidade. Em um documento de FAQ publicado , a empresa diz que recusará veementemente qualquer demanda por parte dos governos.

Os governos podem forçar a Apple a adicionar imagens não CSAM à lista de hash?
A Apple recusará tais demandas. A capacidade de detecção de CSAM da Apple é construída exclusivamente para detectar imagens CSAM conhecidas armazenadas no iCloud Photos que foram identificadas por especialistas do NCMEC e outros grupos de segurança infantil. Já enfrentamos demandas para construir e implantar mudanças impostas pelo governo que degradam a privacidade dos usuários antes e recusamos firmemente essas demandas. Continuaremos a recusá-los no futuro. Sejamos claros, essa tecnologia se limita a detectar CSAM armazenados no iCloud e não atenderemos a nenhum pedido governamental de ampliação. Além disso, a Apple conduz uma revisão humana antes de fazer um relatório ao NCMEC. No caso em que o sistema sinaliza fotos que não correspondem às imagens CSAM conhecidas, a conta não seria desativada e nenhum relatório seria arquivado no NCMEC.

Um carta aberta criticar a Apple e pedir à empresa que pare imediatamente seu plano de implantar a detecção de CSAM ganhou mais de 7.000 assinaturas no momento da redação. O chefe do WhatsApp também pesou no debate .

Tags: privacidade da Apple, recursos de segurança infantil da Apple