Apple-anställda uttrycker oro över nya barnsäkerhetsverktyg

Apple-anställda uttrycker oro över företagets nya barnsäkerhetsfunktioner som kommer att debutera med iOS 15 i höst, och vissa säger att beslutet att rulla ut sådana verktyg kan smutskasta Apples rykte som en bastion för användarnas integritet.

Åtgärd mot Apples nyligen tillkännagivna barnsäkerhetsåtgärder inkluderar nu kritiker från de egna leden som uttalar sig om ämnet i interna Slack-kanaler, rapporterar .

Tillkännagav förra veckan, Apples svit av barnskyddsverktyg inkluderar processer på enheten utformade för att upptäcka och rapportera material om sexuella övergrepp mot barn som laddats upp till iCloud Photos. Ett annat verktyg skyddar barn från känsliga bilder som skickas via Messages, medan Siri och Search kommer att uppdateras med resurser för att hantera potentiellt osäkra situationer.

Sedan avtäckningen av Apples CSAM-åtgärder har anställda postat mer än 800 meddelanden till en Slack-kanal om ämnet som har varit aktivt i flera dagar, sa rapporten. De som är oroade över den kommande utrullningen nämner vanliga bekymmer som hänför sig till potentiellt statligt utnyttjande, en teoretisk möjlighet som Apple ansåg mycket osannolik i ett nytt supportdokument och uttalanden till media denna vecka.

Åtgärden inom Apple, åtminstone när det gäller Slack-trådarna, verkar komma från anställda som inte är en del av företagets ledande säkerhets- och integritetsteam, sa rapporten. De som arbetar inom säkerhetsområdet verkade inte vara “stora klagande” i inläggen, enligt källor, och vissa försvarade Apples ståndpunkt genom att säga att de nya systemen är ett rimligt svar på CSAM.

I en tråd dedikerad till den kommande foto-“skanningsfunktionen” (verktyget matchar bildhaschar mot en hashad databas med kända CSAM) har vissa arbetare protesterat mot kritiken, medan andra säger att Slack inte är forumet för sådana diskussioner, sa rapporten . Vissa anställda uttryckte hopp om att verktygen på enheten kommer att förebåda full end-to-end iCloud-kryptering.

Apple står inför en kakofoni av fördömande från kritiker och integritetsförespråkare som säger att barnsäkerhetsprotokollen lyfter ett antal röda flaggor. Medan en del av återkopplingen kan avskrivas till felaktig information som härrör från ett grundläggande missförstånd av Apples CSAM-teknik, väcker andra berättigade farhågor om uppdragskrypning och kränkningar av användarnas integritet som inte från början togs upp av företaget.

Cupertino-teknikjätten har försökt släcka branden genom att ta itu med vanliga problem i en FAQ som publicerades denna vecka. Företagsledare gör också mediarundor för att förklara vad Apple ser som en integritetsinriktad lösning på ett särskilt avskyvärt problem. Trots sina bästa ansträngningar kvarstår dock kontroverser.

Apples CSAM-detekteringsverktyg lanseras med iOS 15 i höst.

Relaterade artiklar

Back to top button