Po mnohých odporoch od kritikov aj používateľov Apple odkladá svoje opatrenia proti zneužívaniu detí.
V auguste technologický gigant pôvodne oznámil novú politiku, ktorá využíva technológiu na rozpoznanie potenciálneho obsahu zneužívania detí v iCloude a v správach, ale nasledovali obavy. Odborníci varovali, že aj keď spoločnosť Apple sľúbila súkromie používateľov, táto technológia by v konečnom dôsledku ohrozila všetkých používateľov spoločnosti Apple.
V piatok spoločnosť Apple uviedla, že uvedenie technológie úplne odloží, aby sa zlepšili a plne zabezpečilo súkromie používateľov.
„Na základe spätnej väzby od zákazníkov, obhajcov, výskumníkov a ďalších sme sa rozhodli v nasledujúcich mesiacoch venovať viac času zhromaždeniu vstupov a vykonaniu vylepšení pred vydaním týchto kriticky dôležitých funkcií pre bezpečnosť detí,“uviedol Apple v správe. aktualizované vyhlásenie na svojej webovej stránke.
Technológia na zisťovanie sexuálneho zneužívania detí mala byť dostupná koncom tohto roka v rámci zavádzania iOS 15, ale teraz nie je jasné, kedy a či vôbec bude táto funkcia debutovať.
Nová technológia by fungovala dvoma spôsobmi: po prvé, skenovaním obrázka pred jeho zálohovaním do iCloud. Ak tento obrázok zodpovedá kritériám CSAM, spoločnosť Apple tieto údaje dostane. Druhá časť technológie využíva strojové učenie na identifikáciu a rozmazanie sexuálne explicitných obrázkov, ktoré deti dostávajú prostredníctvom Správ.
Po oznámení novej politiky však obhajcovia súkromia a skupiny uviedli, že Apple v podstate otvára zadné dvierka, ktoré by zlí herci mohli zneužiť.
Na vyriešenie týchto obáv spoločnosť Apple vydala stránku s často kladenými otázkami krátko po oznámení technológie CSAM. Apple vysvetlil, že táto technológia nebude skenovať všetky fotografie uložené v zariadení, neporuší end-to-end šifrovanie v správach a nebude falošne nahlasovať nevinných ľudí orgánom činným v trestnom konaní.