Ofiary CSAM pozywają firmę Apple za porzucenie planowanego narzędzia skanującego

cyberfeed.pl 5 dni temu


Tysiące CSAM ofiary składają pozew Jabłko za rezygnację z planów skanowania urządzeń pod kątem obecności materiałów przedstawiających wykorzystywanie seksualne dzieci.

Oprócz kar przekraczających 1,2 miliarda dolarów firma może zostać zmuszona do przywrócenia planów, które porzuciła po tym, jak wielu z nas wskazało na ryzyko nadużyć ze strony represyjnych reżimów…

Dotychczasowa historia

Większość usług przetwarzania w chmurze rutynowo skanuje konta użytkowników pod kątem materiałów przedstawiających wykorzystywanie seksualne dzieci (CSAM) przy użyciu metody cyfrowego pobierania odcisków palców.

Te odciski palców umożliwiają dopasowywanie znanych obrazów CSAM bez konieczności ich przeglądania przez nikogo i są zaprojektowane tak, aby były wystarczająco rozmyte, aby przez cały czas pasować do obrazów, które zostały przycięte lub w inny sposób edytowane, generując jednocześnie bardzo kilka fałszywych alarmów. Po znalezieniu pozytywnego dopasowania zdjęcie jest następnie manualnie sprawdzane przez człowieka. jeżeli to potwierdzi, iż zdjęcie to CSAM, sporządzany jest raport i przekazywany organom ścigania.

iCloud to jedna z niewielu usług w chmurze, która nie wykonuje tego skanowania, a Apple jako powód podaje prywatność.

Próbując wprowadzić skanowanie CSAM w sposób zapewniający poszanowanie prywatności, Apple zaproponował uruchomienie narzędzia do pobierania odcisków palców na urządzeniu skanowanie na tej podstawie, iż byłoby to mniej inwazyjne niż skanowanie zdjęć iCloud. Tylko jeżeli wiele znaleziono dopasowania, gdyby zdjęcia zostały przejrzane przez człowieka, co byłoby metodą dalszego zmniejszenia ryzyka uzyskania fałszywego wyniku pozytywnego.

Problem, jak wielu z nas zauważyłoistniała możliwość nadużyć ze strony represyjnych rządów.

Można utworzyć cyfrowy odcisk palca każdy rodzaj materiału, nie tylko CSAM. Nic nie stoi na przeszkodzie, aby autorytarny rząd dodał do bazy danych zdjęcia plakatów kampanii politycznych lub podobnych.

Narzędzie zaprojektowane z myślą o poważnych przestępcach można w prosty sposób dostosować do wykrywania osób sprzeciwiających się rządowi lub jednej lub większej liczbie jego polityk. Apple – które otrzymywałoby bazę danych odcisków palców od rządów – okazałoby się, iż nieświadomie pomaga w represjach lub, co gorsza, wobec działaczy politycznych.

Apple początkowo mówił, iż nigdy się na to nie zgodzi, ale wielu z nas po raz kolejny zwróciło uwagę, iż nie będzie miało wyboru. Jak słynnie mówi firma, za każdym razem, gdy musi zrobić coś szkicowego Do przestrzegać prawa„Apple przestrzega prawa w każdym z krajów, w których prowadzi działalność”.

Producent iPhone’a początkowo odrzucił ten argument, ale ostatecznie porzucił plany skanowania CSAM wcześniej z opóźnieniem uznanie realności problemu. Apple później użył dokładnie tego argumentu sprzeciwić się proponowanym przepisom.

Ofiary CSAM pozywają

Arstechnica donosi, iż ofiary CSAM pozywają w tej chwili firmę Apple za nieprzeprowadzenie skanowania.

Tysiące ofiar pozwało firmę Apple w związku z rzekomym niewykryciem i zgłoszeniem nielegalnej pornografii dziecięcej, znanej również jako materiały przedstawiające wykorzystywanie seksualne dzieci (CSAM). […]

Osoby, które doświadczyły wykorzystywania seksualnego dzieci, oskarżyły Apple o wykorzystywanie zabezpieczeń cybernetycznych do ignorowania obowiązkowych obowiązków giganta technologicznego w zakresie raportowania CSAM. jeżeli wygrają z ławą przysięgłych, Apple może zostać ukarany karą w wysokości ponad 1,2 miliarda dolarów. A być może przede wszystkim w przypadku zwolenników prywatności Apple może być również zmuszony do „identyfikowania, usuwania i zgłaszania CSAM w iCloud oraz wdrażania zasad, praktyk i procedur, aby zapobiec dalszemu rozpowszechnianiu CSAM lub handlu dziećmi w celach seksualnych na urządzeniach i usługach Apple”. Może to oznaczać nakaz sądowy dotyczący wdrożenia kontrowersyjnego narzędzia lub alternatywy spełniającej standardy branżowe w zakresie masowego wykrywania CSAM.

Apple jest oskarżane o kierowanie czerpaniem zysków ze swojej polityki.

Według ocalałych Apple czerpie korzyści z umożliwienia CSAM w iCloud, ponieważ dzieci drapieżniki postrzegają jego produkty jako bezpieczną przystań do przechowywania CSAM, o czym masowo informuje większość innych firm z branży Big Tech. Podczas gdy Apple zgłosiło jedynie 267 znanych przypadków CSAM w 2023 r., cztery inne „wiodące firmy technologiczne przekazały ponad 32 miliony raportów” – zauważono w pozwie. A jeżeli rzekomo luźne podejście Apple do CSAM będzie przez cały czas niekontrolowane, ocaleni obawiają się, iż sztuczna inteligencja może gwałtownie zwiększyć ilość CSAM, która nie jest zgłaszana.

W odpowiedzi firma oświadczyła, iż ​​podejmuje aktywne kroki w celu rozwiązania problemu.

Materiały przedstawiające wykorzystywanie seksualne dzieci są odrażające i staramy się zwalczać sposoby, w jakie drapieżniki narażają dzieci na ryzyko. Pilnie i aktywnie wprowadzamy innowacje, aby zwalczać te przestępstwa bez narażania bezpieczeństwa i prywatności wszystkich naszych użytkowników. Na przykład funkcje takie jak Bezpieczeństwo komunikacji ostrzegają dzieci, gdy otrzymują lub próbują wysłać treści zawierające nagość, aby pomóc przerwać łańcuch przymusu prowadzący do wykorzystywania seksualnego dzieci. Pozostajemy głęboko skoncentrowani na zabezpieczeniach budynków, które pomagają zapobiegać rozprzestrzenianiu się CSAM przed jego rozpoczęciem.

Wersja 9to5Mac

Sprawa jest sytuacją, w której nie wygrywają wszyscy zaangażowani. Istnieje nieunikniony konflikt pomiędzy wykryciem naprawdę odrażającej zbrodni a ryzykiem, iż represyjny rząd ją wykorzysta.

Gdyby Apple od początku przyjął standardową praktykę skanowania zdjęć iCloud, istnieje prawdopodobieństwo, iż nigdy nie stałoby się to kwestią kontrowersyjną. Jak na ironię, kontrowersje wywołała próba osiągnięcia tego samego celu przez firmę w sposób bardziej szanujący prywatność.

W tym momencie prawdopodobnie w interesie Apple’a leżałoby orzeczenie sądu w tej sprawie. jeżeli to Jest zmuszona do wdrożenia skanowania, a przyszły rząd miał to wykorzystać, firma mogła przynajmniej wskazać, iż nie ma wyboru. I odwrotnie, jeżeli Apple wygra sprawę, może ustanowić precedens prawny, który usunie ciągłą presję.

FTC: Korzystamy z automatycznych linków partnerskich generujących dochód. Więcej.



Source link

Idź do oryginalnego materiału