Naukowcy twierdzą, że plan firmy Apple mający na celu wykrywanie wykorzystywania dzieci stwarza poważne zagrożenia dla prywatności i bezpieczeństwa


Propozycja Apple aby zmusić użytkowników iPhone’a do zaakceptowania aktualizacji, które będą automatycznie i potajemnie wyszukiwać udostępnione obrazy dla możliwe nadużycia i wysyłanie raportów do Apple lub organów ścigania są dziś potępiane jako niewykonalne, podatne na nadużycia i zagrożenie dla bezpieczeństwa przez najlepszych światowych ekspertów kryptograficznych i pionierów Internetu.

Szczegółowa ocena techniczna 14 czołowych informatyków, dlaczego pomysły Apple są głupie i niebezpieczne w zasadzie i w praktyce, Błędy w naszych kieszeniach: ryzyko skanowania po stronie klienta, został opublikowany dziś rano przez Uniwersytet Columbia i dalej Arxiv.

Plan Apple, zaprezentowany w sierpniu, nazywa się skanowaniem po stronie klienta (CSS). Panel przyznaje, że „Apple poświęcił wiele wysiłku inżynieryjnego i zatrudnił najlepszych technicznych talentów w próbie zbudowania bezpiecznego i bezpiecznego systemu CSS”, ale uważa to za całkowitą porażkę, przytaczając ponad 15 sposobów, w jakie państwa lub złośliwi aktorzy, a nawet ukierunkowanych sprawców, może zmienić technologię, aby wyrządzić krzywdę innym lub społeczeństwu.

Apple „nie stworzył bezpiecznego i godnego zaufania projektu”, mówią. „CSS nie gwarantuje skutecznego zapobiegania przestępczości ani nie zapobiega inwigilacji. Efekt jest odwrotny… CSS ze swej natury stwarza poważne zagrożenia dla bezpieczeństwa i prywatności dla całego społeczeństwa”.

Sygnatariuszami raportu są Ron Rivest i Whit Diffie, których pionierskie wynalazki matematyczne z lat 70. stanowią podstawę większości kryptografii używanej obecnie; Steve Bellovin z Columbia University, jeden z twórców Usenetu; guru bezpieczeństwa Bruce Schneier i Ross Anderson z Uniwersytetu Cambridge; Matt Blaze z Georgetown University, dyrektor projektu Tor; oraz Susan Landau, Peter G Neumann, Jeffrey Schiller, Hal Abelson i czterech innych, wszyscy giganci w tej dziedzinie.

Mówią, że plan Apple „przekracza czerwoną linię”. „Propozycja wyprzedzającego skanowania wszystkich urządzeń użytkowników w poszukiwaniu ukierunkowanych treści jest znacznie bardziej podstępna niż wcześniejsze propozycje dotyczące depozytu klucza i wyjątkowego dostępu. W świecie, w którym nasze dane osobowe znajdują się w bitach przenoszonych przez potężne urządzenia komunikacyjne i pamięciowe w naszych kieszeniach, zarówno technologia, jak i przepisy muszą być zaprojektowane tak, aby chronić naszą prywatność i bezpieczeństwo, a nie naruszać ich”.

Reklama

Presja ze strony agencji wywiadowczych

Letnie ogłoszenie Apple to pierwszy raz, kiedy duży gracz IT był gotowy poddać się takiej presji rządu na Zachodzie. Naciski ze strony agencji wywiadowczych i represyjnych rządów na blokowanie, obalanie lub prawne zakazanie skutecznej kryptografii w komunikacji cyfrowej są nieustanne od ponad 40 lat. Jednak w obliczu coraz bardziej skutecznych i coraz szerzej stosowanych systemów kryptograficznych, aktorzy ci przerzucili się na ataki na punkty końcowe i infrastrukturę, stosując metody, w tym legalnie autoryzowane hakowanie.

„Propozycja wyprzedzającego skanowania wszystkich urządzeń użytkowników w poszukiwaniu ukierunkowanych treści jest znacznie bardziej podstępna niż wcześniejsze propozycje dotyczące depozytu klucza i wyjątkowego dostępu”

Raport o błędach w naszych kieszeniach

„Posunięcie to podkreśla decydującą zmianę w ostatniej bitwie agencji wywiadowczych o obalenie nowoczesnej i skutecznej kryptografii” – mówią dziś Abelson i współpracownicy. „Zamiast mieć ukierunkowane możliwości, takie jak podsłuchiwanie komunikacji z nakazem i przeprowadzanie kryminalistyki na zajętych urządzeniach, kierunkiem podróży agencji jest masowe skanowanie prywatnych danych wszystkich osób, przez cały czas, bez nakazu i podejrzeń”.

Zasadą CSS jest to, że kryptografia wysokiej jakości byłaby dozwolona, ​​ale materiały pasujące do dostarczonych i załadowanych szablonów byłyby oznaczane i potajemnie eksportowane.

„Technicznie CSS umożliwia szyfrowanie typu end-to-end, ale jest to dyskusyjne, jeśli wiadomość została już przeskanowana pod kątem ukierunkowanych treści”, zauważają. „W rzeczywistości CSS to przechwytywanie zbiorcze, aczkolwiek zautomatyzowane i rozproszone. Ponieważ CSS daje agencjom rządowym dostęp do prywatnych treści, należy je traktować jak podsłuch.

„Po zbudowaniu zdolności zostaną znalezione powody, aby z nich skorzystać” – dodają.

Nadzór zbiorczy

Autorzy krytykują nie tylko niekompetencję Apple’a w stosowaniu podstawowych zasad bezpieczeństwa, ale także jego karygodną naiwność w sugerowaniu, że taki system po wdrożeniu nie zostanie natychmiast zmieniony. Nawet jeśli początkowo zostałyby wdrożone do skanowania w poszukiwaniu nielegalnych i publicznie potępionych materiałów seksualnych dzieci, „byłaby ogromna presja, aby rozszerzyć jego zakres” – i nie ma możliwości cofnięcia narzędzia niszczącego prywatność i bezpieczeństwo, które stworzyli.

„Obietnica ograniczonego technologicznie systemu nadzoru jest pod wieloma względami iluzoryczna”, ostrzegają. Po wprowadzeniu, ponieważ docelowe terminy lub obrazy byłyby tajne i potajemnie zarządzane, w jaki sposób Apple lub jakikolwiek użytkownik uniemożliwiłby dodawanie innych materiałów do listy, w tym informacji, które były zgodne z prawem, ale nie podobały się ówczesnemu rządowi w potężnym państwie?

Apple już poddał się takim naciskom, jak przeniesienie danych iCloud swoich chińskich użytkowników do centrów danych pod kontrolą chińskiej firmy państwowej, a ostatnio usuwając aplikację do głosowania Navalny z rosyjskiego sklepu z aplikacjami.

Eksperci ds. bezpieczeństwa zwracają również uwagę na fatalny błąd polegający na umieszczaniu potężnych systemów, takich jak CSS na urządzeniach klienckich, narażając je w ten sposób na zmianę przeznaczenia, granie, wprowadzanie w błąd i oszustwo przez każdą klasę złych aktorów, od potężnego państwa narodowego po przestępcze narkotyki i gangi morderców, po cyberinteligentne nastolatki próbujące się nawzajem zestawiać.

Wadliwa technologia

Zgodnie z propozycją Apple, pierwszy system CSS wykorzystywałby „percepcyjne hashowanie”, aby dopasować obrazy kopiowane do iCloud do biblioteki „odcisków palców” obrazów dostarczanych przez rząd.

Haszowanie percepcyjne nie sprawdza dokładnego dopasowania bit po bicie, ale podobieństwa obrazu.

Najnowsza wersja hashowania percepcyjnego firmy Apple, zwana NeuralHash, została wprowadzona na rynek w sierpniu i promowana jako sposób bezpiecznego i niezawodnego wykrywania obrazów nadużyć. Krytycy szybko wykazali, że system generował fałszywe alarmy i można go poddać inżynierii wstecznej, a następnie wykorzystać.

Badaczom zajęło zaledwie dwa tygodnie odtworzenie wersji algorytmu NeuralHash wbudowanego w iOS 14. Doprowadziło to do natychmiastowych naruszeń, w tym zaprojektowania uchylania się i zaprojektowania fałszywych alarmów. Reputacja systemu gwałtownie spadła, gdy jeden zespół pokazał, że pasuje do dwóch zupełnie odmiennych od rzeczywistych obrazów. Apple wycofał NeuralHash miesiąc później.

Reputacja algorytmu NeuralHash firmy Apple gwałtownie spadła, gdy jeden zespół wykazał, że pasuje do dwóch całkowicie odmiennych od rzeczywistych obrazów

Inna technika „percepcyjnego mieszania”, PhotoDNA firmy Microsoft, również została poddana inżynierii wstecznej w celu odbudowania zdjęć docelowych, dając czasem rozpoznawalne obrazy docelowe o bardzo niskiej rozdzielczości.

Techniki uczenia maszynowego byłyby jeszcze bardziej podatne na ataki, ponieważ model i silnik uczący byłyby z konieczności eksponowane na ogromnej liczbie urządzeń. Przeciwnicy mogliby próbować „zatruwać” algorytmy uczenia specjalnie skonfigurowanymi zestawami danych.

Z tych powodów eksperci zgadzają się, że „nie znajdujemy przestrzeni projektowej dla rozwiązań, które zapewniają znaczne korzyści organom ścigania bez nadmiernego narażania prywatności i bezpieczeństwa obywateli przestrzegających prawa”.

Jako „zmiana fazowa” w technologii informacyjnej, skanowanie po stronie klienta „poważnie osłabiłoby [protection], czyniąc nas wszystkich mniej i mniej bezpiecznymi”, mówią, dochodząc do wniosku, że „jest to niebezpieczna technologia”.



Source link

Advertisment

Więcej

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Advertisment

Podobne

Advertisment

Najnowsze

BIOSTAR ogłasza aktualizacje BIOS-u płyty głównej z gniazdem AM5 w celu obsługi procesorów nowej generacji

BIOSTAR, wiodący producent płyt głównych, kart graficznych i urządzeń pamięci masowej, z radością ogłasza dziś zupełnie nową aktualizację BIOS-u zaprojektowaną dla płyt głównych...

Zuckerberg: Meta zajmie lata, zanim zacznie zarabiać na generatywnej sztucznej inteligencji

Trwa gorączka złota generatywnej sztucznej inteligencji – nie należy się jednak spodziewać, że w najbliższym czasie przyniesie ona zyski.Firma jest już całkiem rentowna,...

Opcja testowania wątków umożliwiająca użytkownikom automatyczne archiwizowanie starych postów

Meta eksperymentowała z wieloma nowymi funkcjami Threads, swojej platformy mikroblogowania. Teraz szef Instagrama Adam Mosseri ujawnił w środę, że platforma rozpoczęła testowanie...
Advertisment