WhatsApp balansuje na granicy między funkcjami AI a prywatnością

Kompleksowo szyfrowana aplikacja komunikacyjna WhatsApp , z której korzysta około 3 miliardy ludzi na całym świecie, w najbliższych tygodniach wprowadzi funkcje sztucznej inteligencji oparte na chmurze. Mają one na celu zachowanie gwarancji bezpieczeństwa i prywatności obowiązujących w WhatsApp, jednocześnie oferując użytkownikom dostęp do narzędzi do podsumowywania i komponowania wiadomości.
Meta wprowadza generatywne funkcje AI do swoich usług, które są zbudowane na jej otwartym modelu języka dużego, Llama . A WhatsApp już zawiera jasnoniebieskie kółko, które daje użytkownikom dostęp do asystenta Meta AI. Jednak wielu użytkowników sprzeciwiło się temu dodatkowi , biorąc pod uwagę, że interakcje z asystentem AI nie są chronione przed Meta w taki sposób, jak szyfrowane od początku do końca czaty WhatsApp. Nowa funkcja, nazwana Private Processing, ma rozwiązać te problemy za pomocą tego, co firma twierdzi, że jest starannie zaprojektowaną i celowo zbudowaną platformą poświęconą przetwarzaniu danych dla zadań AI bez udostępniania informacji Meta, WhatsApp ani żadnej innej stronie. Podczas gdy wstępne recenzje integralności schematu przeprowadzone przez badaczy były pozytywne, niektórzy zauważają, że przejście na funkcje AI może ostatecznie postawić WhatsApp na śliskiej ścieżce.
„WhatsApp jest celem i przedmiotem zainteresowania wielu różnych badaczy i aktorów zagrożeń. Oznacza to, że wewnętrznie ma dobrze zrozumiany model zagrożeń” — mówi dyrektor ds. inżynierii bezpieczeństwa Meta, Chris Rohlf. „Istnieje również istniejący zestaw oczekiwań dotyczących prywatności ze strony użytkowników, więc nie chodziło tylko o zarządzanie ekspansją tego modelu zagrożeń i upewnienie się, że oczekiwania dotyczące prywatności i bezpieczeństwa zostały spełnione — chodziło o staranne rozważenie doświadczenia użytkownika i dokonanie tej zgody”.
Komunikacja zaszyfrowana od początku do końca jest dostępna tylko dla nadawcy i odbiorcy lub osób w czacie grupowym. Dostawca usług, w tym przypadku WhatsApp i jego spółka macierzysta Meta, jest wydzielony z założenia i nie ma dostępu do wiadomości ani połączeń użytkowników. Ta konfiguracja jest niezgodna z typowymi generatywnymi platformami AI, które uruchamiają duże modele językowe na serwerach w chmurze i potrzebują dostępu do żądań i danych użytkowników w celu przetworzenia. Celem Private Processing jest stworzenie alternatywnego frameworka, dzięki któremu gwarancje prywatności i bezpieczeństwa komunikacji zaszyfrowanej od początku do końca mogą być utrzymane przy jednoczesnym włączeniu AI.
Użytkownicy decydują się na korzystanie z funkcji AI WhatsApp i mogą również uniemożliwić osobom, z którymi czatują, korzystanie z funkcji AI w komunikacji współdzielonej, włączając nową opcję kontroli WhatsApp znaną jako „Zaawansowana prywatność czatu”.
„Gdy ustawienie jest włączone, możesz zablokować innym możliwość eksportowania czatów, automatycznego pobierania multimediów na telefon i korzystania z funkcji wiadomości AI” — napisał WhatsApp w poście na blogu w zeszłym tygodniu. Podobnie jak w przypadku znikających wiadomości, każdy uczestnik czatu może włączać i wyłączać zaawansowaną prywatność czatu — która jest rejestrowana i widoczna dla wszystkich — więc uczestnicy muszą po prostu zwracać uwagę na wszelkie zmiany.
Private Processing jest zbudowany ze specjalnego sprzętu, który izoluje poufne dane w „Trusted Execution Environment”, odizolowanym, zablokowanym regionie procesora. System jest zbudowany tak, aby przetwarzać i przechowywać dane przez możliwie najkrótszy czas i jest zaprojektowany tak, aby zatrzymać się i wysyłać alerty, jeśli wykryje jakiekolwiek manipulacje lub zmiany. WhatsApp już zaprasza zewnętrzne audyty różnych komponentów systemu i uczyni go częścią programu Meta bug bounty, aby zachęcić społeczność zajmującą się bezpieczeństwem do przesyłania informacji o wadach i potencjalnych podatnościach. Meta mówi również, że ostatecznie planuje udostępnić komponenty Private Processing jako oprogramowanie typu open source, zarówno w celu rozszerzonej weryfikacji gwarancji bezpieczeństwa i prywatności, jak i ułatwienia innym tworzenia podobnych usług.
W zeszłym roku Apple wprowadził podobny schemat , znany jako Private Cloud Compute, dla swojej platformy Apple Intelligence AI. Użytkownicy mogą włączyć tę usługę w aplikacji Apple do szyfrowanej komunikacji typu end-to-end, Messages, aby generować podsumowania wiadomości i pisać wiadomości „Smart Reply” zarówno na iPhone'ach , jak i komputerach Mac .
Patrząc obok siebie na Private Cloud Compute i Private Processing, można porównać, cóż, Apple(s) i pomarańcze. Private Cloud Compute firmy Apple stanowi podstawę całej Apple Intelligence wszędzie tam, gdzie można ją zastosować. Private Processing z kolei zostało stworzone specjalnie dla WhatsApp i nie stanowi podstawy funkcji AI Meta w szerszym zakresie. Apple Intelligence jest również zaprojektowane tak, aby wykonywać jak najwięcej przetwarzania AI na urządzeniu i wysyłać żądania do infrastruktury Private Cloud Compute tylko wtedy, gdy jest to konieczne. Ponieważ takie przetwarzanie „na urządzeniu” lub „lokalne” wymaga wydajnego sprzętu, Apple zaprojektowało Apple Intelligence tylko do działania na swoich ostatnich generacjach sprzętu mobilnego. Stare iPhone'y i iPady nigdy nie będą obsługiwać Apple Intelligence.
Apple jest producentem wysokiej klasy smartfonów i innego sprzętu, podczas gdy Meta jest firmą programistyczną i ma około 3 miliardy użytkowników, którzy mają wszystkie rodzaje smartfonów, w tym stare i niskiej klasy urządzenia. Rohlf i Colin Clemmons, jeden z głównych inżynierów Private Processing, twierdzą, że nie było wykonalne zaprojektowanie funkcji AI dla WhatsApp, które mogłyby działać lokalnie na spektrum urządzeń obsługiwanych przez WhatsApp. Zamiast tego WhatsApp skupił się na zaprojektowaniu Private Processing tak, aby było jak najmniej pomocne dla atakujących, gdyby miało zostać naruszone.
„Projekt jest projektem minimalizującym ryzyko” — mówi Clemmons. „Chcemy zminimalizować wartość narażenia systemu na szwank”.
Całe przedsięwzięcie podnosi jednak bardziej podstawowe pytanie, dlaczego bezpieczna platforma komunikacyjna, taka jak WhatsApp, w ogóle musi oferować funkcje AI. Meta jest jednak nieugięta, że użytkownicy oczekują tych funkcji w tym momencie i pójdą, gdziekolwiek będą musieli, aby je zdobyć.
„Wiele osób chce korzystać z narzędzi AI, aby pomóc im podczas wysyłania wiadomości” – powiedział Will Cathcart, szef WhatsApp, w e-mailu do WIRED. „Uważamy, że ważne jest stworzenie prywatnego sposobu na zrobienie tego, ponieważ ludzie nie powinni musieć przechodzić na mniej prywatną platformę, aby mieć potrzebną im funkcjonalność”.
„Każdy system szyfrowania typu end-to-end, który wykorzystuje wnioskowanie AI poza urządzeniem, będzie bardziej ryzykowny niż czysty system typu end-to-end. Wysyłasz dane do komputera w centrum danych, a ta maszyna widzi twoje prywatne wiadomości tekstowe” — mówi Matt Green, kryptograf z Johns Hopkins, który zapoznał się z niektórymi gwarancjami prywatności Private Processing, ale nie przeprowadził audytu całego systemu. „Wierzę WhatsApp, gdy mówią, że zaprojektowali to tak, aby było jak najbezpieczniejsze, i wierzę im, gdy mówią, że nie mogą czytać twoich wiadomości tekstowych. Ale myślę też, że istnieją tu ryzyka. Więcej prywatnych danych będzie poza urządzeniem, a maszyny przetwarzające te dane staną się celem hakerów i przeciwników państw narodowych”.
WhatsApp twierdzi również, że oprócz podstawowych funkcji AI, takich jak podsumowywanie tekstu i sugestie dotyczące pisania, funkcja Private Processing ma stworzyć podstawę do rozszerzenia jej o bardziej skomplikowane i złożone funkcje AI w przyszłości, które będą obejmować przetwarzanie, a potencjalnie także przechowywanie większej ilości danych.
Jak mówi Green, „biorąc pod uwagę wszystkie szalone rzeczy, do których ludzie wykorzystują bezpieczne komunikatory, wszystko to sprawi, że komputery Private Processing staną się bardzo ważnym celem”.
wired