Uważaj na rozszerzenia wykorzystujące sztuczną inteligencję: które z nich jako jedyne nie gromadzi danych osobowych?

Badanie przeprowadzone przez University College London ujawniło, że najpopularniejsze dodatki do przeglądarek oparte na sztucznej inteligencji (AI) przechowują dane osobowe, od historii przeglądania po dane medyczne i bankowe . Istnieje jednak jeden wyjątek.
Badacze podkreślili, że praktyki te odbywają się po cichu, bez możliwości zauważenia ich przez użytkownika podczas instalacji rozszerzeń . Chociaż regulaminy często istnieją, są one często sformułowane w sposób niejasny i nie odzwierciedlają jasno zakresu gromadzenia danych.
Raport jest kolejnym z szeregu ostrzeżeń sformułowanych przez specjalistów ds. cyberbezpieczeństwa i ochrony danych w Europie i Stanach Zjednoczonych: sztuczna inteligencja, w swoim dążeniu do zapewnienia bardziej „kontekstualnej inteligencji”, musi gromadzić informacje o aktywności użytkowników w Internecie, co otwiera drogę do nieprzejrzystych zastosowań .
Rozszerzenia przeglądarek są powszechnie używane. Zdjęcie: Shutterstock
Rozszerzenia oparte na sztucznej inteligencji do Chrome, Edge i innych przeglądarek zyskały na popularności w ostatnich miesiącach. Narzędzia takie jak ChatGPT, Copilot, Merlin i Monica obiecują pomoc w wyszukiwaniu, automatyczne podsumowania i natychmiastowe odpowiedzi.
Warto pamiętać, że rozszerzenia to małe programy instalowane w przeglądarce, które dodają dodatkowe funkcje: od blokowania reklam po tłumaczenie stron lub, w tym przypadku, bezpośrednie włączenie sztucznej inteligencji do przeglądania stron internetowych .
Aby działać, często wymagają szerokich uprawnień dostępu do treści, które widzisz na ekranie. To właśnie w tym obszarze pojawiają się największe obawy dotyczące prywatności.
Jednak to, co reklamuje się jako korzyść dla produktywności, wiąże się z niewidocznym kosztem: utratą kontroli nad prywatnością. Aby działać, wiele z tych rozszerzeń żąda szerokich uprawnień od przeglądarki, a następnie intensywnie z nich korzysta, uzyskując dostęp do większej ilości informacji niż jest to konieczne do realizacji ich podstawowej funkcji.
Zdaniem ekspertów oznacza to, że ktoś próbujący po prostu streścić tekst naukowy lub przetłumaczyć dokument, może nieświadomie ujawnić wszystko, co ma otwarte w swojej przeglądarce: od prywatnych wiadomości e-mail, przez sesje bankowe, po dokumentację medyczną.
Łatwość instalacji tych rozszerzeń również przyczynia się do problemu. W przeciwieństwie do tradycyjnych aplikacji, dodatki do przeglądarek nie zawsze przechodzą rygorystyczne procesy audytu w oficjalnych sklepach, co stwarza pole do nadużyć w zakresie przetwarzania danych.
DeepSeek wstrząsnął światem sztucznej inteligencji, wprowadzając na rynek swój niedrogi system. Zdjęcie: New York Times
Wśród najbardziej znanych przypadków rozszerzenie Merlin przechwytywało nawet dane z formularzy online, takie jak dane dotyczące finansów czy zdrowia. Tymczasem Sider i TinaMind udostępniały zapytania użytkowników i adresy IP zewnętrznym platformom, takim jak Google Analytics, umożliwiając śledzenie reklam w wielu witrynach.
Śledztwo ujawniło również, że niektóre z tych dodatków łączyły poufne informacje z trwałymi identyfikatorami. Oznacza to, że dane mogły być powiązane z tym samym profilem użytkownika w dłuższej perspektywie, co zwielokrotniało ryzyko ujawnienia w przypadku wycieku lub sprzedaży osobom trzecim.
Aplikacje ChatGPT dla Chrome, Copilot firmy Microsoft i Monica zostały oznaczone jako rejestrujące atrybuty takie jak wiek, płeć, dochód i zainteresowania – dane te były następnie wykorzystywane do personalizacji odpowiedzi podczas różnych sesji przeglądania. Według badaczy, praktyka ta pokazuje, jak logika ukierunkowanych reklam zaczyna przenikać do ekosystemu sztucznej inteligencji.
„Ci asystenci oferują niespotykany dotąd dostęp do informacji o zachowaniach użytkowników w sieci w obszarach ich życia, które powinny pozostać prywatne” – wyjaśnia Anna Maria Mandalari, starszy pracownik naukowy UCL.
Specjalista ostrzega, że normalizacja tych praktyk może doprowadzić do podważenia zaufania społeczeństwa do narzędzi opartych na sztucznej inteligencji, nawet tych, które są zgodne z przepisami dotyczącymi prywatności.
Perplexity, wyszukiwarka oparta na sztucznej inteligencji. Zdjęcie: Reuters
W przeglądzie zidentyfikowano tylko jeden przypadek, w którym nie stwierdzono nadużyć w gromadzeniu danych: rozszerzenie Perplexity AI . Według raportu, usługa ta nie wykazywała żadnych praktyk związanych z przesyłaniem poufnych informacji ani ukrytym śledzeniem użytkowników.
Naukowcy zauważyli, że przynajmniej w testach Perplexity po prostu wyświetlało wyniki wyszukiwania, nie gromadząc więcej informacji, niż było to absolutnie konieczne.
Nie oznacza to jednak, że Perplexity jest odporny na krytykę. Niektórzy eksperci wskazują, że fakt, iż w tym konkretnym badaniu nie wykryto nadużyć, nie gwarantuje, że nie pojawią się one w przyszłości, biorąc pod uwagę, że polityka prywatności i modele biznesowe firm technologicznych ulegają szybkim zmianom.
Dla Mandalari problem wykracza poza ukierunkowaną reklamę: „Gdy już zbierzemy informacje, nie wiemy, gdzie one trafią ani czy trafią w ręce nielegalnych sieci, które wykorzystają nasze dane do popełniania przestępstw”.
Jego zdaniem brak przejrzystości i złożoność techniczna sprawiają, że przeciętnemu użytkownikowi jest praktycznie niemożliwe zrozumienie, co dzieje się z jego danymi w tych środowiskach.
Badanie to ponownie przybliża debatę na temat prywatności cyfrowej i przejrzystości w kontekście, w którym coraz więcej narzędzi opartych na sztucznej inteligencji jest włączanych do codziennego życia za trudną do zmierzenia cenę: naszych danych osobowych.
Zdaniem naukowców rozwiązaniem są surowsze regulacje, niezależne audyty, a przede wszystkim jasne informowanie użytkowników o zagrożeniach, jakie niesie ze sobą stosowanie technologii.
Clarin