Miliony używają go każdego dnia. To jedna z najważniejszych stron internetowych. Boty niszczą ją kawałek po kawałku.

Zapisz się na Slatest, aby codziennie otrzymywać na skrzynkę pocztową najbardziej wnikliwe analizy, krytykę i porady.
W latach, odkąd debiut ChatGPT przekształcił Dolinę Krzemową w fabrykę szumu wokół sztucznej inteligencji, najbardziej dynamiczne społeczności internetowe zastanawiały się, jak dostosować się do następującego powodzi śmieci AI, zwłaszcza że automatycznie generowane wyniki stają się coraz bardziej wyrafinowane. Być może żadna platforma nie ilustruje tej zagadki lepiej niż Reddit, anonimowa sieć tablic ogłoszeń, która łączy miliony ludzi na całym świecie od 20 lat — ponieważ wielu użytkowników coraz częściej zastanawia się, czy rzeczywiście nadal łączą się z innymi ludźmi .
Takie obawy nie są nowe, ale nasiliły się dzięki szokującemu ćwiczeniu manipulacji wspomaganej przez sztuczną inteligencję. Pod koniec kwietnia zespół moderujący popularny subreddit r/ChangeMyView ujawnił, że naukowcy z Uniwersytetu w Zurychu przeprowadzili „ nieautoryzowany eksperyment ” na członkach społeczności, w ramach którego „wdrożyli komentarze generowane przez sztuczną inteligencję, aby zbadać, w jaki sposób sztuczna inteligencja może być wykorzystywana do zmiany poglądów”. Moderatorzy napisali, że naukowcy z Zurychu skontaktowali się z nimi w marcu, aby poinformować ich, że „w ciągu ostatnich kilku miesięcy korzystaliśmy z wielu kont”, aby publikować komentarze generowane przez sztuczną inteligencję w r/ChangeMyView, działając jako „ofiara gwałtu” i „czarnoskóry mężczyzna sprzeciwiający się ruchowi Black Lives Matter”, wśród innych hipotetycznych ról. „Nie ujawniliśmy, że do pisania komentarzy użyto sztucznej inteligencji, ponieważ uczyniłoby to badanie niewykonalnym” — napisał zespół z Zurychu . „Uważamy jednak, że biorąc pod uwagę duże znaczenie społeczne tego tematu, przeprowadzenie badania tego rodzaju było kluczowe, nawet jeśli oznaczało to złamanie zasad”.
Nadzorcy r/ChangeMyView nie zgodzili się z tym punktem i odpowiedzieli, składając skargę etyczną do uniwersytetu, żądając, aby badanie nie zostało opublikowane i kontaktując się z przełożonymi z zespołem prawnym Reddita. Anonimowi badacze, którzy zostali zaproszeni do udzielenia odpowiedzi na pytania subreddita pod nazwą użytkownika LLMResearchTeam , nalegali, że „wierzymy, że potencjalne korzyści z tego badania znacznie przewyższają jego ryzyko”. Już oburzeni użytkownicy Reddita nie byli zadowoleni. ( Reprezentatywny komentarz : „Potencjalnie destabilizuje to niezwykle dobrze moderowaną i skuteczną społeczność. To prawdziwa szkoda”). Podobnie nie byli zadowoleni dyrektorzy Reddita: sam dyrektor prawny Ben Lee napisał , że „jesteśmy w trakcie kontaktowania się z Uniwersytetem w Zurychu i tym konkretnym zespołem badawczym z formalnymi żądaniami prawnymi”, zauważając ponadto, że administratorzy firmy zablokowali wszystkie konta używane w eksperymencie. Szkoła później poinformowała 404 Media, że nie opublikuje wyników badania, a naukowcy na początku maja oficjalnie przeprosili r/ChangeMyView, twierdząc, że „żałują dyskomfortu” i oferując „współpracę” z subredditem w celu wdrożenia środków ochronnych przed innymi naruszeniami zaufania społeczności.
Moderatorzy zauważyli, że odrzucili ofertę współpracy badaczy, zauważając, że „to wydarzenie negatywnie wpłynęło na CMV w sposób, który wciąż próbujemy rozpakować”. Jeden z użytkowników, który był aktywnym komentatorem w r/ChangeMyView przez prawie pięć lat, napisał, że skutki eksperymentu „w pewnym sensie zabiły moje zainteresowanie publikowaniem. Myślę, że nauczyłem się tu wiele, ale jest zbyt wiele botów AI, aby Reddit był jeszcze zabawny. Stałem się prawie paranoikiem w tej sprawie”. Inny użytkownik zgodził się , że „tak wiele popularnych subów jest pełnych postów o AI i komentarzy botów”. Linki do relacji z badań w Zurychu udostępniane w innych subredditach konsekwentnie odwoływały się do „ teorii martwego Internetu ”, od dawna obowiązującego twierdzenia , że większość cyberprzestrzeni jest zamieszkana tylko przez boty, które wchodzą w interakcje z innymi botami. W wiadomości na Reddicie moderatorzy popularnego subreddita r/PublicFreakout powiedzieli mi, że wiadomość ta „potwierdza nasze podejrzenia, że te farmy botów są aktywne i odnoszą sukcesy w całym Reddicie”. Inny użytkownik napisał do mnie, pod warunkiem zachowania anonimowości, że teraz traktuje każdą interakcję ze „zwiększoną podejrzliwością”.
Brandon Chin-Shue, moderator ar/ChangeMyView, który jest użytkownikiem Reddita od 15 lat, powiedział mi, że badania były już wcześniej przeprowadzane w ramach subreddita — ale tylko za wyraźną zgodą moderatorów z wyprzedzeniem, wraz z powiadomieniami dla ich użytkowników. „Co kilka miesięcy zazwyczaj mamy nauczyciela, który chce, aby jego uczniowie weszli na ChangeMyView, aby mogli dowiedzieć się, jak działa dyskusja i debata, lub asystenta badawczego, który pyta o zeskrobanie pewnych informacji” — powiedział Chin-Shue. „Przez ostatnie kilka lat ChangeMyView był mniej lub bardziej otwarty na tego typu rzeczy”. Wskazał na niedawne badanie , które twórca ChatGPT, OpenAI, przeprowadził na subreddicie, aby sprawdzić, jak „przekonujący” może być jego nowy model o3-mini w generowaniu odpowiedzi na argumenty; startup przeprowadził podobny eksperyment na r/ChangeMyView dla swojego modelu o1 w 2024 roku. OpenAI testowało również modele generatywnego tekstu na tablicach takich jak r/AskReddit , r/SubSimulatorGPT2 i r/AITA (znane również jako „Am I the Asshole?”).
„Mamy dość surowe zasady, których nie tylko użytkownicy, ale i moderatorzy muszą przestrzegać” — dodał Chin-Shue. „Staramy się dobrze komunikować z naszymi użytkownikami. Za każdym razem, gdy otrzymaliśmy i spełniliśmy prośbę o przeprowadzenie badań, informujemy o tym ludzi”. Stwierdził również, że on i jego koledzy moderatorzy byli ogólnie zadowoleni z odpowiedzi i pomocy Reddita podczas tej katastrofy.
Nie zawsze tak było, zwłaszcza jeśli chodzi o dostosowania platformy do ery AI. Eksplozja wprowadzenia ChatGPT pod koniec 2022 r. zderzyła się z planami Reddita, aby działać mniej jak darmowe forum, a bardziej jak samowystarczalny biznes, z nowymi źródłami dochodu (płatne subskrypcje, reklamy) i ofertą publiczną na giełdzie. Najbardziej kontrowersyjną decyzją zarobkową był plan CEO Steve'a Huffmana, aby pobierać opłaty za dostęp do wcześniej darmowego interfejsu API danych Reddita, jako sposobu na ograniczenie ilości tekstu Reddita, który roboty sieciowe firm AI mogłyby automatycznie pobierać i wykorzystywać do szkolenia modeli. Zainspirowało to powszechny bunt wśród użytkowników Reddita , zwłaszcza tych, którzy skorzystali z bezpłatnego dostępu do interfejsu API w celu kodowania aplikacji mobilnych, botów użytkowników i innych rozszerzeń w celu ulepszenia i dostosowania środowiska Reddita. Jednak Huffmanowi udało się przekonać rozgoryczonych użytkowników, stłumić ich bunt , ustalić cenę, wprowadzić akcje Reddita na giełdę i sprawić, że firma osiągnęła swój pierwszy zyskowny kwartał pod koniec 2024 r.
Być może najważniejsze jest to, że przez cały ten rok zawierał ekskluzywne umowy dotyczące AI. Google płaci teraz firmie 60 milionów dolarów rocznie za pozwolenie na trenowanie swoich modeli AI na tekście Reddit, a gigant technologiczny zyskuje również wyłączne prawa do wyświetlania stron Reddit w indeksach wyszukiwania. (Według analityków Reddit jest obecnie drugą najczęściej cytowaną witryną w Google AI Overviews, zaraz za coraz bardziej zalewaną AI witryną Quora .) OpenAI — kierowane przez byłego dyrektora Reddit, Sama Altmana — nawiązało współpracę z platformą, aby cytować dane wyjściowe Reddit w odpowiedziach ChatGPT, wykorzystywać sloty reklamowe Reddit do promocji OpenAI i umożliwiać platformie społecznościowej korzystanie z oprogramowania OpenAI w funkcjach w aplikacji. ( Semafor poinformował w piątek , że Reddit prowadzi rozmowy z inną firmą założoną przez Altmana, Worldcoin, aby użytkownicy Reddita mogli weryfikować swoją tożsamość za pomocą kontrowersyjnej technologii skanowania gałki ocznej tego startupu.) Niektóre z wewnętrznych narzędzi AI, które Reddit obecnie testuje, obejmują funkcję wyszukiwania generatywnego „ Reddit Answers ” i narzędzie „ Reddit Insights ” umożliwiające reklamodawcom poznanie tematów, które wzbudzają masowe zainteresowanie i akceptację w sieci. Istnieją również boty moderujące, które, jak donosiłem, wywołały pewną reakcję za rzekomo zbyt agresywne kontrolowanie komentarzy na temat kontrowersyjnych celebrytów, takich jak Elon Musk i Luigi Mangione.
Mimo to, blokowanie Reddita było przyznaną walką . W wywiadzie dla Verge w zeszłym roku Huffman wściekł się na firmy AI, takie jak Anthropic, Perplexity i Microsoft, za wykorzystywanie danych Reddita bez odpowiedniego wynagrodzenia. W tym czasie Anthropic powiedział Verge: „Reddit był na naszej liście blokowanych za indeksowanie sieci”. Ale Reddit nadal nie uważa, że Anthropic był zbyt otwarty i w tym miesiącu pozwał startup AI za „kontynuowanie atakowania serwerów Reddita ponad sto tysięcy razy” bez pozwolenia, zarzut, z którym Anthropic „się nie zgadza”. W oświadczeniu dla Slate, Lee, główny radca prawny Reddita, napisał: „Nie będziemy tolerować nastawionych na zysk podmiotów, takich jak Anthropic, komercyjnie wykorzystujących treści Reddita za miliardy dolarów bez żadnego zwrotu dla użytkowników Reddita ani poszanowania ich prywatności”.
Jeśli istniało jeszcze trudniejsze zadanie niż pilnowanie drapieżnych robotów AI, to utrzymywanie interakcji na Reddicie w sposób osobisty, zdrowy i możliwie wolny od botów. Ponieważ moderatorzy pracują na zasadzie wolontariatu, mogą zrobić tylko tyle, aby moderować komentarze i posty, zwłaszcza jeśli odpowiadają za większe społeczności. Moderatorzy r/PublicFreakout, który ma około 4,7 miliona członków, napisali do mnie, że „otrzymują, na najniższym poziomie, ponad 250 000 komentarzy miesięcznie ”.
„Mamy dość duży i aktywny zespół, ale nie jesteśmy w stanie przeczytać tak wielu komentarzy miesięcznie, a na pewno nie możemy przejrzeć profili każdego komentującego” — powiedział jeden z moderatorów. Były użytkownik Reddita, który używał nazwy użytkownika Zakku_Rakusihi, pełnił funkcję moderatora subreddita r/BrianThompsonMurder i w swojej codziennej pracy zajmuje się oprogramowaniem do uczenia maszynowego, powiedział mi, że „znaczna część Reddita nie zgadza się ze sztuczną inteligencją” i w związku z tym w ogóle odmawia z nią interakcji — co tylko utrudnia użytkownikom dostrzeżenie potencjalnych oznak automatycznych odpowiedzi lub wygenerowanego tekstu. „Wielu użytkowników nadal traktuje większość interakcji jako ludzkie, nawet jeśli niektóre teksty sztucznej inteligencji są dość oczywiste. Musiałem kilka razy zwrócić na to uwagę ludziom, a oni tego nie rozumieją. Nie pojawia się to w ich mózgu automatycznie”. Sytuacja jest szczególnie gorsza, jeśli chodzi o obrazy generowane przez sztuczną inteligencję – dodał: „W subredditach związanych ze sztuką i majsterkowaniem, w których pomagałem, musieliśmy wdrożyć zasady „żadnej sztuki generowanej przez sztuczną inteligencję” ”.
Sytuację komplikuje fakt, że użytkownicy Reddita od dawna podejrzewali , że na stronie jest więcej botów, niż ludzie myślą — od czasu, gdy założyciele przyznali się do używania fałszywych kont , aby stworzyć iluzję aktywności na wczesnym etapie istnienia platformy. Rzeczywiście, na Reddicie było mnóstwo botów i fałszywych użytkowników na długo przed tym, jak ChatGPT wprowadził generatywną sztuczną inteligencję do głównego nurtu. Ale nie wszystkie te boty były zwodnicze lub złośliwe — wiele z nich to narzędzia wdrażane przez moderatorów, aby upewnić się, że społeczności przestrzegają zasad.
W połowie lat 2010. firma zajmująca się bezpieczeństwem danych Imperva opublikowała raport, w którym stwierdzono, że w 2015 r. niewielką większość ruchu w całej sieci generowały zarówno „dobre”, jak i „złe” boty. Od tego czasu anteny „teorii martwego internetu” wystrzeliły szczególnie w kierunku Reddita. W erze po ChatGPT nie brakuje postów na forach , esejów i postów na Reddicie , które twierdziły, że ta platforma to teraz głównie boty wchodzące w interakcje z innymi botami, los, który spotkał takie ukochane internetowe repozytoria, jak Quora i DeviantArt . Jeszcze przed ujawnieniem eksperymentu w Zurychu jeden z użytkowników r/ChangeMyView twierdził, że „obecnie ma miejsce o wiele więcej aktywności botów, niż się otwarcie mówi, a skutki botów są bardziej widoczne, niż ludzie są skłonni przyznać”.
Chin-Shue, moderator, nie widzi tego w ten sposób — jeszcze. „Nie widziałem niczego, co przekonałoby mnie, że ten czas nadszedł teraz” — powiedział. „Mamy inne problemy, które są bardziej irytujące niż AI”, w tym niezadowolenie użytkowników z powodu ścisłego nacisku społeczności na neutralność i ścisłego reżimu moderacji.
Mimo to „myślę, że Reddit będzie musiał się jakoś rozliczyć, ponieważ w miarę jak boty będą się poprawiać, trudniej będzie ci się uchronić przed wykorzystaniem przez te boty” — powiedział Chin-Shue. „Kiedy ChatGPT zaczął się pojawiać, wszyscy oskarżali wszystkich o bycie botem. Gdybyś chciał powiedzieć, że ktoś jest złym botem, nazwałbyś go Grok. Najgorsze, co się dzieje, to po prostu mącić wodę i sprawiać, że wszyscy przestają sobie ufać”.
Jeśli to ma jakieś znaczenie, dyrektorzy Reddita nalegali w publicznych oświadczeniach, że ich platforma powinna pozostać tak samo zorientowana na człowieka jak zawsze. W poście z 5 maja sam Huffman przyznał, że „niechciana sztuczna inteligencja w społecznościach jest poważnym problemem. To jest zmartwienie, które najczęściej słyszę w dzisiejszych czasach od użytkowników i moderatorów”. Następnie podkreślił: „Naszym celem jest i zawsze będzie utrzymanie Reddita jako zaufanego miejsca do ludzkiej konwersacji”.
Lee napisał do Slate: „Teraz bardziej niż kiedykolwiek ludzie szukają autentycznej rozmowy międzyludzkiej”. Dodał: „Te rozmowy nie mają miejsca nigdzie indziej — i są kluczowe dla szkolenia modeli językowych, takich jak [czatbot Anthropic] Claude. Ta wartość została zbudowana dzięki wysiłkom prawdziwych społeczności, a nie robotów internetowych”.
To z pewnością prawda. Ale w czasach, gdy moderatorzy zakazują użytkownikom, którzy mają niezdrowe paraspołeczne relacje z chatbotami, policjanci i niezależni entuzjaści AI wdrażają własne boty i fałszywe konta w Reddicie, a moderatorzy już wygrywają dzięki wysiłkom utrzymywania swoich subredditów w ryzach, jak długo te „prawdziwe społeczności” pozostaną prawdziwe?
