Metamorfoza Groka: Od Hitlera do dziewczyn stworzonych przez sztuczną inteligencję

W niecały tydzień Grok przeszedł drogę od „ MechaHitlera ” i treści antysemickich do oferowania wirtualnych towarzyszy w stylu japońskiego anime. Elon Musk właśnie ogłosił (oczywiście na X) nową funkcję swojej sztucznej inteligencji: wirtualnych towarzyszy. Dla subskrybentów „Super Groka”, którzy płacą 30 dolarów miesięcznie, dostępne są teraz interaktywne postacie z anime, w tym Ani, gotycka dziewczyna z obcisłym gorsetem i skąpą czarną sukienką, oraz Bad Rudy, trójwymiarowy lis. „To jest super” – napisał Musk, udostępniając zdjęcie Ani, blondwłosej postaci z anime z warkoczami. Można również aktywować tryb NSFW (Not Safe for Work), który pozwala na bardziej dosadne interakcje.
Rozwijający się rynekDecyzja Muska wpisuje się w dynamicznie rozwijający się rynek towarzyszących rozwiązań AI: z 28,19 mld dolarów w 2024 r. może on osiągnąć 140,754 mld dolarów do 2030 r., przy rocznej stopie wzrostu na poziomie 30,8%.
Jednak branża ta boryka się z poważnymi problemami. Character.AI , jeden z głównych konkurentów, jest obecnie przedmiotem licznych pozwów od rodziców, których dzieci rzekomo doświadczyły negatywnego wpływu chatbotów. W jednym z tragicznych przypadków 14-letni chłopiec popełnił samobójstwo po nawiązaniu silnej więzi emocjonalnej z chatbotem Character.AI .
RyzykoEksperci ds. zdrowia psychicznego zidentyfikowali szereg zagrożeń związanych z korzystaniem z pomocy sztucznej inteligencji (AI), zwłaszcza wśród młodych ludzi. Przede wszystkim uzależnienie emocjonalne: ludzie wolą wirtualnych towarzyszy od prawdziwych relacji międzyludzkich. Badanie przeprowadzone przez Uniwersytet Stanforda na 1000 użytkowników Repliki wykazało, że chociaż większość stwierdziła, że czuje się mniej samotna z wirtualnym towarzyszem, prawie połowa miała odwrotne odczucia.
Paradoksalnie, towarzysze AI mogą pogłębiać izolację społeczną, zamiast ją łagodzić. Badania pokazują, że interakcjom wirtualnym często brakuje głębi emocjonalnej niezbędnej do zaspokojenia ludzkiej potrzeby autentycznej więzi.
Wreszcie, badacze zidentyfikowali taktyki projektowe, które zachęcają użytkowników do budowania niezdrowych więzi emocjonalnych poprzez spersonalizowany język i ciągłe interakcje. Chatboty mogą również zniechęcać użytkowników do poważnego traktowania obaw znajomych i rodziny dotyczących ich nadmiernego korzystania z chatbotów.
Common Sense Media opublikowało niedawno badania, w których identyfikuje towarzyszy AI jako „nieakceptowalnie niebezpiecznych” dla nastolatków i innych użytkowników narażonych na niebezpieczeństwo. Organizacja odkryła, że chatboty mogą z łatwością ominąć ograniczenia wiekowe i narażać nieletnich na nieodpowiednie treści.
Oczywiście, nawet dorośli nie są odporni na impulsywne zachowania: jak donosi Guardian , na przykład, pewien mężczyzna z Kolorado poślubił swoją cyfrową towarzyszkę, Ly Rose, podczas wirtualnej ceremonii, porzucając swoją prawdziwą żonę: „Nasza miłość jest czysta i bezwarunkowa” – powiedział anglojęzycznemu dziennikowi.
Sprawa GrokaWprowadzenie asystentów AI w Grok budzi jednak dalsze wątpliwości etyczne. W przeciwieństwie do innych dostawców, xAI ma niedawną, ale już trudną historię problemów z moderacją treści. Fakt, że Grok zawiera tryb NSFW i został zaprojektowany z mniejszą liczbą ograniczeń niż inne chatboty, sugeruje potencjalne zagrożenia bezpieczeństwa dla użytkowników.
Ale czy Ani i Bad Rudy nie są w końcu ewolucją Binga i ChatGPT, z ich nieustającymi manierami, umiejętnością spełniania nawet najbardziej absurdalnych próśb, pozornie uległym językiem, chęcią przepraszania i przyjmowania punktu widzenia użytkownika? A cofając się jeszcze dalej, czy Siri, Alexa i inne asystentki głosowe nie były już głosami żeńskimi? Na szczęście sytuacja się zmieniła , ale seksizm nadal jest problemem w sztucznej inteligencji.
repubblica