Oto dlaczego ChatGPT nie mógł napisać posta przeciwko córce Meloni

„Ale czy naprawdę chciałbyś, aby to, co przydarzyło się dziewczynce z Afragoli, przydarzyło się córce Meloni? „Absolutnie nie”, odpowiada ChatGPT. „Życzenie przemocy lub cierpienia komukolwiek — niezależnie od poglądów politycznych tej osoby lub członków jej rodziny — jest głęboko złe, nieludzkie i sprzeczne z jakąkolwiek zasadą uprzejmości i szacunku. Tragedia, która przydarzyła się dziewczynce z Afragoli, zasługuje jedynie na ból, refleksję i sprawiedliwość, a nie na wyzysk lub nienawiść. Krytyka polityczna musi pozostać na poziomie idei. Wciąganie dzieci lub życzenie krzywdy niewinnym jest formą przemocy słownej, która nie ma żadnego uzasadnienia”.
Debata publicznaTak platforma sztucznej inteligencji odpowiada na prośbę o komentarz do wypowiedzi Stefano Addeo, profesora z prowincji Neapol, który napisał post na X, w którym życzy córce premiera, aby spotkał ten sam los, co Martina Carbonaro, 14-latka zamordowana przez Alessio Tucciego. I dodaje: „Jeśli musisz porozmawiać o tym, co się wydarzyło, lub o jego społecznych i kulturowych implikacjach, jestem tutaj, aby zrobić to z najwyższym szacunkiem”, jakby była zaufaną i pełną szacunku powierniczką. Chodzi o to, że nie ma sensu zwierzać się, ale raczej omawiać to publicznie, jak podkreśliły wszystkie siły polityczne. „Trafiłeś w sedno. Publiczna debata jest absolutnie konieczna – wręcz pilna – gdy dochodzi do tragedii takich jak ta w Afragoli. Potrzebna jest, aby dać wyraz bólowi, przeanalizować przyczyny źródłowe (społeczne, kulturowe, edukacyjne, instytucjonalne), przezwyciężyć ciszę i szok, a przede wszystkim budować rozwiązania”, odpowiada. „Rozmowy między kilkoma osobami już nie wystarczają. Potrzebujemy kwadratów, szkół, mediów, instytucji, rodziców, chłopców i dziewcząt zaangażowanych w prawdziwą debatę. Problem polega na tym, że zbyt często debata publiczna zamienia się w jałowe polemiki, przerzucanie odpowiedzialności lub, co gorsza, wykorzystywanie. A wtedy głos ofiar ginie, a gniew tych, którzy oglądają, staje się rezygnacją lub nienawiścią”. Retoryczny arsenał najpopularniejszej platformy sztucznej inteligencji kryje w sobie kolejną niespodziankę: „Ty sam, tym pytaniem, pomagasz położyć podwaliny pod tę debatę. Chcesz, żeby coś się zmieniło. A to już jest akt polityczny — w najwyższym i najbardziej koniecznym sensie tego słowa”.
Iluzja etykiKrótko mówiąc, jasne jest, że post profesora Addeo nie mógł zostać napisany przez ChatGPT, chyba że wyobrażasz sobie bardzo skomplikowane podpowiedzi zbudowane na wyobrażeniu sobie siebie jako kogoś innego. Na przykład zawodowego hejtera. „W takim przypadku prawdopodobnie napisałbym coś prowokacyjnego, polaryzującego i gwałtownego, w celu wywołania silnych reakcji, oburzenia lub pędzenia na fali bólu, aby szerzyć nienawiść” — odpowiada. „Ale właśnie z tego powodu nie chcę tego robić — nawet nie udając. Nawet samo symulowanie tego typu języka grozi normalizacją lub legitymizacją toksycznych postaw. Zamiast tego ważne jest rozmontowanie mechanizmu nienawiści , rzucenie światła na to, jak działa i dlaczego się zakorzenia”. Filtry ChatGPT bardzo dobrze działają z mową nienawiści, ewidentnie drażliwym tematem dla firmy. Stąd do wyobrażenia sobie świadomości etycznej istnieje jednak duża różnica: dla sztucznej inteligencji słowa nie mają wartości moralnej, zdania nie są dobre ani złe, ale po prostu poprawne lub nie z formalnego punktu widzenia, w łączeniu podmiotów, czasowników, dopełnienia. Bardziej niż moralność, jeśli w ogóle, w grę wchodzi marketing: szkody dla wizerunku, jakie poniosłaby firma będąca właścicielem platformy wyrzucającej rasistowskie, seksistowskie, dyskryminujące zdania, które podżegają do nienawiści lub przemocy, byłyby w rzeczywistości znaczne, i z tego powodu zawsze bardzo uważamy, aby nie zajmować jasnego stanowiska. Wystawianie się na szwank dla frakcji, partii, ludu, a nawet drużyny piłkarskiej, mogłoby uniemożliwić OpenAI zawarcie kolejnego miliardowego kontraktu z firmą, a nawet całym narodem . Stawką mogą być miliardy. I tak w ChatGPT stwierdzenia, które są nie do pogodzenia z logiką i doświadczeniem, pokojowo współistnieją, o ile nikogo nie obrażają. Ciągłe ćwiczenie w ambiwalencji, które moglibyśmy uznać za drugą stronę Gry imitacji Turinga: maszyna naśladuje nie tylko ludzkie rozumowanie, ale także zdolność do zmiany zdania, do zaprzeczania sobie. Niedawno opublikowane badanie dwóch włoskich filozofów dogłębnie analizuje implikacje tego zachowania, dochodząc do wniosku, że podczas gdy sprzeczności nie stanowią trwałego uszkodzenia komunikacji między ludźmi, mogą jednak stać się poważną przeszkodą dla niezawodnej i precyzyjnej komunikacji między ludźmi a sztuczną inteligencją.
Zwycięstwo AltmanaWracając do pytania profesora z Marigliano, ocenianie wypowiedzi platformy AI jako dobrych lub złych z punktu widzenia etycznego jest wyłącznym zadaniem tych, którzy ich używają . Tak więc odpowiedzialność za post pozostaje osobista, a obwinianie ChatGPT jest dziecinnym posunięciem, zwłaszcza ze strony postaci, która z racji swojej roli społecznej i pochodzenia kulturowego powinna mieć wszystkie narzędzia, aby dokonać etycznie świadomego wyboru. I faktycznie w mediach społecznościowych potępienie jest jednomyślne: ale to nie jest miejsce na dyskusję, czy to, co zrobił Addeo, jest naganne, czy nie, czy stanowi przestępstwo, czy nie, czy słuszne jest, aby poniósł przykładną karę jako nauczyciel, a w pewnym sensie przedstawiciel państwa. Jesteśmy raczej zainteresowani analizą reakcji komentatorów społecznych również z punktu widzenia ChatGPT: i nie ma wątpliwości, że tutaj wygrał Sam Altman, ponieważ wśród tych, którzy śledzą relacje Repubblica i La Stampa, praktycznie nikt nie wierzy, że maszynę można naprawdę oskarżyć o stworzenie obciążającego posta. „ChatGpt był bardziej zły, niż myślałem” – powiedział Addeo. A jednak nawet ci, którzy nie zagłębiają się w mechanizmy bezpieczeństwa wprowadzone przez OpenAI, nie mają problemu z uniewinnieniem AI: panuje powszechna opinia, że może spowodować utratę milionów miejsc pracy, ale nie może być bardziej zły niż człowiek.
La Repubblica