„Sztuczna inteligencja będzie kontrolować sposób, w jaki myślimy i postrzegamy świat”: Brian Green, ekspert ds. sztucznej inteligencji i katastrofalnego ryzyka technologicznego

Modele sztucznej inteligencji, które kłamią, manipulują i grożą , by osiągnąć swoje cele, są już rzeczywistością, która niepokoi badaczy. Niedawno ujawniono, że Claude 4 , nowy model Anthropic , szantażował inżyniera i groził ujawnieniem jego pozamałżeńskiego romansu, podczas gdy o1 firmy OpenAI próbował pobrać się na zewnętrzne serwery i zaprzeczył, że jest wykorzystywany.
Obawy o wymykającą się spod kontroli sztuczną inteligencję (AI) są uzasadnione, nie tylko ze względu na wspomniane fakty, które pokazują, że AI może zacząć zachowywać się jak ludzie, ale także ze względu na implikacje, jakie ta technologia już niesie w takich dziedzinach jak edukacja i komunikacja – stając się źródłem fałszywych wiadomości i obrazów . „AI jest niebezpieczna, zwłaszcza w sposobie, w jaki działa z dezinformacją i rozpowszechnianiem fałszu w społeczeństwie” – mówi dr Brian Patrick Green, dyrektor ds. etyki technologii w Centrum Etyki Stosowanej im. Markkuli na Uniwersytecie Santa Clara.
Green, specjalista w dziedzinie etyki sztucznej inteligencji i katastroficznego ryzyka technologicznego, współpracował z Watykanem, Światowym Forum Ekonomicznym oraz firmami takimi jak Microsoft i IBM. Podczas wizyty w Kolumbii, jako jeden z uczestników Zgromadzenia Międzynarodowego Stowarzyszenia Uniwersytetów Jezuickich (IAJU), które odbyło się na Papieskim Uniwersytecie Ksaweriańskim, ekspert rozmawiał z EL TIEMPO o rzeczywistych zagrożeniach związanych ze sztuczną inteligencją i o tym, co świat musi zrobić, aby uniknąć potencjalnych katastrof związanych z tą technologią.
Czy uważasz, że sztuczna inteligencja stanowi realne zagrożenie dla ludzkości? To niebezpieczne, zwłaszcza w sposobie, w jaki działa z dezinformacją i rozprzestrzenianiem fałszu w społeczeństwie. Istnieje wiele mediów społecznościowych lub platform do udostępniania wideo, gdzie dezinformacja rozprzestrzenia się szybko, ponieważ sztuczna inteligencja jest technologią, która za nią stoi, zapewniając, że ludzie widzą treści, które są dla nich bardzo interesujące, ale w rzeczywistości może to nie być prawdą. To tylko jeden problem. Kolejnym jest to, że wielu uczniów oszukuje w szkole już teraz, a to również stanowi poważne zagrożenie, ponieważ jeśli ukończymy studia z grupą studentów, którzy nie potrafią myśleć i wykonywać swoich zadań prawidłowo, społeczeństwo ucierpi. Musimy upewnić się, że studenci ukończą studia i będą potrafili myśleć. W przeciwnym razie, jeśli staną się całkowicie zależni od sztucznej inteligencji w swoich studiach, będą od niej zależni w swojej pracy, a cywilizacja również stanie się całkowicie zależna od sztucznej inteligencji.
To, o czym mówisz, to realne zagrożenie, ale istnieje również ciągły strach przed scenariuszem, w którym sztuczna inteligencja stanie się tak potężna, że doprowadzi do powstania myślących robotów, które nas zdominują. Czy uważasz, że to możliwe? Zdecydowanie istnieje niebezpieczeństwo związane z wykorzystaniem robotów w działaniach wojennych. Chodzi mi o to, że coraz częściej widzimy drony w wojnie Izraela z Iranem, Hamasem czy Hezbollahem, a także w wojnie między Ukrainą a Rosją. Te technologie już istnieją i w przyszłości staną się bardziej zaawansowane. Jeśli zastanawiamy się, czy same roboty nas zaatakują, to myślę, że tak naprawdę powinniśmy się martwić o ludzi wykorzystujących roboty. Nie ma potrzeby wyobrażać sobie, że wrogi robot mógłby nas zaatakować w przyszłości, skoro wiemy, że ludzie są do tego zdolni. I niestety, będziemy wykorzystywać tę technologię w tym celu jeszcze częściej.
Jaki byłby Twoim zdaniem najbardziej katastrofalny scenariusz, który mógłby się wydarzyć, gdyby przy opracowywaniu sztucznej inteligencji nie brano pod uwagę kwestii etycznych? Mogłoby to oznaczać coś w rodzaju powierzenia sztucznej inteligencji kontroli nad bronią jądrową, albo coś w tym stylu, a następnie podjęcia przez nią decyzji o ataku. Byłoby to jak w filmach o Terminatorze . Ale istnieją inne zagrożenia, które moim zdaniem są również złe i które nie wiążą się z tym, że wszyscy zginą, ale raczej z tym, że będziemy cierpieć w straszliwym państwie totalitarnym, ponieważ rząd decyduje się na poddanie ludzi ciągłej inwigilacji. Wolność znika, ponieważ sztuczna inteligencja stale cię obserwuje i zmusza do robienia tego, czego chcą od ciebie ci u władzy. Myślę, że w przyszłości czeka nas wiele zagrożeń dla wolności, ponieważ sztuczna inteligencja będzie kontrolować, jak myślimy i jak postrzegamy świat. A jeśli spróbujemy się zmienić, będzie próbowała zmusić nas z powrotem do bycia takimi, jakimi chce nas widzieć rząd lub ktokolwiek, kto sprawuje władzę.
W jaki sposób można etycznie rozwijać sztuczną inteligencję, aby temu zapobiec? Pierwszą rzeczą do zrobienia jest zdawanie sobie z tego sprawy. Każdy powinien rozpoznać, kiedy pojawia się potencjalne ryzyko. Inną rzeczą, którą moglibyśmy zrobić, jest stworzenie międzynarodowego traktatu, który stanowi na przykład, że sztuczna inteligencja nie może dowodzić bronią jądrową, lub że sztuczna inteligencja i śmiercionośne autonomiczne systemy uzbrojenia , czy też zabójcze roboty, jeśli chcemy je tak nazwać, nie mogą samodzielnie wybierać celów, a decyzję tę zawsze musi weryfikować człowiek. Gdy ktoś jest świadomy tych kwestii, może szukać innych osób do rozmowy lub organizacji, które starają się upewnić, że sztuczna inteligencja jest prawidłowo wykorzystywana, aby do nich dołączyły. Mówiąc o odpowiedzialności za sztuczną inteligencję, firmy technologiczne zajmują oczywiście bardzo ważną pozycję, ponieważ same rozwijają tę technologię. Rządy i jednostki również ponoszą odpowiedzialność. Ostatecznie ludzie muszą również rozważyć, czy chcą podlegać tej technologii, czy nie, lub czy muszą w jakiś sposób sprzeciwić się jej pojawieniu się w społeczeństwie.

Brian Green na Uniwersytecie Javeriana Zdjęcie: Uniwersytet Javeriana
Technologia rozwija się tak szybko, że społeczeństwo z trudem znajduje sposób, by na nią zareagować. Istnieją dwa możliwe rozwiązania: albo nakazać technologii zwolnić, albo skłonić społeczeństwo do przyspieszenia, a konkretnie do społecznej dyskusji na temat etyki sztucznej inteligencji. Myślę, że można przyspieszyć tę dyskusję. Miejmy więc nadzieję, że rządy obudzą się i firmy technologiczne postąpią właściwie. Jeśli masz wybór między produktem etycznym a nieetycznym, wybierz ten etyczny, aby zachęcić firmy do właściwego postępowania. Kiedy uświadomisz sobie problem, musisz zadać sobie pytanie, co możesz zrobić. Czy możesz zrobić cokolwiek, aby spróbować poprowadzić świat ku lepszej przyszłości i oddalić się od najgorszego?
Współpracowałeś z firmami takimi jak IBM i Microsoft. Co robią, aby tworzyć bardziej etyczne produkty? Każda firma technologiczna jest inna, a niektóre traktują etykę znacznie poważniej niż inne. Na przykład Microsoft i IBM bardzo dbają o swoją reputację, ponieważ znaczna część ich działalności opiera się na współpracy z innymi firmami, które muszą im zaufać, takimi jak banki czy rządy, które muszą wierzyć, że ich system elektroniczny będzie działał prawidłowo. Dlatego poważnie traktują swoją reputację, jeśli chodzi o posiadanie niezawodnego, bezpiecznego produktu, który chroni ludzi i jest etyczny. Istnieją jednak inne rodzaje firm, które zarabiają więcej, pracując bezpośrednio z klientami. Media społecznościowe są tego dobrym przykładem. Firmy te nie są poddawane takiej samej presji, ponieważ nie mają wielu dużych, dochodowych klientów. Jeśli chodzi tylko o klientów indywidualnych, sposobem na przekonanie firmy do właściwego postępowania jest zgromadzenie wielu osób, aby spróbować przekonać je do poprawy.

Brian Green na Uniwersytecie Javeriana. Zdjęcie: Uniwersytet Javeriana
Firmy również zmieniają się w zależności od sytuacji społecznej. Widzieliśmy to w Stanach Zjednoczonych wraz ze zmianą administracji: niektóre firmy technologiczne stały się bardziej przychylne wobec propozycji rządu. Dlatego w tym sensie zawsze ważne jest, aby pamiętać, że firmy są w najlepszej pozycji, aby postępować właściwie, ale czasami zmieniają swoje działania w oparciu o zalecenia rządu lub innych wpływowych organizacji.
Czy sztuczna inteligencja powinna robić to, czego chcą od niej ludzie, czy to, co jest słuszne i racjonalne? Argumentuję za drugim stanowiskiem, że sztuczna inteligencja musi kierować się obiektywnymi ramami moralnymi. Ponieważ czasami ludzie pragną czegoś złego, a nawet duże grupy ludzi mogą pragnąć czegoś złego. Ważne jest, aby sztuczna inteligencja kierowała się racjonalną, obiektywną etyką i aby była promowana wśród całej ludzkości. Musi myśleć o rozwoju człowieka i o tym, jak sprawić, by społeczeństwo dobrze funkcjonowało, szukać prawdy i odpowiadać na tego typu pytania. W przeciwnym razie możemy sobie wyobrazić sytuację bardzo podobną do obecnej, gdzie jedni chcą szerzyć dezinformację lub propagandę, a inni chcą szukać prawdy, ale nie mogą, ponieważ dezinformacji jest zbyt dużo.
Jaki jest związek między sztuczną inteligencją a religią? Można na to spojrzeć co najmniej z dwóch stron. Po pierwsze, sztuczna inteligencja sama w sobie staje się rodzajem religii dla ludzi, którzy ją rozwijają. Sam Altman, na przykład, powiedział niedawno, że jego firma jest pełna misjonarzy, którzy próbują stworzyć swoją sztuczną inteligencję. Kiedy myślimy o sztucznej inteligencji lub technologii jako o rodzaju religii, trudniej jest dyskutować, jak najlepiej pasuje ona do społeczeństwa, ponieważ chcą mieć transcendentny cel, do którego dążą, sprawiając, że wszystko inne staje się nieistotne w porównaniu z nim. Jednym z zagrożeń jest zatem przekształcenie sztucznej inteligencji w rodzaj religii. Innym sposobem myślenia o religii i sztucznej inteligencji jest uwzględnienie faktu, że na świecie istnieją różne wierzenia, a sztuczna inteligencja może działać w zgodzie z nimi lub antagonistycznie. Ważne jest, aby znaleźć sposób, aby sztuczna inteligencja współpracowała ze wszystkimi ludźmi na świecie, a jednocześnie ustalić, jaki jest racjonalny lub obiektywny standard, według którego wszyscy mogą ze sobą współpracować . Myślę, że w tradycjach religijnych istnieje wiele wskazówek i mądrości, które mogą pomóc w zapewnieniu, że sztuczna inteligencja będzie ukierunkowana na dobre zastosowania.
Maria Alejandra Lopez Plazas
eltiempo