Prawdziwe problemy, które czekają nas w kontekście sztucznej inteligencji: spojrzenie poza etykę

Jak wspomniałem w trzech ostatnich artykułach, gdy mowa o sztucznej inteligencji, często nasuwają się pytania o kwestie etyczne: sprawiedliwość, uprzedzenia i prywatność. Jednak technologia rozwija się nie tylko w kontekście moralnym; obejmuje również znacznie szerszy kontekst społeczno-techniczny. W tym kontekście wciąż czekają na rozwiązania wyzwania techniczne, społeczne i psychologiczne. W tym tygodniu zacznijmy od analizy rzeczywistych wyzwań stojących przed sztuczną inteligencją „poza moralnością”.
» WSTRZĄSACZE SPOŁECZNOŚCI: JAK WIELE MOŻE TECHNOLOGIA PONIEŚĆ W SPOŁECZEŃSTWIE?Rozwój sztucznej inteligencji obnaża niewidoczne linie podziału w społeczeństwie. Jednym z największych problemów jest jej wpływ na siłę roboczą, co jest od dawna dyskutowanym zagadnieniem. Systemy sztucznej inteligencji, które automatyzują rutynowe zadania, stanowią szczególne zagrożenie dla pracowników o niskich kwalifikacjach. Manish Rana i współpracownicy (2024) podkreślają, że ta transformacja może „drastycznie zmienić strukturę zatrudnienia w społeczeństwie”. Siła robocza ulega transformacji nie tylko pod względem ilościowym, ale także jakościowym. Stwarza to ryzyko wykluczenia dla tych, którzy nie potrafią dostosować się do nowych miejsc pracy. Chcę powtórzyć to, co często powtarzałem w poprzednich artykułach i wywiadach: sztuczna inteligencja nie zabierze ci pracy; ci, którzy nie dostosują się do nowej ery sztucznej inteligencji i ci, którzy z niej nie korzystają, pozostaną bezrobotni.
Co więcej, zmieniają się nie tylko firmy, ale także układ sił. Duże firmy technologiczne stają się niemal rywalami rządów, dysponując danymi i infrastrukturą. Sytuacja ta rodzi pytanie o suwerenność danych i niezależność cyfrową. Venni Krishna (2023) argumentuje, że taka koncentracja władzy może w dłuższej perspektywie osłabić demokratyczną kontrolę nad społeczeństwami.
» SKUTKI PSYCHOLOGICZNE: GDZIE CZŁOWIEK KOCHA?Systemy sztucznej inteligencji zmieniają nie tylko pracę, ale także relacje. Nowe rodzaje połączeń między ludźmi powstają dzięki inteligentnym asystentom, chatbotom, a nawet „robotom wsparcia emocjonalnego”. Czy te połączenia są prawdziwe, czy iluzoryczne? Ludzie coraz częściej oczekują odpowiedzi od systemów sztucznej inteligencji, ale systemom tym brakuje prawdziwego „zrozumienia”. To tworzy paradoks psychologiczny: system z emocjonalną więzią, a jednocześnie bez świadomości.
Nazywa się to „błędem emocjonalnym”. Jess Whittlestone i Clarke (2022) zauważają, że długoterminowe skutki kontaktów ze sztuczną inteligencją, szczególnie dla osób doświadczających samotności, traumy lub deprywacji emocjonalnej, nie są jeszcze znane. W tym kontekście przekształcenie sztucznej inteligencji w technologię emocjonalną, a nie jedynie poznawczą, wywołuje istotną debatę etyczną i psychologiczną.
» DYLEMATY TECHNICZNE: WIEDZA, BRAK ZROZUMIENIASztuczna inteligencja wciąż stoi przed wieloma wyzwaniami technicznymi. Jak zauważają Rana i in. (2024):
Modele wymagają dużej ilości danych, co generuje wysokie koszty i utrudnia dostęp do nich.
Nawet jeśli systemy działają bardzo dobrze w jednym obszarze, nie mogą generalizować. Są podatne na potencjalne ataki (ataki adwersarskie).
Procesy decyzyjne to wciąż „czarne skrzynki”, co oznacza, że nie są transparentne dla ludzi. Wchodzimy w interakcję z systemami, których działanie jest nieznane.
Choć sztuczna inteligencja dysponuje niesamowitą mocą obliczeniową, wciąż nie rozumie swojego otoczenia. Potrafi postawić o wiele trafniejszą diagnozę niż lekarze w szpitalu, ale wciąż nie rozumie, dlaczego dziecko płacze.
» NIEPEWNOŚCI PRAWNE: KTO PONOSI ODPOWIEDZIALNOŚĆ?Kto ponosi odpowiedzialność za błędną decyzję systemu AI? Twórca, użytkownik czy system? Perc i in. (2019) zauważają, że „granice odpowiedzialności prawnej zacierają się, jeśli chodzi o szkody wyrządzone przez AI”. W wielu obszarach, od pojazdów zautomatyzowanych po systemy rozpoznawania twarzy, aktualizacja przepisów jest nieunikniona.
To prowadzi nas do fundamentalnego pytania: czy sztuczną inteligencję należy uważać za osobę? Pytanie to pozostaje na poziomie filozoficznym, ale jego reperkusje są już odczuwalne w świecie prawnym.
Sztuczna inteligencja to nie tylko technologia; to próg nowej ery. Aby go przekroczyć, potrzebujemy nie tylko potężniejszych komputerów, ale także głębszego zrozumienia społecznego, psychologicznego i technicznego. Pytanie to nie jest wyłącznie „moralne”; jest ono również wplecione w pytania o to, czy jest ona zrozumiała, odpowiedzialna i ludzka.
Jeśli my, jako społeczeństwo, nie zmierzymy się z tymi pytaniami odważnie, możemy skończyć tworząc wysoce inteligentne maszyny i pozbawiając się sensu w ich świecie. Życzę Wam wszystkim sensownego życia i udanego tygodnia.
BirGün