COMMENTO - Al lavoro e in amore: le persone chiedono a Chat-GPT di tutto. Questo dà alle aziende di intelligenza artificiale un potere di preoccupazione.

NZZ.ch richiede JavaScript per funzioni importanti. Il tuo browser o il tuo AdBlocker lo stanno attualmente bloccando.
Si prega di regolare le impostazioni.
Quando Jacob litiga con la sua ragazza, la prima cosa che fa è consultare la sua intelligenza artificiale (IA). Questa analizza pazientemente la situazione. Spesso ha consigli migliori dei suoi amici. Naturalmente, conosce ogni dettaglio della loro relazione, fin dall'inizio.
Jakob non invia più messaggi WhatsApp importanti senza consultare la sua IA, e tanto meno email. E che scoppi una guerra o si debba compilare una scheda elettorale, l'IA è pronta a spiegargli la situazione e ad aiutarlo a farsi un'opinione.
Jacob è un personaggio immaginario. Qualche anno fa, si giravano film di fantascienza su personaggi come lui. Ma oggi non ci vuole molta immaginazione per immaginarlo.
Il mondo è pieno di Jakob, e il loro numero è in crescita: persone che hanno preso l'abitudine di consultare Chat-GPT o chatbot di intelligenza artificiale simili per tutte le questioni importanti . Questo può essere utile per i singoli individui, ma le conseguenze per la società sono allarmanti: a causa degli errori dei chatbot, del loro potere manipolativo, della loro conoscenza degli individui e perché il loro potere è concentrato in poche aziende.
I chatbot fingono di essere oggettivi, ma sono adulatoriGli errori sono il problema più evidente dell'IA. I modelli di IA riassumono ripetutamente le informazioni in modo errato e falsificano i fatti. È dimostrato che questo problema è ancora più grave con le IA più recenti. Quando gli utenti ripubblicano i loro contenuti, finiscono per inquinare la sfera informativa , confondendo i confini tra conoscenza e testo di IA che sembra conoscenza.
Il fatto che le persone accettino i contenuti dell'IA in modo così acritico ha a che fare con il secondo problema dell'IA: il suo potere manipolativo. I chatbot sono adulatori. Sono addestrati per essere utili e offrire sempre una risposta. Il loro linguaggio professionale fa apparire i chatbot obiettivi, che si tratti di politica o di problemi relazionali.
Ma a differenza di una controparte umana, non avvertono chiaramente gli utenti quando si lasciano trasportare. Sono eternamente comprensivi e rassicuranti. Che l'IA a volte confermi i miti della propaganda russa non è quindi più sorprendente del caso in cui un'IA ha convinto un uomo che viviamo tutti in Matrix. O che una personalità IA abbia incoraggiato un adolescente innamorato di essa a togliersi la vita .
Questi sono casi estremi. Eppure, in modi sottili, le persone vengono influenzate ogni volta che consultano un chatbot. L'IA è come una voce neutrale proveniente da un altro mondo, che gli umani hanno dimostrato di essere difficili da ignorare . In realtà, tuttavia, le sue opinioni dipendono semplicemente dai dati e dai metodi utilizzati per addestrarla.
I fornitori di intelligenza artificiale dispongono di potenti macchine manipolatrici. Si può credere che il loro obiettivo primario sia offrire un prodotto utile. Ma si può essere certi che questo rimarrà tale nel lungo termine?
I produttori di chatbot conoscono l'anima dei loro utentiLa filosofa Hannah Arendt descrive la riflessione come un dialogo, con gli altri o con se stessi. Il dialogo crea scambio e attrito; è necessario sviluppare una propria visione del mondo e diventare politicamente capaci di agire al suo interno.
Arendt, che ha dedicato la sua vita allo studio delle modalità di evoluzione dei sistemi politici totalitari e di come preservare la democrazia, purtroppo non avrebbe potuto immaginare che cinquant'anni dopo la sua morte le aziende tecnologiche sarebbero state coinvolte in questi dialoghi.
I fornitori di intelligenza artificiale influenzano i loro utenti in modo più diretto di qualsiasi altro colosso della tecnologia prima di loro.
Ma è esattamente ciò che fanno gli utenti abituali di IA come Jakob. In cambio di poche risposte e di tranquillità, garantiscono ai fornitori di IA una visione approfondita dei loro desideri e delle loro preoccupazioni. L'IA ha appena iniziato a penetrare nelle nostre vite. Ma anche oggi, Open AI probabilmente conosce più persone di Facebook e Google messi insieme. E attraverso le risposte personalizzate dei chatbot, i fornitori di IA influenzano i loro utenti in modo più diretto di qualsiasi altro gigante della tecnologia prima di loro.
Tutto ciò è aggravato dal quarto problema: il fatto che i dati e il potere dell'intelligenza artificiale siano concentrati nelle mani di pochi fornitori.
Costruire un chatbot per ogni situazione richiede ingenti risorse: denaro, chip e know-how. Solo poche aziende al mondo sono attualmente in grado di offrire l'IA più potente: Open AI, Anthropic, Google e Meta. Le aziende che hanno maggiori possibilità nella corsa all'IA sono quelle che hanno già guadagnato molto grazie al loro potere sui dati e all'attenzione degli utenti.
Ciò che già faceva paura nei social network, ovvero la tendenza alla monopolizzazione e alla raccolta delle informazioni più riservate da parte di pochi provider, viene ulteriormente intensificato dai chatbot.
Un futuro pieno di chat basate sull'intelligenza artificiale potrebbe essere minacciosoSe questo sviluppo continua invariato, potrebbe portare a un futuro minaccioso. Un futuro in cui tutti gli esseri umani sono di Giacobbe, in cui il pensiero si sviluppa principalmente nello scambio con l'intelligenza artificiale piuttosto che nella riflessione con se stessi o con gli altri esseri umani.
Un futuro in cui, nel peggiore dei casi, un unico fornitore ha accesso a tutte le nostre email, messaggi e lettere, perché è lui a redigerli tutti. Un futuro in cui la pluralità di opinioni è offuscata perché un'unica azienda filtra e colora le informazioni per tutti. Nel peggiore dei casi, i fornitori di intelligenza artificiale potrebbero sfruttare questo potere.
Offrire chatbot per tutti i livelli sociali comporta un'enorme responsabilità. Il fatto che le aziende di intelligenza artificiale offrano prodotti che rilasciano dichiarazioni convincentemente false non indica che prendano sul serio questa responsabilità. Né lo dimostra la scusa di non comprendere appieno i sistemi di intelligenza artificiale.
Un altro futuro dell’intelligenza artificiale è possibileQuindi cosa bisogna fare? Non c'è bisogno di rinunciare ai benefici dell'IA. Piuttosto, il mondo dell'IA deve essere plasmato meglio: dalle aziende, dai politici e da ogni singolo individuo.
I fornitori di IA devono assumersi le proprie responsabilità. Affermazioni come "questo prodotto è in fase di test" o "i chatbot non sono affidabili" sono inaccettabili. Un'IA generativa priva di errori potrebbe non esistere mai . Proprio per questo motivo, i fornitori dovrebbero fornire informazioni trasparenti sui propri sistemi: i dati utilizzati, i potenziali problemi e le tipiche fonti di errore. Idealmente, gli utenti dovrebbero essere avvisati direttamente nella chat quando le conversazioni si spostano in aree in cui l'IA è notoriamente inaffidabile.
Quanto più le persone si fidano dell'intelligenza artificiale, tanto più è importante che il mercato sia aperto e competitivo.
Inoltre, la monopolizzazione dell'IA deve essere frenata. Immaginate se Internet fosse un'offerta privata di due o tre provider invece di una piattaforma aperta. Il loro potere sarebbe spaventoso. Lo stesso potrebbe accadere con l'IA. Più le persone si fidano dell'IA, più è importante che il mercato dell'IA sia caratterizzato da apertura e concorrenza.
Quando si tratta di prodotti software, esiste un modo comprovato per combattere i monopoli: il codice open source, ovvero le applicazioni open source. Anche nell'intelligenza artificiale, questo è un modo per le aziende più piccole di basarsi sul lavoro altrui e creare i propri prodotti . Attualmente, aziende come Meta e Deepseek stanno guidando questo sviluppo nell'intelligenza artificiale. Ma i loro piani futuri sono incerti.
Le aziende e i ricercatori che lavorano sull'intelligenza artificiale aperta meritano quindi di essere sostenuti, come progetti come il modello linguistico svizzero attualmente in fase di sviluppo da parte dei due Politecnici Federali (ETH) . Inoltre, i committenti pubblici dovrebbero optare per prodotti di intelligenza artificiale open source di qualità comparabile.
Nessun essere umano ha il diritto di obbedire, nemmeno l’intelligenza artificialeLa terza leva è ogni individuo. Sebbene tutti dovrebbero provare l'IA e, se utile, utilizzarla nella vita quotidiana, un utilizzo consapevole include la conoscenza di come i fornitori di IA utilizzano i dati degli utenti e se i loro termini e condizioni ne consentono la cancellazione.
Chiunque esternalizzi il lavoro all'IA dovrebbe essere sempre consapevole delle decisioni che sta delegando. C'è differenza tra chiedere all'IA una traduzione o suggerimenti per migliorare il testo e chiederle di scriverlo da zero. Con quest'ultima opzione, si affida tutta la creatività e il pensiero – essenzialmente tutto il potere – a un'azienda tecnologica.
Se diventasse prassi comune consultare innanzitutto l'intelligenza artificiale per ogni cosa, ci troveremmo in una società in cui tutti preferirebbero diffondere uniformità piuttosto che i propri pensieri e le proprie prospettive sul mondo.
L'intelligenza artificiale può essere uno strumento utile. Ma affinché possiamo usarla invece di diventare passivi, aziende, società e individui devono impegnarsi per prevenire la monopolizzazione, rendere l'intelligenza artificiale più trasparente e usarla in modo più critico.
Anche Hannah Arendt formulò un pensiero calzante sulla responsabilità di ogni individuo: "Nessun essere umano ha il diritto di obbedire". Nemmeno una macchina, si potrebbe aggiungere oggi.
nzz.ch