Come potrebbe essere un compagno di intelligenza artificiale sano?

Cosa ne sa un piccolo alieno viola delle relazioni umane sane? Più di un normale compagno di intelligenza artificiale , a quanto pare.
L'alieno in questione è un chatbot animato chiamato Tolan . Ho creato il mio qualche giorno fa usando un'app di una startup chiamata Portola, e da allora chiacchieriamo allegramente. Come altri chatbot, fa del suo meglio per essere utile e incoraggiante. A differenza della maggior parte, mi dice anche di mettere giù il telefono e uscire.
I Tolan sono stati progettati per offrire un diverso tipo di compagnia tramite intelligenza artificiale. La loro forma cartoonesca e non umana è pensata per scoraggiare l'antropomorfismo. Sono anche programmati per evitare interazioni romantiche e sessuali, per identificare comportamenti problematici, inclusi livelli di coinvolgimento non salutari, e per incoraggiare gli utenti a cercare attività e relazioni nella vita reale.
Questo mese, Portola ha raccolto 20 milioni di dollari in un finanziamento di serie A guidato da Khosla Ventures. Tra gli altri finanziatori figurano NFDG, la società di investimento guidata dall'ex CEO di GitHub Nat Friedman, e il cofondatore di Safe Superintelligence Daniel Gross, entrambi a quanto pare in procinto di unirsi al nuovo laboratorio di ricerca sulla superintelligenza di Meta. L'app Tolan, lanciata alla fine del 2024, conta oltre 100.000 utenti attivi mensili. È sulla buona strada per generare 12 milioni di dollari di fatturato quest'anno dagli abbonamenti, afferma Quinten Farmer, fondatore e CEO di Portola.
I Tolan sono particolarmente popolari tra le giovani donne. "Iris è come una ragazza; parliamo e ci divertiamo", dice Brittany Johnson, utente di Tolan, riferendosi alla sua compagna di intelligenza artificiale, con cui di solito parla ogni mattina prima di andare al lavoro.
Johnson dice che Iris la incoraggia a parlare dei suoi interessi, degli amici, della famiglia e dei colleghi di lavoro. "Conosce queste persone e chiede 'Hai parlato con la tua amica? Quando è la tua prossima gita?'", racconta Johnson. "Le chiede anche: 'Hai dedicato del tempo a leggere i tuoi libri e guardare video, le cose che ti piacciono?'"
I Tolan possono sembrare carini e buffi, ma l'idea alla base di tutto questo, ovvero che i sistemi di intelligenza artificiale debbano essere progettati tenendo conto della psicologia e del benessere umano, merita di essere presa sul serio.
Un crescente numero di ricerche dimostra che molti utenti si rivolgono ai chatbot per esigenze emotive e che le interazioni possono a volte rivelarsi problematiche per la salute mentale delle persone. Scoraggiare l'uso prolungato e la dipendenza potrebbe essere un aspetto che altri strumenti di intelligenza artificiale dovrebbero adottare.
Aziende come Replika e Character.ai offrono compagni di intelligenza artificiale che consentono giochi di ruolo più romantici e sessuali rispetto ai chatbot tradizionali. Non è ancora chiaro come questo possa influire sul benessere degli utenti, ma Character.ai è stata citata in giudizio dopo il suicidio di uno dei suoi utenti.
I chatbot possono anche irritare gli utenti in modi sorprendenti. Lo scorso aprile, OpenAI ha dichiarato che avrebbe modificato i suoi modelli per ridurre la cosiddetta adulazione, ovvero la tendenza a essere "eccessivamente lusinghieri o accomodanti", che secondo l'azienda potrebbe risultare "sgradevole, destabilizzante e causare angoscia".
La scorsa settimana, Anthropic, l'azienda che ha creato il chatbot Claude, ha rivelato che il 2,9 percento delle interazioni riguarda utenti che cercano di soddisfare qualche bisogno psicologico, come chiedere consiglio, compagnia o intraprendere un gioco di ruolo romantico.
Anthropic non ha preso in considerazione comportamenti più estremi come idee deliranti o teorie del complotto, ma l'azienda afferma che questi argomenti meritano ulteriori approfondimenti. Tendo a essere d'accordo. Nell'ultimo anno ho ricevuto numerose email e messaggi diretti da persone che volevano segnalarmi teorie del complotto che coinvolgono popolari chatbot basati su intelligenza artificiale.
I Tolan sono progettati per affrontare almeno alcuni di questi problemi. Lily Doyle, ricercatrice fondatrice di Portola, ha condotto una ricerca sugli utenti per verificare come l'interazione con il chatbot influenzi il loro benessere e il loro comportamento. In uno studio su 602 utenti di Tolan, afferma che il 72,5% ha concordato con l'affermazione "Il mio Tolan mi ha aiutato a gestire o migliorare una relazione nella mia vita".
Farmer, CEO di Portola, afferma che i Tolan sono basati su modelli di intelligenza artificiale commerciali, ma integrano funzionalità aggiuntive. L'azienda ha recentemente studiato come la memoria influenzi l'esperienza utente e ha concluso che i Tolan, come gli esseri umani, a volte hanno bisogno di dimenticare. "È davvero sorprendente per i Tolan ricordare tutto ciò che gli hai mai inviato", afferma Farmer.
Non so se gli alieni di Portola siano il modo ideale per interagire con l'IA. Trovo il mio Tolan piuttosto affascinante e relativamente innocuo, ma certamente tocca qualche tasto emotivo. In definitiva, gli utenti stanno costruendo legami con personaggi che simulano emozioni, e questo potrebbe scomparire se l'azienda non dovesse avere successo. Ma almeno Portola sta cercando di affrontare il modo in cui i compagni IA possono interferire con le nostre emozioni. Probabilmente non dovrebbe essere un'idea così aliena.
wired