Il tuo amico ti ha fatto una domanda. Non copiare e incollare la risposta da un chatbot

Negli anni 2010, un sito web chiamato Let Me Google That For You ha ottenuto una notevole popolarità grazie a un unico scopo: l'ironia.
Il sito consente di generare un link personalizzato da inviare a chiunque ti ponga una domanda. Quando l'utente clicca sul link, viene riprodotta un'animazione del processo di digitazione di una domanda su Google. L'idea è quella di mostrare alla persona che pone la domanda quanto sarebbe stato facile per lei cercare la risposta da sola.
È un insulto, in pratica. È divertente e maleducato.
Ora, non c'è niente di male in un po' di maleducazione nel contesto giusto. Se una persona apertamente ostile ti fa perdere tempo sui social media facendoti domande facilmente comprensibili, penso che dovresti concederti un po' di aggressività passiva (come premio).
In contesti più personali, tuttavia, usare "Let Me Google That For You" dimostra chiaramente che non hai rispetto per la persona a cui hai fornito il link e che la sua domanda è una perdita di tempo. Se qualcuno del tuo ambiente lavorativo o della tua vita privata ti pone una domanda, è perché desidera un tuo contributo specifico , quindi è meglio fornire semplicemente la risposta, idealmente con un contesto che solo tu puoi fornire, piuttosto che inviare un link a una pagina dei risultati di ricerca di Google.
Ora, essendo il 2025, le persone dietro Let Me Google That For You offrono anche Let Me ChatGPT That For You , che funziona esattamente come pensi. E la sua esistenza indica qualcosa di nuovo: quanto sia maleducato, in risposta a una domanda, rispondere con un output di intelligenza artificiale, soprattutto in un contesto più professionale.
Perdere tempoDire a qualcuno di cercare qualcosa su Google può essere divertente e appagante, ma non è utile . Metterei nella stessa categoria anche il copia-incolla o lo screenshot di una conversazione con ChatGPT , Claude o qualsiasi altro agente di intelligenza artificiale : non utile e un po' maleducato.
Lo sviluppatore Alex Martsinovich ha accennato a questo argomento qualche tempo fa in un post sul blog in cui affermava che è maleducato mostrare l'output dell'IA alle persone : "Siate educati e non inviate messaggi di testo creati dall'IA agli esseri umani", scrive. "La mia opinione sul galateo dell'IA è che l'output dell'IA può essere trasmesso solo se adottato come proprio o se c'è il consenso esplicito della parte ricevente". Penso che questo sia un ottimo quadro di riferimento per il galateo dell'IA.
Se qualcuno ti pone una domanda, quando avrebbe potuto chiederla alla macchina, è perché voleva conoscere il tuo punto di vista. Internet esiste, almeno in teoria, per permettere agli esseri umani di connettersi tra loro e di trarre beneficio dalle reciproche conoscenze. Rispondere a una domanda con l'output dell'IA ignora questa dinamica, soprattutto se non si specifica esplicitamente che si sta facendo proprio questo.
Ripeto: ci sono situazioni in cui potresti voler essere scortese. Questo non significa che lo sia meno.
Nessuna allucinazioneMa c'è un altro motivo per cui condividere i risultati dell'IA è un po' maleducato: potrebbe essere del tutto sbagliato .
Sebbene i modelli migliorino costantemente, continuano a commettere errori (a volte esilaranti). Condividere l'output di un modello linguistico di grandi dimensioni nelle conversazioni, senza verificarne personalmente l'accuratezza, significa potenzialmente condividere informazioni errate.
Ancora peggio, poiché non hai dichiarato che stavi condividendo i risultati dell'IA, stai dando alla persona con cui stai condividendo i risultati l'impressione di poter garantire per tali informazioni.
Non c'è niente di sbagliato nell'usare gli strumentiTutto questo non significa che l'intelligenza artificiale non sia utile o che non si possa usare per rispondere alle domande che le persone si pongono. Ma, come nel caso di Google, usare l'intelligenza artificiale per rispondere alle domande non è la fine del lavoro: è l'inizio.
Quando uso l'intelligenza artificiale come strumento di ricerca, lo faccio per trovare fonti primarie. Chiedo una panoramica, certo, ma chiedo anche articoli e studi da leggere su un argomento. Poi leggo personalmente quelle fonti per valutare se la sintesi dell'IA sull'argomento sia accurata o meno. Probabilmente contatterò anche alcune delle persone coinvolte.
Io, come giornalista, considero questo un atto di due diligence. Se un redattore mi pone una domanda su un'affermazione contenuta in un articolo, non mi limito a chiedere a ChatGPT. Vado a fondo nelle fonti primarie, o quanto più possibile vicine, e le indico. Sono sicuro che la vostra professione richieda un livello di due diligence simile.
L'intelligenza artificiale può rappresentare un punto di partenza straordinario per la ricerca, ma puoi offrire molto più di un semplice punto di partenza. Utilizza questi strumenti per dimostrare cosa sai fare, non come un'alternativa al fare le cose.
wired




