Parole sbagliate portano a conclusioni sbagliate. Anche quando si parla di IA. Comincia così la nuova rubrica sull’uso consapevole del digitale.
Soffermarsi sul senso delle parole, averne cura, è sempre una buona idea. È indispensabile per orientarci in un mondo che evolve di continuo. Prendiamo per esempio l’espressione «avere allucinazioni». Di solito ci ricorda persone che non stanno bene o che usano sostanze che fanno vedere loro cose che non esistono. Per tutt’altre ragioni, proprio questo termine, il verbo inglese hallucinate, è stato invece scelto a novembre dal prestigioso Cambridge Dictionary come parola dell’anno 2023. Non si tratta di un rinnovato interesse verso la salute mentale. Gli «abbagli» che gli esperti di Cambridge hanno posto al centro dell’attenzione non li abbiamo avuti noi umani ma le macchine, gli algoritmi che regolano la cosiddetta intelligenza artificiale. In buona sostanza, con la parola «allucinazioni» nel 2023 sono state denominate le risposte sbagliate che i software danno a chi li adopera. Le si poteva definire falsità, anomalie o cantonate e invece i programmatori hanno deciso di usare una metafora che richiamasse le «visioni distorte» della mente umana.
E qui emerge un grande problema: è corretto applicare il termine «allucinazioni» alle macchine, ovvero a ciò che umano non è? A cosa può portarci l’uso di un linguaggio inappropriato? La trappola in cui rischiamo di cadere è quella di antropomorfizzare (cioè dare forme umane) la tecnologia e circondare di misticismo e superstizione quanto ci sta capitando. Dovremmo usare con prudenza lo stesso concetto di «intelligenza artificiale». Siamo costretti ad adoperarlo perché è presente nel nostro immaginario, ma facciamolo con accortezza, magari scegliendo l’acronimo IA e ricordando che l’intelligenza umana è legata alla comprensione, mentre le operazioni algoritmiche sono solo numeriche. Le macchine usano il linguaggio in modo imitativo, non hanno né corpo, né sentimenti, dobbiamo averlo chiaro.
L’anno che ci lasciamo alle spalle è stato caratterizzato dal lancio di un’ampia gamma di prodotti di IA generativa, capace cioè di «generare» contenuti linguistici, musicali, immagini. La più nota di queste applicazioni è ChatGPT. Sono scesi poi in campo governi e istituzioni che puntano a mettere un po’ d’ordine su temi come il rispetto della privacy, del diritto d’autore, della trasparenza, della lotta alla disinformazione. Ma è la riflessione culturale ciò che in questo momento è indispensabile. Ne ha colto la necessità papa Francesco, mettendo la IA al centro della Giornata Mondiale delle Comunicazioni Sociali del 2024. Il Papa ha posto due questioni antropologiche fondamentali. Il pensiero umano non può essere ridotto a puro calcolo, a merce, i temi legati alla qualità dell’esistenza rischiano di venire demoliti da una lettura solo quantitativa della vita sociale. E poi c’è il rischio legato alla crescita delle disuguaglianze, che può minacciare ulteriormente la pace fra i popoli.
Non servono a nulla apocalittici catastrofismi o entusiasmi ingenui. Da almeno tre decenni viviamo immersi dentro la «rivoluzione digitale» che rimodella di continuo le nostre vite. Pensare di contrapporsi all’innovazione ci conduce in un vicolo cieco. Va alimentato piuttosto uno sguardo critico perché è il destino di ciò che è umano a essere messo in discussione. Non c’è l’ineluttabile davanti a noi: molto dipende dalle nostre risposte. È questa la sfida per l’anno che verrà.