C’è un punto che continua a sfuggire nel dibattito pubblico sull’uso delle intelligenze artificiali: non riguarda la qualità delle risposte, ma la struttura delle alternative. Il problema non è se le persone chiedano troppo alle AI. Il problema è perché lo fanno.
Nel corso del 2025 questo scarto è diventato evidente. Non perché i modelli siano improvvisamente diventati infallibili, ma perché il contesto in cui operano è cambiato più velocemente delle categorie con cui lo giudichiamo. L’uso “sensibile” delle AI — medico, legale, psicologico, educativo — non nasce da un entusiasmo ingenuo. Nasce da una scarsità strutturale che precede l’AI e che l’AI rende visibile.
Dire “vai dal medico”, “vai dall’avvocato”, “vai dallo psicologo” presuppone che quell’accesso sia disponibile. Economicamente, logisticamente, temporalmente. Ma per una parte della popolazione questa condizione non è data. L’alternativa reale non è tra l’esperto umano e l’algoritmo. È tra l’algoritmo e il vuoto. Questa asimmetria è il punto di partenza che spesso manca nelle critiche più moralistiche.
Nel campo medico il meccanismo è quasi didattico. Anche quando il denaro c’è, l’accesso è mediato da attese, code, tempi compressi. Cinque minuti di ascolto, quando va bene. Prima dell’AI l’autodiagnosi avveniva comunque, ma in modo più caotico: ricerche frammentate, forum contraddittori, informazioni non contestualizzate. L’AI non ha creato il problema. Ha solo reso più ordinata una pratica che già esisteva.
Qui entra in gioco un elemento spesso sottovalutato: il miglioramento incrementale degli strumenti.
Funzionalità come la ricerca profonda, che separa il momento di acquisizione delle fonti da quello della risposta, hanno ridotto drasticamente l’errore grossolano. Non eliminano l’incertezza, ma spostano la soglia di utilità. In molti casi l’informazione ottenuta non sostituisce la visita: la rende possibile. O almeno la rende sensata.
Questo vale anche in ambiti contigui come nutrizione e fitness, dove l’uso multimodale — immagini, dati corporei, contesto anagrafico — permette una valutazione preliminare che prima richiedeva tempo e denaro. Non è una diagnosi. È una riduzione dell’opacità. E spesso è sufficiente a orientare un comportamento.
Il discorso si estende naturalmente alla salute mentale. Qui la reazione è ancora più istintiva: l’idea che un sistema artificiale possa “tenere a galla” una persona viene percepita come disturbante. Ma anche in questo caso il confronto corretto non è con la terapia ideale. È con l’assenza totale di supporto. Per chi non può permettersi uno psicologo, o non ne ha uno disponibile nei momenti critici, l’AI diventa una presenza continua. Imperfetta, certo. Ma continua.
Lo stesso schema si ripete nell’educazione e nel diritto. Studenti con disturbi specifici dell’apprendimento trovano nelle AI uno strumento di adattamento che il sistema scolastico fatica a fornire. Cittadini senza consulenti legali o fiscali usano questi strumenti per capire se un problema esiste davvero, prima di investirci risorse. In molti casi l’AI non genera azione, ma la evita. E anche questa è una funzione sociale.
Il nodo, allora, non è vietare o scoraggiare questi usi. È renderli leggibili. Capire che un modello risponde entro certi parametri, che alcune modalità sono più affidabili di altre, che l’output va interpretato. Ma questo vale per qualsiasi media complesso. Nessuno propone di abolire Internet perché esistono informazioni false. Si insegna — o si dovrebbe insegnare — a navigarlo.
Il rischio vero non è l’uso improprio delle AI. È una società che procede a due velocità: una, veloce e assistita, per chi può permettersi accesso umano qualificato; l’altra, rallentata, per chi deve arrangiarsi. In questo scenario l’AI non è la soluzione definitiva. È un correttivo. Un tampone sistemico. Spesso l’unico disponibile.
Ignorare questa funzione significa non vedere il sistema per quello che è diventato. E giudicare gli utenti non per le loro scelte, ma per le opzioni che non hanno.
Commenti
Posta un commento