Quando l’intelligenza artificiale è utile e quando no: la guida pratica
L’intelligenza artificiale consente di fare meglio un gran numero di attività e compiti. Ma ci sono anche dei casi in cui è meglio utilizzarla con cautela.

L’intelligenza artificiale consente di fare meglio un gran numero di attività e compiti. Ma ci sono anche dei casi in cui è meglio utilizzarla con cautela.
L’intelligenza artificiale ci è sempre d’aiuto? Alla fine del 2024, sulla MIT Technology Review è apparso un articolo dal titolo The biggest AI flops of 2024, che elenca sette casi in cui tool e chatbot AI si sono rivelati inutili, se non controproducenti.
Sono situazioni che chi sperimenta e utilizza l’AI sul lavoro o nella vita quotidiana avrà probabilmente vissuto almeno una volta. A fronte di alcuni flop e qualche problema di affidabilità, però, è innegabile che l’AI consenta di svolgere in maniera più veloce e più efficiente una grande quantità di attività.
La domanda iniziale allora può diventare: esiste un modo per capire quando affidarsi all’intelligenza artificiale per svolgere un compito, o quando invece è il caso di fare affidamento solo alle nostre capacità umane?
In questo articolo proviamo a definire alcune regole di base che dovrebbero sempre guidare l’utilizzo dell’AI, affidandoci anche alla riflessione di un esperto, Ethan Mollick, che ha stilato un elenco di casi in cui l’AI è effettivamente utile e di situazioni in cui è meglio essere (molto) scettici riguardo alle soluzioni proposte dalle intelligenze artificiali.
Microsoft Copilot, Claude e altri chatbot di AI generativa avvisano i propri utenti che “il contenuto generato dall’intelligenza artificiale potrebbe non essere corretto”. Dovrebbe bastare questa avvertenza per capire come, interagendo con queste tecnologie, occorra mantenere un atteggiamento critico ed effettuare sempre uno o più controlli sugli output prodotti.
Le modalità di funzionamento delle attuali tecnologie di AI ne limitano l’efficacia in alcune situazioni. In generale, compiti che richiedono creatività originale, situazioni ad alto rischio che comportano decisioni etiche e morali, contesti complessi in cui è necessario cogliere sfumature o significati impliciti sono tutti casi in cui è bene usare con cautela l’intelligenza artificiale.
La stessa avvertenza vale per situazioni in cui servono una competenza specialistica e una precisione assoluta.
I motivi sono diversi. In primis, nonostante i progressi, l’AI tende a riprodurre pattern appresi piuttosto che generare idee veramente originali. È la sua natura probabilistica.
Inoltre, l’AI manca di una vera comprensione dei valori umani e del contesto culturale. L’AI, in sé, non ha un’etica: è l’essere umano che dovrebbe utilizzare eticamente questo strumento. E quindi affidarsi esclusivamente all’AI potrebbe portare a risultati problematici quando si tratta di decisioni con implicazioni etiche significative.
I progressi e i risultati dell’intelligenza artificiale sono sbalorditivi in tanti ambiti diversi.
Nell’elaborazione di enormi dataset, l’AI è in grado di identificare rapidamente pattern che potrebbero sfuggire all’occhio umano.
Anche quando si tratta di eseguire attività standardizzate e ripetitive l’AI eccelle e presenta una vantaggio competitivo non indifferente: non si stanca, anche se l’utilizzo dell’AI comporta sempre un dispendio di energia di cui tener conto, in un’ottica di utilizzo sostenibile.
La capacità di cercare e aggregare informazioni da numerose fonti rende inoltre l’AI un potente strumento di supporto alla ricerca. E ancora, l’AI può migliorare testi esistenti, correggere errori e suggerire ottimizzazioni stilistiche, fungendo come una sorta di editor a disposizione di chi scrive.
Un’utile lista per entrare più nello specifico nelle situazioni in cui l’intelligenza artificiale può davvero fare la differenza, è quella proposta da Ethan Mollick in un suo articolo su Substack. Mollick è co-direttore dell’AI generative Lab alla Wharton University, dove è anche professore associato.
Diventato famoso per i suoi studi sugli effetti dell’intelligenza artificiale sul lavoro, sull’imprenditorialità e sull’educazione, è autore del libro Co-Intelligence, che esplora come collaborare con l’AI. Per i suoi studi è stato nominato da Time Magazine come una delle persone più influenti nel campo dell’intelligenza artificiale.
Il suo elenco va letto tenendo conto di due premesse che condividiamo: non prenderlo troppo seriamente, se non come fonte di ispirazione. E ricordarsi che, man mano che le capacità dell’AI si evolveranno, questo elenco dovrà necessariamente essere messo in discussione e ripensato. Vediamo allora le situazioni in cui l’AI è molto d’aiuto.
Il numero di idee che generi determina spesso la qualità della migliore idea disponibile. Durante un brainstorming, la maggior parte delle persone si ferma dopo poche idee perché si stanca. L’IA invece può fornirne centinaia senza ripetizioni significative, ampliando enormemente il ventaglio di possibilità da considerare.
Può sembrare un paradosso, ma l’intelligenza artificiale risulta spesso più utile proprio nei campi in cui siamo già abbastanza esperti. In questi ambiti infatti un essere umano è in grado di capire con maggior cognizione di causa se l’output fornito dall’AI è valido e quale valore aggiunto apporta.
L’AI eccelle nel riassumere opere lunghe, a patto però che le conseguenze di eventuali errori siano limitate. È ottima per sintesi generali, meno per fact-checking. E infatti tra i flop indicati nel già citato articolo della MIT Technology Review, come vedremo nel dettaglio in seguito, ci sono anche esempi in cui riassunti sbagliati fatti dall’AI hanno alimentato disinformazione.
L’AI può essere preziosa per declinare contenuti complessi in formati accessibili per interlocutori e contesti diversi. Ad esempio, far comprendere una policy sviluppata nella propria organizzazione ai vari pubblici che la popolano.
L’AI è sicuramente utile per superare il famoso blocco dello scrittore o sindrome della pagina bianca. Basta chiedere, e le più famose interfacce di AI generativa sono in grado di offrire spunti su praticamente qualsiasi argomento.
Allo stesso tempo, l’AI riunisce anche le potenzialità di un editor e di un dizionario dei sinonimi e contrari: si può chiedere di riscrivere una frase in modi diversi, di suggerirti altre parole da utilizzare, di trovare soluzioni a cui non avevi pensato.
Gli imprenditori, specialmente nel settore delle startup, sono spesso dei tuttofare. Lo sa bene Mollick, che oltre ad essere un accademico è anche un imprenditore che ha co-fondato una startup. In questi casi l’AI può fungere da co-fondatore virtuale, offrendo mentorship e colmando le lacune su quegli elementi su cui gli imprenditori non hanno una grande padronanza: dalla revisione di un contratto legale al supporto per un sito web o per scrivere un comunicato stampa, dalla redazione di una domanda di finanziamento alla gestione dei social media.
Questa categoria è in rapida espansione: sempre più compiti vengono svolti meglio dall’AI che dagli esseri umani, una tendenza destinata ad accelerare nei prossimi anni.
Alcuni esempi concreti includono l’analisi di grandi dataset, dove l’AI può identificare pattern e correlazioni invisibili all’occhio umano. Nel campo medico, alcuni sistemi di AI superano i radiologi nell’individuazione precoce di tumori nelle immagini diagnostiche.
Nell’ambito della traduzione, modelli come GPT-4 offrono risultati paragonabili a quelli di traduttori professionisti per molte combinazioni linguistiche comuni, soprattutto quando la precisione assoluta non è fondamentale.
Nei giochi strategici come gli scacchi o il Go, l’AI ha dimostrato capacità nettamente superiori ai campioni umani.
A parte i casi in cui l’AI viene utilizzata in modo illegale o poco etico, vi sono anche altre situazioni in cui, secondo Mollick, affidarsi all’intelligenza artificiale a questo stadio del suo sviluppo potrebbe essere addirittura controproducente.
L’apprendimento autentico è un processo che richiede impegno, anche fatica, per essere efficace. Apprendere una materia significa affrontare direttamente il materiale di studio: se ci si affida a un riassunto generato dall’AI, al di là dei limiti in questi compiti evidenziati più avanti, si rischia di non ottenere lo stesso risultato.
Anche in altri ambiti “lottare” con un concetto, dedicarci del tempo, è fondamentale per il successo. Delegare dunque all’AI la soluzione di un problema, ricorda Mollick, non è un modo efficace per imparare.
Uno dei problemi principali dell’AI è rappresentato dalle allucinazioni. Come chiarito in un altro articolo del nostro magazine, le allucinazioni sono situazioni in cui il sistema AI produce output che non sono basati sulla realtà, sulla verità oggettiva o non sono coerenti con i dati di input forniti nel prompt.
Secondo Will Douglas Heaven, senior editor della MIT Technology Review, le allucinazioni sono connaturate al meccanismo di funzionamento probabilistico dei sistemi di intelligenza artificiale generativa. “È tutta un’allucinazione, ma la chiamiamo così solo quando ci accorgiamo che è sbagliata. Il problema è che i modelli linguistici di grandi dimensioni sono così bravi in quello che fanno che quello che inventano sembra giusto la maggior parte delle volte. E questo rende difficile fidarsi di loro”.
Mollick aggiunge che allo stato attuale le allucinazioni possono essere attenuate, ma non eliminate, e che distinguerle è molto difficile. Ciò dovrebbe spingere le persone a non fidarsi delle AI quando occorre massima precisione in ciò che stanno facendo.
Se non si conoscono i modi, a volte sottili, in cui l’intelligenza artificiale fallisce, si potrebbe non comprendere che non ci sta aiutando o ci sta portando fuori strada. Non ci sono solo le allucinazioni, di cui abbiamo appena scritto.
In alcuni casi l’AI potrebbe infatti eccedere con l’adulazione e avallare un ragionamento umano sbagliato, oppure persuaderti che un suo ragionamento errato è corretto. Solo l’esperienza nell’utilizzo dell’AI, avverte Mollick, può aiutare le persone a riconoscere un potenziale fallimento dell’intelligenza artificiale.
Nel suo articolo Mollick evidenzia casi apparentemente semplici in cui l’AI mostra debolezze: ad esempio, non riesce a contare esattamente il numero di r nella parola strawberry (ma valo lo stesso anche per parole analoghe, come blackberry).
A parte queste situazioni curiose, vi sono in effetti degli ambiti, come la matematica e la logica, in cui l’intelligenza artificiale mostra alcuni limiti, come ricordato anche in un articolo del Post. La ragione risiede nella modalità probabilistica con cui l’AI è stata creata. Anche in questo caso, la rapida evoluzione delle capacità dell’AI potrebbe portare presto al superamento dei suoi limiti.
Per fornire esempi concreti della carenza dell’AI in alcune situazioni può essere utile ritornare sul già citato articolo The biggest AI flops of 2024, che approfondisce alcune situazioni in cui l’AI, più che risolvere problemi, ha fatto danni.
Lo sanno bene i manager di quelle aziende che si erano affidate a chatbot risultati poi inaffidabili: Air Canada, il cui chatbot ha consigliato a un cliente una politica di rimborso inesistente, causando un danno alla società, o il bot dell’azienda di consegne DPD che ha imprecato con i clienti.
Tra i flop citati dall’articolo rientrano anche i contenuti di bassa qualità e spesso indesiderati che hanno iniziato ad affollare (e infestare) il web e i social media. Si tratta del cosiddetto AI slop, definito così dall’Oxford University Press: “Arte, scrittura o altri contenuti generati dall’intelligenza artificiale, condivisi online in modo indiscriminato o intrusivo, caratterizzati da bassa qualità, inautenticità o inaccuratezza”.
Un altro esempio concreto in cui alcune intelligenze artificiali hanno fatto flop riguarda la capacità di riassumere testi.
Lo scorso maggio Google ha implementato una funzione che forniva, in cima ai risultati di ricerca, dei riassunti generati dall’intelligenza artificiale. Dal momento che i sistemi di AI non possono distinguere tra notizie fattuali corrette e post scherzosi, alcuni utenti hanno ricevuto suggerimenti strampalati come aggiungere colla sulla propria pizza o provare ad assaggiare piccoli sassi.
Problemi di sintesi sono emersi anche con una funzione degli iPhone che in teoria dovrebbe raggruppare delle notizie e farne un riassunto. Il malfunzionamento di questa feature ha generato dei titoli falsi, diffondendo e alimentando disinformazione in un momento storico in cui è già molto difficile distinguere ciò che è vero da ciò che è verosimile o falso.
Saper scegliere quando ricorrere all’intelligenza artificiale, spiega Mollick nella conclusione del suo articolo, è una forma di saggezza. Bisognerebbe accostarsi all’AI sempre con una buona dose di scetticismo, senza spegnere le proprie facoltà critiche e con un mix di conoscenza tecnica ed esperienza.
Questa saggezza digitale diventa ancora più importante in un contesto lavorativo, dove le decisioni possono avere conseguenze concrete sul business. L’approccio più efficace sembra essere quello ibrido: utilizzare l’AI come strumento di supporto, ma mantenere sempre un controllo umano sull’output finale. È l’essere umano che deve avere l’ultima parola, soprattutto quando si tratta di decisioni strategiche o che coinvolgono valori ed etica.
È interessante infine notare come le aree in cui l’AI eccelle e quelle in cui fallisce stanno evolvendo rapidamente. Ciò che oggi consideriamo un limite dell’intelligenza artificiale potrebbe essere superato nel giro di pochi mesi, rendendo necessario un aggiornamento continuo delle nostre conoscenze e del nostro approccio.
In definitiva, l’intelligenza artificiale non dovrebbe essere vista né come una panacea né come una minaccia, ma come uno strumento che, se utilizzato con consapevolezza, può amplificare le nostre capacità.