Se il 2024 ci siamo ubriacati di intelligenza artificiale, il 2025 potrebbe essere l’anno del dopo-sbronza. Forse pecco di eccessivo pessimismo, ma credo si inizieranno a tirare le somme e capire se il punto in cui siamo è quello di arrivo (quindi focalizzazione sulle applicazioni pratiche) oppure se vorremo spostare la linea del traguardo ancora più lontano.
Lo scorso agosto la prestigiosa società di consulenza Gartner aveva stimato che nel 2025 almeno un quarto dei progetti aziendali sull’Intelligenza artificiale saranno abbandonati per varie ragioni. Ancora più dei costi sembrano pesare la poca chiarezza del ritorno di valore e la qualità bassa dei dati. A proposito della prima si segnala una recente ricerca di Jabra, azienda specializzata nelle soluzioni audio e video professionali, che ha coinvolto 1.800 top manager di sei Paesi diversi. Il risultato è stato che l’82% dei decision maker non ha chiaro come l’IA possa migliorare l’efficienza sul posto di lavoro.
A fare il paio con l’idea della scarsa qualità dei dati è arrivata a dicembre la dichiarazione di Ilya Sutskever, una delle menti dietro ChatGPT, secondo cui i dati che fanno andare avanti le IA sono al loro picco e “non ce ne saranno più”. Si punta allora ad algoritmi meno avidi di informazioni o a introdurre nell’addestramento quelle prodotte dalle stesse IA (soluzione che trovo piuttosto inquietante). Forse che l’anno prossimo dovremmo fare i conti con il Principio di Pareto?
Il geniale economista e sociologo afferma che il 20% delle cause produce l’80% degli effetti. Nella situazione di cui sopra potremmo essere arrivati proprio a quell’80% di risultati; il problema è che a questo punto dovremmo investire l’80% delle risorse per arrivare al massimo delle potenzialità dell’intelligenza artificiale. La domanda diventa allora: ne vale la pena?
Ipotizzo che in non pochi se la porranno. Come un numero significativo di persone molto probabilmente solleverà la questione della sicurezza degli algoritmi, purtroppo tanto potenti quanto fragili, e il tema del dual use, che ha messo nelle mani della criminalità cyber un potente strumento per proseguire spedita sulla strada della sua industrializzazione estrema.
Si prospettano dodici mesi di domande, alcune scontate, altre meno, ma in ogni caso dovremo trovare altrettante risposte. Tuttavia, mi sento di fare un’affermazione, con il beneficio del dubbio che si deve riservare a qualsiasi cosa in cui il protagonista sia l’essere umano. L’umanità ha sempre iniziato a usare le sue tecnologie senza avere chiari i rischi, salvo poi scoprirli e fare improvvisi e perniciosi dietro-front. Se per caso dovesse accadere qualcosa di eclatante e particolarmente grave, temo ricadremmo nell’errore di buttare via il bambino con l’acqua sporca. Qualcuno si ricorda come andò a finire nel 1986 la vicenda dell’energia nucleare?
— — — —
Abbiamo bisogno del tuo contributo per continuare a fornirti una informazione di qualità e indipendente.