Daniela Tafani, docente di Filosofia politica all’Università di Pisa, si occupa di intelligenza artificiale “perché i sistemi sono artefatti, prodotti del lavoro umano. E possono avere proprietà politiche. Danno e tolgono potere e possibilità ad alcune persone, per conto di altre persone”. Secondo la professoressa, queste macchine “non ragionano affatto, sono piuttosto statistiche automatizzate. Stefano Quintarelli propone di chiamarli approcci sistematici agli algoritmi di apprendimento e alle inferenze delle macchine”. Oggi i sistemi “eseguono uno o pochi compiti specifici. Funzionano per i compiti particolari per i quali sono stati programmati. Ad una condizione: che ciò che incontrano non sia troppo diverso da quello che hanno sperimentato in precedenza”.
Secondo la docente di filosofia “non esiste invece alcun sistema di intelligenza artificiale “generale o forte”, in grado di eseguire, in modo integrato, le azioni che gli esseri umani compiono invece facilmente, senza nemmeno farci caso. Nessuno, oggi, ha idea di come realizzare l’intelligenza artificiale in senso proprio. Chi la annuncia come prossima, lo fa per ragioni di marketing. E anche per esercitare un potere e sfuggire alle proprie responsabilità. Annunci a noi familiari solo perché abbiamo visto qualche film o letto qualche romanzo di fantascienza”.
Tafani: “Intelligenza artificiale intercetta grandi flussi di dati”
Secondo Daniela Tafani “l’antropomorfizzazione delle macchine è una tendenza spontanea, ma è anche coltivata e indotta da una narrazione che le grandi aziende tecnologiche finanziano, per perseguire obiettivi aziendali: se un prodotto viene presentato come un essere animato, con prestazioni e difetti simili a quelli degli esseri umani, chi lo smercia può sfuggire alle sue responsabilità. C’è addirittura chi sostiene che per i danni prodotti, ad esempio, dalle auto “a guida autonoma”, dovremmo prevedere una “responsabilità distribuita” tra i produttori e le vittime” spiega a La Verità. Il modello di business alla base è la sorveglianza: “La costruzione dei sistemi di apprendimento automatico richiede potenti infrastrutture di calcolo ed enormi quantità di dati nella disponibilità dei soli giganti della tecnologia. Grazie ad un modello di business fondato sulla sorveglianza, sono già attrezzate per intercettare grandi flussi di dati e metadati individuali”.
Tali sistemi “non sono “istruiti” dal programmatore, ma sono calibrati statisticamente per partire dai dati. Nell’esempio di prima, partono da milioni di immagini di cani e di gatti, etichettate come tali da esseri umani. È all’intelligenza artificiale sub-simbolica che si devono i più recenti progressi nello svolgimento di compiti quali la traduzione automatica, il riconoscimento facciale, la ricerca per immagini o l’identificazione di contenuti musicali”. Tra i sistemi “fuorilegge” Tafani include l’uso di intelligenza artificiale in chiave predittiva: “Si utilizza l’apprendimento automatico per prevedere il futuro di singoli individui e prendere decisioni conseguenti: gli studenti vengono valutati sulla base del voto che si prevede riceverebbero se sostenessero l’esame. I candidati a un posto di lavoro vengono assunti o scartati sulla base di una previsione della loro futura produttività. La polizia si affida a statistiche automatizzate per prevedere chi commetterà un crimine o dove un crimine verrà commesso e agire di conseguenza”.