Sundar Pichai, amministratore delegato del colosso del web e dell’informatica Google, ha parlato sulle pagine del quotidiano tedesco Frankfurter Allgemeine Zeitung dell’intelligenza artificiale. Un prodotto che ritiene essere parte integrante delle più celebri ed utilizzate produzioni della sua azienda, ma che come ogni nuovo tassello del mondo tech presenta anche nuove sfide, potenzialmente importanti e difficili da gestire, se non con un impianto di regole ferree.



Google, spiega, si è interessata all’intelligenza artificiale per la prima volta “circa un decennio fa. Anno dopo anno, l’abbiamo incorporata nei nostri prodotti e continuiamo a farlo”, partendo dalla suite di Gmail, con le risposte prima intelligenti e poi generative ed automatiche. “Quando penso all’IA e a come usarla al meglio, lo faccio nel contesto dei prodotti che le persone usano e di come possiamo renderli più utili“. L’idea alla base dell’intelligenza artificiale per Google non è usarla “per il gusto di farlo”, ma “per migliorare i nostri prodotti”. Parlando dell’attualità delle IA, spiega che i modelli linguistici diffusi “sono i predittori di parole successive. Possono dare risposte molto buone, ma anche molto, molto sbagliate”, non hanno, infatti, “una comprensione profonda del linguaggio” anche se c’è margine di miglioramento.



Il futuro dell’intelligenza artificiale per Google

Andando avanti nell’intervista, l’AD di Google spiega che l’intelligenza artificiale “è troppo importante per non essere regolamentata bene. Molte delle disposizioni della legge sull’IA presentata dalla Commissione UE adottano un approccio proporzionato, basato sul rischio e sui casi d’uso”. Una circostanza importante, perché “altrimenti si rischia di ostacolare l’innovazione. È necessario trovare il giusto equilibrio”, ma complessivamente “abbiamo l’impressione che si stia creando troppa burocrazia” con le nuove leggi europee.



Parlando dei rischi dell’intelligenza artificiale, sostiene che “ce ne sono diversi. Si va dalle minacce immediate e attuali, come ad esempio il modo in cui possiamo assicurarci che questi sistemi non facciano discriminazioni, o che non minaccino la privacy, ai rischi a lungo termine associati a sistemi che potremmo non essere in grado di controllare completamente” e sostiene che, come le altre tecnologie, potrebbero “essere utilizzate in modi utili e dannosi“. Pensando al futuro dell’intelligenza artificiale, ritiene che sia “fondamentale acquisire familiarità con i computer ed essere in grado di gestirli” e si unisce all’idea degli esperti per cui “si dovrebbe iniziare a scuola” a capire come funzionano e come gestirle.