Innegabile è l’ampia portata che sta assumendo ChatGpt in ambito lavorativo. Sono molti gli utenti, privati e aziende, che ne fanno uso. La privacy resta però comunque una nota dolente per il chatbot di OpenAi. Ricordiamo infatti quando a marzo era inaccessibile in Italia per questioni di sicurezza sul trattamento dei dati personali. E già allora l’attenzione era stata posta sul problema dell’utilizzo della piattaforma per colloqui, questioni lavorative e conversazioni personali. Insomma, molto delle nostre vite viene condiviso e non si conosce il limite entro cui queste informazioni possano essere al sicuro. Su questa tematica si è esposto di recente sul The Guardian anche l’esperto di Intelligenza Artificiale Mike Wooldridge, professore all’Università di Oxford.
Lo stesso ha dichiarato che condividere informazioni private o avere conversazioni cuore a cuore con un chatbot sarebbe “estremamente imprudente“, poiché qualsiasi cosa rivelata contribuisce a formare le versioni future. E se, riflettendoci, si dovesse ritenere di aver rivelato troppo a ChatGPT, le rettifiche non sono previste. Secondo Wooldridge, dato il funzionamento dei modelli di intelligenza artificiale, è quasi impossibile riottenere i dati una volta che sono entrati nel sistema.
CHATGPT SECONDO WOOLRIDGE: “LA TECNOLOGIA TI DICE CIÒ CHE VUOI SENTIRE”
Woolridge ha proseguito la sua disamina su ChatGpt spiegando come l’intelligenza artificiale non potrà mai pareggiare l’intelligenza umana come alcuni vorrebbero far credere. Gli utenti, secondo l’esperto, non dovrebbero neanche aspettarsi una risposta equilibrata, poiché la tecnologia “ti dice ciò che vuoi sentire“. Wooldridge sta esplorando proprio il tema dell’IA nelle conferenze di Natale dell’Istituto Reale di quest’anno. Esaminerà le “grandi domande che si pongono nella ricerca sull’IA e svelerà i miti su come funziona davvero questa tecnologia rivoluzionaria”. Come una macchina può imparare a tradurre da una lingua all’altra e come funzionano i chatbot saranno quindi tra gli argomenti che discuterà.
Wooldridge ha detto al Daily Mail che, anche se gli esseri umani sono programmati per cercare la coscienza nell’IA, è un tentativo futile. L’IA, ha detto, “non ha empatia. Non ha simpatia. Questo è assolutamente ciò che la tecnologia non sta facendo e, cosa cruciale, non ha mai sperimentato nulla“, ha aggiunto l’esperto. “La tecnologia è fondamentalmente progettata per cercare di dirti ciò che vuoi sentire, è letteralmente tutto ciò che sta facendo“.