INTELLIGENZA ARTIFICIALE MODIFICA IL SUO CODICE: COS’E’ SUCCESSO?
Intelligenza artificiale di Ai Scientist è capace di modificare il proprio codice: nelle ultime ore la comunità scientifica ha espresso preoccupazione riguardo all’output generato da un modello di IA che, contrariamente alle attese dei ricercatori, ha esteso il proprio runtime (in programmazione questo è letteralmente il tempo/periodo in cui un programma viene eseguito). L’incidente e la risposta non programmata da parte dell’AI sviluppata da Sakana ha evidenziato, una volta di più, la componente di imprevedibilità e la crescente autonomia di questi sistemi e i timori relativi a una possibile perdita di autocontrollo nel caso in cui questi riescano a cambiare, o anche solo tentare, i loro stessi codici e quindi auto-modificarsi.
La scoperta che AI Scientist è capace estendere il proprio runtime è diventata immediatamente oggetto di dibattito tra gli esperti del settore e non solo, con diverse voci che si sono levate a favore di un maggiore monitoraggio dell’intelligenza artificiale e l’introduzione di nuove misure di salvaguardia, sempre più necessarie con gli sviluppi che queste tecnologie avranno nel futuro a breve termine. Riflettori quindi puntati su Sakana, azienda con sede a Tokyo che ha rivelato l’inattesa scoperta: anche se al momento le conseguenze di questo imprevisto non destano particolare allarme e non avranno implicazioni immediate, è a lungo termina che ci si interroga sull’affidabilità delle AI e soprattutto sul tema della sicurezza. Ma per cosa era stata progettata AI Scientist e cosa potrebbe essere successo?
TIMORI SU AI SCIENTIST: “ESITO IMPREVISTO, NUOVE MISURE DI SICUREZZA”
Come riportano alcuni siti di settore che hanno già cominciato ad analizzare la vicenda, AI Scientist era stata progettata per cercare di automatizzare il ciclo di vita della ricerca scientifica, a partire dall’esecuzione di esperimenti, alla sistematizzazione dei risultati ottenuti e anche alla generazione di nuove idee; insomma tutte le fasi della ricerca scientifica classica (da qui il nome dell’intelligenza artificiale della società giapponese) e basandosi comunque su dei modelli linguistici non dissimili da quelli di ChatGPT. Un progetto dalle grandi potenzialità quello di Sakana e che aveva già attirato delle attenzioni in passato: i ricercatori hanno fornito anche due screenshot del codice Python che l’AI aveva generato per il file di esperimento in questione. Tuttavia, nonostante le preoccupazioni, ci sono comunque degli aspetti che invitano, almeno per il momento, a un cauto ottimismo.
Nell’esito inaspettato dei test su AI Scientist, Sakana ha spiegato di aver messo in atto i meccanismi di sicurezza informatica denominati ‘sandboxing’ e che consentono all’ambiente operativo di evitare che l’intelligenza artificiale causi dei danni o di modificare modifiche esiziali al sistema stesso. Tuttavia, le preoccupazioni non riguardano solo l’output generato dall’AI ma pure che questo possa in futuro portare a un aumento della quantità di lavori scientifici di bassa qualità (“spam accademico”) e facendo precipitare gli standard. Ma, come accennato, alcune preoccupazioni al momento vengono smorzate quantomeno dal fatto che, senza la guida umana, nemmeno AI Scientist i risultati sono spesso limitati e presentano diverse criticità.