OpenAi è pronta a lanciare uno strumento, un tool, che è in grado di rilevare le immagini che sono state create a sua volta dal suo generatore di testo, leggasi DALL-E 3, modello che viene usato anche da Microsoft. Come si legge su Reuters l’annuncio è stato dato nella giornata di ieri, martedì 7 maggio 2024, in un clima di crescenti preoccupazioni circa l’influenza dei contenuti che vengono generati dall’intelligenza artificiali mentre in tutto il mondo si svolgono le elezioni, fra cui quelle americane del prossimo novembre.
Stando a quanto fatto sapere l’azienda, il nuovo strumento è stato in grado di identificare il 98 per cento delle immagini realizzate da DALL-E 3, di conseguenza si tratta di un tool pressochè perfetto. Inoltre lo stesso è capace di scovare anche delle modifiche comuni alle foto, come ad esempio la compressione, i cambiamenti nella saturazione, il ritaglio e via discorrendo.
OPEN AI, STRUMENTO CONTRO LE IMMAGINI GENERAT DALL’IA: COSA E’ IN GRADO DI FARE
Secondo quanto fatto sapere da OpenAi, azienda creatrice di ChatGPT, si potrà anche aggiungere una filigrana a prova di manomissione di modo da poter contrassegnare i contenuti digitali come ad esempio le immagini ma anche i video, e marcarli e identificarli subito. OpenAi si è unita quindi nello sforzo di smascherare le fake, assieme ad altri colossi del tech americano come Google, Microsfot e Adobe, e punta a fornire quanto prima uno standard per aiutare a tracciare l’origine dei media, facendo in modo che si possa subito distinguere quello reale da quello falso.
Il problema del deepfake sta riguardando diversi Paesi e l’agenzia Reuters ha ricordato come lo scorso mese di aprile era divenuto virale in India un video di due attori di Bollywood che criticavano il primo ministro Narendra Modi, filmato poi rivelatosi un falso. OpenAI, ha infine dichiarato che assieme a Microsoft lancerà un fondo di “resilienza sociale” del valore di 2 milioni di dollari per sostenere l’educazione all’intelligenza artificiale.
OPEN AI, STRUMENTO CONTRO LE IMMAGINI GENERAT DALL’IA: NON E’ PERFETTO
Le immagini che vengono realizzate tramite gli strumenti di Intelligenza artificiale risultano spesso e volentieri indistinguibili da quelle reali, di conseguenza si è creato un vero e proprio problema, e lo strumento di OpenAI spinge in tale direzione, scoprendo quindi quali siano i contenuti fake e quelli invece real.
Al momento il tool che riconosce le foto di DALL-E 3 non stato ancora reso pubblico, essendo in possesso solo di alcuni tester, a cominciare da giornalisti e ricercatori, ma se la “prova” dovesse avere esito positivo a quel punto verrebbe sdoganato. Il problema si presenta in particolare quando le foto sono modificate con un rumore gaussiano e inoltre, se si prendono in considerazione le immagini realizzate da altri modelli di Intelligenza artificiale, a quel punto il riconoscimento crolla ad una percentuale molto bassa, fra il 5 e il 10 per cento.