Che Chat GPT sia considerata da molti esperti il futuro, non è in discussione. E non lo è neppure la sua pericolosità. Gli stessi inventori, come Sam Altman, hanno messo in guardia ripetutamente sui possibili rischi. Da quando l’intelligenza artificiale ha ottenuto un successo mondiale, gli esperti hanno sempre più messo in guardia contro l’uso indiscriminato dei sistemi. Lo stesso Altman ha chiesto più volte una regolamentazione per limitare i rischi. Il vero rischio, però, sarebbero sistemi come Fraud GPT, Darkbart e Darkbert. Si tratta di “gemelli malvagi” dell’intelligenza artificiale, presenti nel dark web.



L’unico scopo di Darkbart e Fraud GPT è assistere anche gli aspiranti hacker non qualificati nella creazione di software dannosi chiamati malware. Come spiegato dai ricercatori di sicurezza di Slashnext, c’è un aumento dei chatbot che supportano gli hacker nel loro lavoro. Slashnext, con sede in California, è specializzato in sicurezza informatica e rilevamento di attacchi informatici. A metà luglio è stato scoperto uno strumento di intelligenza artificiale chiamato Worm GPT, progettato per inviare e-mail di phishing. In poche parole, spingevano i destinatari a fare clic su collegamenti dannosi per fornire inconsapevolmente i propri dati agli aggressori o per effettuare trasferimenti di denaro.



La preoccupazione degli esperti

Lo scopritore di Worm GPT, Daniel Kelley, ha parlato di un risultato “inquietante”. Effettuando un test, ha chiesto all’intelligenza artificiale di generare un’e-mail di phishing. Il risultato è stato “notevole e convincente, ma anche strategicamente intelligente”. Kelley pensa che questi strumenti di hacking siano solo la “punta dell’iceberg” e che molti altri di questi sistemi di intelligenza artificiale siano già in circolazione per rubare dati e soldi agli utenti. Lo sviluppatore più attivo di questi strumenti è l’utente precedentemente sconosciuto “Canadiankingpin12”. Questo si orienterebbe su chatbot già esistenti, ma li alimenta con i numerosi set di dati del dark web. Per loro è possibile agire anche all’estero, pur non conoscendo le lingue dei destinatari.



Chat GPT e Bard non sono esenti da bug e anche con loro è possibile creare malware. Tuttavia, OpenAI sta collaborando con Microsoft per garantire che Chat GPT non diventi complice. Allo stesso modo, Google vuole imporre limiti e restrizioni etiche per prevenire gli abusi. Gli esperti raccomandano alle aziende di migliorare i propri sistemi di controllo della posta elettronica e renderli più rigorosi per respingere gli attacchi di phishing in modo che vengano rilevati più rapidamente. Allo stesso modo, però, le persone vanno adeguatamente istruite.