Il documento Usa: “da marzo a giugno ChatGPT è regredita”
L’Intelligenza Artificiale non sarebbe poi così intelligente. O meglio, avrebbe qualcosa che non funziona esattamente come ci saremmo aspettati fino a qualche mese fa. Se inizialmente ChatGPT ci aveva mostrato la sua abilità nel parlare come un essere umano, adesso qualche problema sembra sempre più evidente.
Come spiegato da Repubblica, a supportare questa idea c’è anche un documento, non ancora vagliato e pubblicato, scritto da tre ricercatori di Stanford e Berkeley. Da marzo a giugno ChatGpt sarebbe regredita, o comunque peggiorata. In poche parole, non riuscirebbe a risolvere un problema matematico come faceva invece tre mesi prima, e non risponderebbe neanche a domande politicamente scorrette.
Intelligenza Artificiale stupida? Ecco le 3 ipotesi
OpenAI, la società che ha creato l’Intelligenza Artificiale ChatGPT, ha però fatto sapere che non è “più stupida, al contrario ogni versione è più intelligente”. Cosa è successo allora? Le ipotesi sono principalmente tre. Secondo la prima ipotesi, ChatGPT potrebbe essere stata fin dalla sua creazione una specie di test, ma non il prodotto finale da vendere agli utenti. In questo modo tutti potevano provare e vedere le potenzialità dell’Intelligenza Artificiale. E dall’altra parte OpenAi poteva capire cosa il mondo si aspettava.
La seconda ipotesi si basa invece su una possibile modifica del modello di funzionamento di GPT. Si sarebbe passati da un solo grande modello a otto piccoli, o anche più. Questi potrebbero essere specializzati in singoli campi, ed entrerebbero in campo a seconda della richiesta effettuata dall’utente. In questo modo la velocità sarebbe maggiore. Infine, la terza ipotesi prevede che, per evitare risposte sbagliate da parte di ChatGPT, siano state inserite delle barriere, dei filtri, per dare risposte politicamente corrette. Naturalmente per fare ciò serve maggior tempo, di conseguenza la risposta non può essere veloce e immediata.