L’intelligenza artificiale generativa a fini generali come ChatGPT o Bard sta per fare il suo ingresso in azienda. Queste applicazioni possono essere integrate in altri sistemi digitali, consentendo così a piccole e medie imprese di sfruttare una tecnologia che non potrebbero sviluppare in proprio. Il problema è che attualmente non c’è una disciplina normativa, ma l’Unione europea sta correndo ai ripari. Infatti, è in arrivo il regolamento europeo sull’intelligenza artificiale (AI Act), che ha ottenuto il via libera del Parlamento europeo a metà giugno e ora deve essere messo a punto definitivamente per poter essere pubblicato sulla Gazzetta ufficiale dell’Ue a inizio 2024.



Nel frattempo, si sono moltiplicate le richieste di un intervento normativo, soprattutto dai responsabili delle big tech, per contenere i rischi dell’intelligenza artificiale. Dunque, una volta approvato in via definitiva, l’AI Act sarà forse la prima legge al mondo sull’intelligenza artificiale. Eppure, secondo quanto riportato dal Sole 24 Ore, ci sono già accuse su rigidità ed eccesso di regolamentazione, motivo per il quale ci sono pressioni per ammorbidirlo. Uno degli aspetti più delicati riguarda la disciplina dei sistemi a fini generali e delle loro integrazioni in azienda. Il testo prevede che obblighi e responsabilità riguardino in particolare le aziende che implementeranno sistemi a fini generali. Quindi, le imprese devono iniziare a dotarsi di nuove competenze. Obblighi e sanzioni scatteranno nei mesi successivi all’entrata in vigore proprio per consentire l’adeguamento.



INTELLIGENZA ARTIFICIALE, OBBLIGHI E RESPONSABILITA’

Sul mercato ci sono applicazioni che integrano ChatGPT per la creazione di siti web, per ideare e modificare immagini, per simulare un assistente virtuale, per aiutare lo studio legale a organizzare materiale e assistere i professionisti nelle ricerche giurisprudenziali. Ma le imprese devono essere consapevoli del fatto che usare l’intelligenza artificiale vuol dire condividere dati, non è un caso che i colossi finanziari e delle assicurazioni stiano lavorando alla realizzazione di propri sistemi di intelligenza artificiale, che può aiutare le imprese su diversi fronti. Infatti, la spesa delle aziende su questo fronte nel 2022 è stata di 435 milioni di euro, mentre nel 2023 il numero delle imprese che prevedono di usarla in modo significativo salirà del 48%.



In base al testo del Parlamento, oneri e responsabilità spettano a chi distribuisce o usa i sistemi a fini generali. Invece, chi produce la tecnologia, come OpenAI, deve fornire assistenza e accesso alle informazioni. Ma il Parlamento, per attutire la disparità di potere contrattuale tra fornitori di sistemi e imprese, ha vietato clausole contrattuali unilaterali che escludono o limitano le responsabilità per negligenze gravi o danno al produttore il diritto di determinare la conformità della documentazione tecnica e dei dati forniti. Alla luce della complessità della materia e della normativa, sarà importante che le autorità nazionali incaricate di vigilare e sanzionare le aziende che creano e integrano sistemi di intelligenza artificiale offrano anche un supporto allo sviluppo di questa tecnologia.