OpenAI, un chief nello sviluppo di tecnologie di intelligenza artificiale, è attualmente al centro di un reclamo sulla privateness in Austria, presentato dal gruppo per i diritti sui dati Noyb. Il reclamo accusa ChatGPT di OpenAI di diffondere informazioni false su un individuo e di potenzialmente violare le leggi sulla privateness dell’Unione Europea.
OpenAi di Sam Altman accusato di diffondere informazioni false su persone: la denuncia in Austria
Il reclamo è stato avviato da Noyb il 29 aprile, sostenendo che OpenAI non affronta le inesattezze nelle informazioni fornite dal suo chatbot AI, ChatGPT, riguardo a una figura pubblica che rimane anonima.
Nonostante le richieste della figura, OpenAI avrebbe rifiutato di correggere o cancellare i dati inesatti e non ha divulgato le fonti dei suoi dati di addestramento.
Questo rifiuto potrebbe costituire una violazione delle rigide normative sulla protezione dei dati dell’UE, progettate per salvaguardare le informazioni personali degli individui e garantire l’accuratezza dei dati.
Il reclamo di Noyb evidenzia una sfida significativa nel campo dell’intelligenza artificiale: l’equilibrio tra l’avanzamento tecnologico e i diritti alla privateness degli individui.
Il Regolamento Generale sulla Protezione dei Dati (GDPR) dell’UE stabilisce che i dati personali devono essere accurati e, ove necessario, aggiornati; devono essere adottati tutti i passaggi ragionevoli per assicurarsi che i dati personali inesatti siano cancellati o rettificati senza indugio.
Maartje de Graaf, un avvocato per la protezione dei dati di Noyb, ha affermato: “Se un sistema non può produrre risultati accurati e trasparenti, non può essere utilizzato per generare dati sugli individui.
La tecnologia deve seguire i requisiti legali, non il contrario.” Questa dichiarazione sottolinea l’aspettativa legale che le tecnologie IA non solo devono avanzare nelle capacità, ma devono anche allinearsi con i quadri legali stabiliti che proteggono i diritti degli individui.
L’indagine dell’autorità austriaca
L’autorità austriaca per la protezione dei dati sta indagando sui metodi di elaborazione dei dati di OpenAI, in particolare su come garantisce l’accuratezza dei dati personali elaborati dai suoi grandi modelli linguistici.
Questa indagine potrebbe stabilire un precedente su come vengono gestite le questioni di accuratezza dei dati nel campo dell’IA in tutta l’Unione Europea.
Noyb, acronimo di “None of Your Enterprise” (Non sono affari tuoi), opera da Vienna ed è noto per il suo impegno nell’applicazione degli customary di protezione dei dati dell’UE. Punta strategicamente su casi che hanno ampie implicazioni per i diritti digitali in Europa.
In Europa, preoccupazioni simili sono nate quando uno studio ha rivelato che il chatbot AI di Bing di Microsoft, rinominato Copilot, forniva informazioni fuorvianti durante le elezioni locali in Germania e in Svizzera.
Anche Gemini AI di Google è criticato per aver prodotto immagini inaccurati e di parte, spingendo Google a scusarsi e advert impegnarsi advert aggiornare il modello.
Conclusioni
Questi esempi illustrano le difficoltà crescenti nell’integrare l’IA nelle applicazioni quotidiane, dove l’accuratezza delle informazioni e l’aderenza alle leggi sulla privateness diventano di fondamentale importanza.
L’esito del reclamo di Noyb contro OpenAI potrebbe avere implicazioni significative per gli sviluppatori di IA, potenzialmente richiedendo loro di implementare misure più rigorose di accuratezza dei dati e trasparenza per conformarsi alla legge dell’UE.
Man mano che le tecnologie IA diventano più combine nella società, la sfida per gli sviluppatori come OpenAI è garantire che i loro prodotti non solo spingano i limiti di ciò che è tecnologicamente possibile.