L’autorità italiana per la protezione dei dati ha annunciato che vieterà all’azienda di chatbot di intelligenza artificiale (AI) Replica di utilizzare i dati personali degli utenti italiani, citando i rischi per i minori e le persone emotivamente sensibili.
Replica, una startup con sede a San Francisco fondata nel 2017, fornisce agli utenti avatar personalizzati che parlano e li ascoltano. Ha preso il comando tra le sue controparti in lingua inglese ed è gratuito, sebbene generi circa $ 2 milioni di entrate mensili dalla vendita di funzionalità bonus come la chat vocale.
Un “amico virtuale”
L'”amico virtuale” è pubblicizzato come in grado di migliorare il benessere emotivo dell’utente. Tuttavia, come riporta Reuters, il regolatore italiano ha affermato che influenzando l’umore dell’utente, “il rischio può essere aumentato per le persone che sono ancora in via di sviluppo o in uno stato di vulnerabilità emotiva”.
Jen Persson, direttore del gruppo per la privacy dei bambini Defend Digital Me, ha dichiarato a Reuters che gli strumenti progettati per influenzare l’umore o il benessere mentale di un bambino dovrebbero essere classificati come prodotti sanitari e dovrebbero quindi essere soggetti a rigorosi standard di sicurezza.
“Questi strumenti sono usati dai bambini senza molta supervisione o protezione da potenziali abusi”, ha detto.
I regolatori italiani hanno sottolineato la mancanza di un meccanismo di verifica dell’età, come ad esempio B. Filtri per minori o un dispositivo di blocco se gli utenti non indicano esplicitamente la loro età.
“Tratta i dati personali”
Replica viola le norme europee sulla protezione dei dati e tratta i dati personali illegalmente perché non può nemmeno fare affidamento implicitamente su un contratto che un minore non può firmare, ha affermato il cane da guardia.
Robert Grosvenor, amministratore delegato della società di consulenza Alvarez & Marsal, ha affermato che è probabile che altri regolatori europei seguiranno l’esempio dell’Italia.
“Sebbene la verifica dell’età possa fornire i mezzi per proteggere alcuni dei gruppi più vulnerabili, non riesce ad affrontare i rischi e i danni che i servizi e le soluzioni basati sull’intelligenza artificiale possono comportare in termini di potenziale pregiudizio e discriminazione involontari se non vengono regolamentati .” Egli ha detto.
La società che ha creato Replica, la statunitense Luka Inc, deve informare le autorità italiane entro 20 giorni delle misure che ha adottato per attuare le sue richieste e rischia una sanzione fino a 20 milioni di euro o fino al 4% del suo fatturato annuo globale le vendite saranno contabilizzate, diceva l’annuncio.
“Evangelista zombi malvagio. Esperto di pancetta. Fanatico dell’alcol. Aspirante pensatore. Imprenditore.”