Come potrebbe la foto falsa del Papa annunciare la fine dell’umanità?

Per un momento, Internet è stato ingannato. Una foto di Papa Francesco in piumino bianco è diventata virale su Internet.

Tuttavia, la figura del capo vaticano insolitamente elegante di 86 anni era sbagliata. L’immagine falsa è stata creata usando l’intelligenza artificiale come una bufala, ma era abbastanza realistica da ingannare l’occhio inesperto.

Le imitazioni dell’intelligenza artificiale si stanno diffondendo rapidamente sui social media mentre la popolarità degli strumenti di apprendimento automatico sale alle stelle. Oltre alle immagini fabbricate, strumenti di intelligenza artificiale basati su chatbot come ChatGPT di OpenAI, Bard di Google e Bing di Microsoft sono stati accusati di creare una nuova strada per la disinformazione e le notizie false.

I robot “istruiti”.

Questi robot, addestrati su miliardi di pagine di articoli e milioni di libri, possono fornire risposte persuasive che sembrano umane ma spesso inventate, un fenomeno noto nel settore come “allucinazioni”. Alcuni modelli di intelligenza artificiale hanno persino imparato a codificare, aprendo la possibilità di essere utilizzati per gli attacchi informatici.

A parte la paura delle fake news e delle immagini “deep fake”, sempre più futuristi temono che l’intelligenza artificiale stia diventando una minaccia esistenziale per l’umanità.

Gli scienziati Microsoft il mese scorso sono arrivati ​​​​al punto di affermare che un algoritmo, ChatGPT-4, ha “un assaggio di… intelligenza a livello umano”. Sam Altman, creatore di OpenAI, la startup statunitense dietro la tecnologia ChatGPT, ha ammesso in una recente intervista: “Ne abbiamo un po’ paura”.

Ora, un contraccolpo contro la cosiddetta “intelligenza artificiale genitale” si sta preparando mentre i pesi massimi della Silicon Valley litigano sui rischi e sulle ricompense potenzialmente infinite di questa nuova ondata di tecnologia.

Foto: Rolf van Root / Unsplash

Lo scherzo potrebbe finire?

Due settimane fa, più di 3.000 ricercatori, scienziati e imprenditori, tra cui Elon Musk, hanno scritto una lettera aperta chiedendo una “pausa” di sei mesi nello sviluppo dello strumento di chatbot più avanzato di OpenAI, chiamato “Large Language Model”, LLM.

“Esortiamo tutti i laboratori di intelligenza artificiale a sospendere immediatamente l’addestramento dei sistemi di intelligenza artificiale che superano GPT-4 per almeno 6 mesi”, hanno scritto gli scienziati. “Se una tale moratoria non può essere attuata rapidamente, i governi devono intervenire e imporre una moratoria.

Musk e altri temono il potenziale distruttivo dell’intelligenza artificiale: un’onnipotente “intelligenza artificiale generale” potrebbe mettere in serio pericolo l’umanità.

Tuttavia, la loro richiesta di un divieto di sei mesi sullo sviluppo di modelli di intelligenza artificiale più avanzati è stata accolta con scetticismo. Yann LeCun, capo esperto di intelligenza artificiale presso la società madre di Facebook Meta, ha paragonato lo sforzo al tentativo della Chiesa cattolica di vietare la tipografia.

“Immagina cosa potrebbe accadere se i comuni mortali avessero accesso ai libri”, ha twittato.

“Potresti leggere tu stesso la Bibbia e la società sarebbe distrutta”.

Altri hanno sottolineato che molti dei firmatari della lettera hanno i propri programmi. Musk, che ha apertamente lottato con OpenAI, sta tentando di sviluppare il proprio progetto concorrente. Almeno due firmatari erano ricercatori di DeepMind, che è di proprietà di Google e lavora sui propri robot AI. Gli scettici di AI hanno avvertito che la lettera abbraccia il clamore che circonda l’ultima tecnologia con affermazioni come “dovremmo sviluppare menti non umane che potrebbero alla fine superarci in numero, superarci e sostituirci?”.

Scatole nere piene di informazioni

Molti degli strumenti di intelligenza artificiale sviluppati oggi sono essenzialmente scatole nere con poche informazioni pubbliche su come funzionano effettivamente. Tuttavia, sono già stati integrati in centinaia di aziende. ChatGPT di OpenAI viene utilizzato, ad esempio, dalla società di pagamenti Stripe, dalla banca Morgan Stanley e dalla società di acquisto immediato e pagamento successivo Klarna.

Richard Robinson, fondatore della startup legale RobinAI, che lavora con la società di intelligenza artificiale da 4 miliardi di dollari Anthropic, un altro concorrente di OpenAI, afferma che anche i creatori di modelli linguistici di grandi dimensioni non comprendono appieno come funzionano. Tuttavia, aggiunge: “Penso anche che ci sia il rischio che le autorità di regolamentazione reagiscano in modo eccessivo a questi sviluppi”.

I cani da guardia del governo si stanno già preparando per una battaglia con le società di intelligenza artificiale per problemi di privacy e dati. In Europa, l’Italia ha minacciato di vietare ChatGPT per le accuse di aver raccolto informazioni da Internet senza riguardo per i diritti dei consumatori.

Il commissario italiano per la protezione dei dati ha affermato che il bot non aveva “nessun sistema di verifica dell’età” per impedire l’accesso ai minori di 18 anni. In base alle normative europee sui dati, le autorità di regolamentazione possono multare OpenAI fino a 20 milioni di euro a meno che non modifichi le sue pratiche sui dati.

Foto: Emiliano Vittoriosi/Unsplash

E i dati personali?

In risposta, OpenAI ha dichiarato di non offrire più ChatGPT in Italia. “Riteniamo di offrire ChatGPT in conformità con il GDPR e altre leggi sulla protezione dei dati”, ha affermato la società.

Francia, Irlanda e Germania stanno valutando sanzioni normative simili. Nel Regno Unito, l’Ufficio del Commissario per le informazioni ha dichiarato: “La commissione per la protezione dei dati responsabile della protezione delle informazioni ha già effettuato revisioni:” Non ci possono davvero essere scuse per non considerare le implicazioni sulla privacy dell’intelligenza artificiale creativa “.

Ma mentre Privacy Watch ha alzato le bandiere rosse, il Regno Unito non è arrivato al punto di vietare ChatGPT. In un libro bianco sulla regolamentazione dell’IA pubblicato all’inizio di questo mese, il governo ha deciso contro la regolamentazione formale dell’IA. Edward Machin, avvocato presso Ropes & Gray, afferma: “La Gran Bretagna sta andando per la sua strada e sta adottando un approccio molto più morbido”.

Chiediamo una moratoria

Juan José López Murphy, responsabile dell’intelligenza artificiale e della scienza dei dati presso la società tecnologica Globant, afferma che ci sono problemi a breve termine nell’aiutare le persone a rilevare dati falsi o falsi generati dai chatbot. “Questa tecnologia esiste già, il problema è l’abuso”, afferma.

“La formazione di ChatGPT su Internet è potenzialmente pericolosa a causa dei pregiudizi di Internet”, afferma l’esperta di computer Dame Wendy Hall. Sostiene che le richieste di una moratoria sullo sviluppo rischiano di essere inefficaci poiché la Cina sviluppa rapidamente i propri strumenti.

OpenAI sembra consapevole della possibilità di un giro di vite, affermando: “OpenAI è un’azienda non legata a Internet:” Riteniamo che i sistemi di intelligenza artificiale forti debbano essere soggetti a rigorose valutazioni di sicurezza. La regolamentazione è necessaria per garantire l’adozione di tali pratiche”.

Marc Warner della Faculty AI con sede nel Regno Unito, che collabora con OpenAI in Europa, afferma che le autorità di regolamentazione devono ancora anticipare la possibilità che l’IA superpotente possa apparire all’orizzonte.

“Sembra che l’intelligenza artificiale generale stia arrivando prima di quanto molti si aspettino”, dice, esortando i laboratori a smettere di correre e lavorare insieme sulla sicurezza.

“Dobbiamo essere consapevoli di ciò che potrebbe accadere in futuro, dobbiamo pensare alla regolamentazione ora in modo da non sviluppare un mostro”, afferma Dame Wendy.

Le immagini false del Papa sembrano essere ben lontane dal predominio dell’intelligenza artificiale. Ma se si deve credere agli esperti, il divario sta iniziando a ridursi.

*Utilizzando i dati di thetelegraph.com

Giacinta Lettiere

"Evangelista zombi malvagio. Esperto di pancetta. Fanatico dell'alcol. Aspirante pensatore. Imprenditore."