Chat Gpt: il dilemma etico per l’intelligenza artificiale

chatbot-technology

Chat GPT, acronimo di Generative Pretrained Transformer, è l’ultimo modello di intelligenza artificiale conversazione sviluppato da OpenAI ed è stato reso pubblico a Novembre del 2022.
Il modello rientra nella categoria dei modelli di intelligenza artificiale basati sul machine Learning non supervisionato: questi funzionano utilizzando una tecnica di deep Learning nota come trasformer, che si basa sull’utilizzo di una rete neurale per analizzare e comprendere il significato dell’input di testo inserito.

Più nello specifico, ChatGPT è parte della famiglia di modelli InstructorGPT: questi sono formati tramite deep Learning, ma si differenziano dagli altri per la presenza del rinforzo umano.
Il modello, a partire dalla sua pubblicazione, ha spopolato a velocità esorbitante: infatti a metà dicembre, dopo meno di un mese dal suo lancio, più di un milione di persone si erano già iscritte a ChatGPT per provare a utilizzarla.

Il software ha anche tra coloro non appassionati di AI grazie alla sua facilità di utilizzo e alla sua gratuità.

Negli ultimi mesi esperti di ogni campo si sono avvicendati mettendo alla prova ChatGPT: molti hanno decretato l’inizio della prossima rivoluzione tecnologica, altri affermano che l’intelligenza artificiale pubertà il lavoro a milioni di persone e altri invece affermano che per quanto il modello di OpenAi sia indubbiamente un grande passo avanti non ci sia alcun motivo per parlare di apocalissi tecnologica.

Molti esperti si sono interrogati sull’impatto di ChatGPT nell’ambito della sicurezza informatica, sostenendo che il modello di intelligenza artificiale possa essere utilizzato per la creazione di nuovi malware e minacce informatiche per gli utenti del WEB.
Chiedendo direttamente a ChatGPT se fosse realmente una minaccia informatica per gli utenti del web questa è la risposta che si riceve: ‘“come modello di linguaggio sviluppato da OpenAI, non presento alcun rischio diretto per la sicurezza informatica. Tuttavia, potrebbe esserci il rischio che informazioni sensibili vengano condivise con me durante le interazioni, quindi è importante essere consapevoli delle proprie azioni e prendere le precauzioni appropriate per proteggere i propri dati. Inoltre, quando si utilizza una tecnologia basata su intelligenza artificiale, è importante considerare anche i rischi associati alla sua impiegabilità o alla sua eventuale utilizzo improprio”.

È però opportuno riflettere anche sull’aspetto etico di questi nuovi modelli dell’intelligenza artificiale: l’intelligenza artificiale mira infatti a imitare le prestazione dell’intelligenza umana, ma gli umani non fanno sempre buon uso della loro intelligenza.
Il sistema è stato implementato in modo da riconoscere i temi pericolosi, così da non fornire risposte quando le domande sono a sfondo razzista o misogino o riguardano falsità: in questi casi ChatGPT è in grado di auto censurarsi e non rispondere.
È stato però rivelato da Swascan, società milanese che si occupa di cyber security, che questi sistemi di censura sono facilmente eludibili.
Diviene quindi fondamentale domandarsi se sia lecito o meno introdurre principi che possano regolare il funzionamento dell’intelligenza artificiale; se da un lato introdurre principi che possano regolarne il funzionamento costituirebbe un limite per lo sviluppo dell’intelligenza artificiale dall’altro lato si rende necessario tutelare prima la persona dello sviluppo tecnologico.