Intelligenza artificiale
Venerdi' 17 novembre OpenAI ha licenziato Sam Altman senza giusta causa, per poi riassumerlo nel giro di 48-56 ore in un turbinio di messaggi sconnessi e un po' confusi.
Potete approfondire l'intera vicenda qui, ma il succo e' che mi e' sembrata 'una farsa di principi impalabili', e vi spiego perche'.
Una pala e' una pala. Puo' essere usata a fini civili (scavare una fossa) o incivili (tirarla in testa ad un tuo simile). Ma la sua destinazione d'uso e' chiara.
Una pistola od una qualsiasi arma ha un solo modo di essere usato, e la sua distribuzione in Europa e' appunto soggetta a norme strettissime.
Il discorso su cosa sia ChatGPT, e su che limiti debba avere e' molto ma molto piu' spinoso dei due esempi di cui sopra, che non ho scelto a caso.
In sintesi Altman si e' trovato in conflitto con una parte del board che ha ritenuto "non etico" il suo comportamento, senza pero' che si specificasse bene di cosa si trattasse: e' probabile che Altman abbia promesso qualche mirabolante applicazione di ChatGPT a SoftBank o comunque a qualche grande societa' dalle tasche molto profonde, e scrupoli molto sottili (ma sono illazioni queste, in ogni caso teniamole per buone).
Personalmente ritengo che quanto creato da OpenAI sia molto affascinante, ma che debba essere sempre considerato con raziocinio, senza partire per la tangente 'etica' o tirare in ballo 'principi' tanto cari agli americani.
ChatGPT e' una macchina creata dall'uomo, il cui funzionamento inferenziale non e' noto nei dettagli; i robot da catena di montaggio, altre macchine, hanno fatto licenziare il 90% dei lavoratori nel settore automobilistico tra gli anni ottanta e novanta. E quelli funzionano in modo molto preciso.
Per cui e' certo che ChatGPT mangera' posti di lavoro a rullo.
Ma da qui a immaginare SkyNet che ci bombarda con i Terminator, beh un po' ce ne passa, anche se ovviamente senza confini tutto si puo' immaginare.
Se facciamo qualche considerazione seria, le risposte del tutto inaffidabili di ChatGPT potrebbero diventare piu' solide in qualche anno. Ma fare discorsi per un uso 'etico' di ChatGPT da parte di chi lo sta sviluppando mi pare un po' assurdo. E' come se durante lo sviluppo della bomba atomica si fossero posti questo problema in termini di: "Bhe non dovrebbe uccidere i puri di cuore e gli innocenti" oppure "dovremmo fare in modo che se viene venduta ad un CATTIVO, non scoppi".
Visto che inolttre non sanno come scelga veramente le risposte, la cosa e' ancora meno controllabile.
Perche' poi chi decide chi e' CATTIVO? Vedo gia' il disclaimer di vendita dei nuovi prodotti: "Il nostro prodotto di helpdesk automatico e' fantastico: solo nello 0,0001% dei casi spinge i clienti al suicidio, facendoli riflettere sui loro persistenti fallimenti di vita."
Per cui va benissimo introdurre regole per evitare di far ingoiare a ChatGPT dati personali a insaputa dei mdesimi, ma non penso che sia OpenAI che possa stabilire cosa sia lecito o meno fare con uno strumento cosi' difficilmente controllabile, semplicemente perche' al momento non si puo' dire: "Lo sviluppiamo un po' meno stronz.. per evitare di essere denunciati..." proprio perche' il controllo che ne hanno non e' a quel livello.
Insomma e' come lo sviluppo della bomba H: al primo test, mentre il fungo atomico saliva, uno degli scienziati temette che la reazione potesse continuare, incendiare tutto l'ossigeno dell'atmosfera e trasformare la terra in una palla di fuoco. Per fortuna i calcoli erano giusti e la reazione si interuppe.