Foto ANSA

Il giallo dell'AI

Le vite parallele di Mangione e Balaji

Matteo Montan

Da un lato il ceo di un colosso delle assicurazioni che mette a punto un'intelligenza artificiale per rigettare meglio le richieste di copertura sanitaria. Dall'altro un ricercatore che denuncia violazioni sul diritto d'autore da parte di OpenAI: storie diverse che si incrociano nel sangue. L'anima più oscura dell’AI

Un omicidio, un suicidio e l’anima nera dell’AI nelle mani di  utilizzatori spregiudicati/ San Francisco, 26 novembre, ore 13 circa (Pacific Time): nel suo appartamento di Buchanan Street viene trovato morto Suchir Balaji, 26 anni, americano di origini indiane. A chiamare il 911 è un amico preoccupato dal suo silenzio. Il medico legale, intervenuto sul posto, non ha dubbi: suicidio. La polizia poco dopo conferma: dall’indagine iniziale nessuna evidenza di atti criminali.

New York, 4 dicembre, nove giorni dopo. Ore 6.45 del mattino (Eastern Time), davanti all’hotel Hilton sulla Sixth Avenue un giovane incappucciato uccide un uomo in abito blu che cammina sul marciapiede con tre colpi di 9 millimetri. La polizia identifica la vittima come Brian Thompson, 50 anni, ceo di United Healthcare, colosso americano delle assicurazioni sanitarie e dichiara: attacco premeditato, pianificato e mirato.

Suchir Balaji è uno di quei piccoli geni che popolano la Silicon Valley: nato a Cupertino (quella di Apple), a 16 anni diventa campione nazionale alle Olimpiadi di Computing e a 21 si laurea in Computer Science a Berkeley con una media stellare: 3.98 su 4.  A uccidere Thompson è un altro ragazzo di 26 anni, anche lui laureato in Informatica, anche lui figlio di immigrati, italiani in questo caso: Luigi Mangione. Di lui ormai sappiamo tutto, dal mini-manifesto programmatico contro le assicurazioni tenuto a portata di mano nella giacca (”Questi parassiti se la sono cercata, doveva essere fatto”) alle parole incise sulle pallottole usate per uccidere il simbolo del male Brian: Delay e Deny, ritardare e negare (ndr, la copertura sanitaria dei malati).

 

                    

 

Mentre la storia di Thompson e Mangione viene raccontata e dissezionata praticamente in tempo reale da X/Twitter e da tutti i siti del mondo, della morte di Suchir nessuno parla per 17 giorni. Il primo a scriverne, il 13 dicembre, è The Mercury Times, una testata locale che dà i primi particolari sul ritrovamento, la dichiarazione del coroner, quella della polizia. Ma ben presto, la notizia viene intercettata dai principali tech blog americani basati a San Francisco e poi dai media mainstream (anche italiani) che incrociando le informazioni cominciano a fare due più due e a capire che Suchir non è un morto qualunque. E che nella sua storia tragica un ruolo centrale ce l’ha un uso discutibile, se non improprio, dell’intelligenza artificiale da parte degli umani, esattamente come nell’omicidio di Thompson, freddato da Mangione anche per avere ideato e introdotto in azienda un prodigioso sistema di AI che secondo le accuse di diverse famiglie aveva industrializzato il rigetto delle richieste di copertura sanitaria.  

Ma torniamo a Balaji e alla catena di eventi oscuri che trasformano la sua morte in un caso. Uscito da Berkeley, Balaji viene assunto da OpenAI, dove assume un ruolo chiave nel training di ChatGPT, la killer app a quei tempi ancora segreta. Ma quattro anni dopo, nell’agosto del 2024, Suchir lascia OpenAI per forti contrasti. Il 23 ottobre Balaji apre un suo blog sinistramente ancora online su cui avrà tempo di postare un solo articolo piuttosto cervellotico, per spiegare perché a suo parere il cosiddetto principio del “fair use” (ndr: concetto giuridico anglosassone che consente in certi casi – ad esempio nella critica e nella satira – di usare senza autorizzazione materiale protetto da copyright) non può essere legittimamente applicato all’intelligenza artificiale generativa, che per crescere ha bisogno di assimilare immense quantità di contenuti prodotti da altri. Sempre il 23 ottobre sul New York Times (noto per avere accusato OpenAI di avere sfamato per anni con i suoi prestigiosi articoli ChatGPT senza alcuna autorizzazione) esce una lunga intervista a Suchir intitolata “Ex ricercatore di OpenAI racconta che l’azienda ha violato la legge sul diritto d’autore”. E il 18 novembre – come rivela la testata Business Insider affermando di avere visto le carte processuali – gli avvocati del New York Times chiedono a un giudice di inserire Balaji come “custodian” nella causa contro OpenAI, poiché in possesso di documenti unici e rilevanti per sostenere la violazione del diritto d’autore. Otto giorni dopo, Suchir viene trovato morto.

Circostanze inquietanti, si direbbe. La mamma di Suchir Balaji, contattata subito dal Mercury Times, chiede di rispettare il dolore della famiglia.  La rete Cbs raccoglie una dichiarazione di un portavoce di OpenAI: “Siamo devastati nell’apprendere questa notizia incredibilmente triste, i nostri cuori sono vicini ai cari di Suchir”. L’istituzionale Times of India, che nei suoi resoconti trasuda vero orgoglio indiano non allineato, in un pezzo del titolo “OpenAI di Sam Altman ha ucciso Suchir Balaji? La morte del whistleblower alimenta le teorie del complotto” pubblica addirittura la lista di tutte le diverse sfumature complottiste affrettandosi infine a precisare “… tuttavia, le speculazioni che collegano la morte a un omicidio, in particolare da parte dell’amministratore delegato di OpenAI, Sam Altman, sono state rapidamente smentite dalle autorità e dagli esperti”. Tuttavia. A mettere il carico da undici ci pensa comunque un post su X definito bonariamente dalla stampa “criptico”: uno screenshot del titolo della morte del giovane whistleblower e tre lettere di commento: “hmm”. A firmarlo, naturalmente, Elon l’Implacabile, lo stesso che ha trascinato in tribunale Altman e OpenAI, di cui è stato cofondatore ed ora Nemico Pubblico Numero Uno. 

Le vite parallele e i luttuosi destini incrociati di Mangione e Balaji appaiono come il cupo riflesso del lato oscuro dell’intelligenza artificiale, quell’anima nera che oggi preoccupa più di tutto regolatori, ricercatori e i più responsabili tra gli stessi AI Lab: senza aspettare l’intelligenza autonoma che potrebbe estinguerci, già oggi l’AI in mano a utilizzatori spregiudicati può fare, o aiutare a fare, grandi danni: violare i diritti di uno scrittore, negare le cure a un anziano malato, motivare un ragazzo di buona famiglia a trasformarsi in assassino, istigare un suo coetaneo ad un suicidio molto strano.


Ps: Anche Mangione si è suicidato, ha detto per qualche minuto la Bbc. Ma non era vero, la notizia se l’era inventata l’AI di Apple.