Intelligenza artificiale

L’idea che l’intelligenza artificiale (IA) possa ribellarsi contro l’umanità è un tema ricorrente nella cultura popolare, alimentato da film (tra gli altri) come Terminator e Matrix. Ma quanto c’è di vero in queste rappresentazioni? Attualmente, l’IA non possiede coscienza né intenzioni proprie. Tuttavia, l’uso improprio o negligente di queste tecnologie può comportare rischi significativi.​

Cos’è l’Intelligenza Artificiale?

L’Intelligenza artificiale è un insieme di sistemi e algoritmi progettati per eseguire compiti che normalmente richiederebbero l’intelligenza umana, come l’apprendimento, il riconoscimento di pattern e il processo decisionale. Questi sistemi non sono autonomi, ma apprendono dai dati forniti dall’esterno e possono migliorare le loro prestazioni nel tempo in maniera semi autonoma.​

I veri rischi dell’IA Oggi

I film ci hanno insegnato delle macchine o Ai che sviluppano una propria coscienza e decidono di decimare l’umanità. Ma in realtà questa eventualità è molto remota. I veri rischi rappresentano la perdita di posti di lavoro (anche se le varie rivoluzioni industriali insegnano che questi si trasformeranno se sapremo restare aggiornati) o eventuali frodi (le frodi automatizzate sono più efficienti delle frodi manuali).

Più che altro i pericoli concreti in arrivo potrebbero essere errori della macchina, errori umani o manomissioni.

– Settore Sanitario

Nel campo medico, l’IA è utilizzata per diagnosticare malattie, prevedere rischi e ottimizzare trattamenti. Ha dimostrato di essere più efficace dei medici umani in quanto possiede una larga conoscenza di sintomi e casi pregressi, oltre a poter incrociare analisi mediche di vario genere con bassissime possibilità di errore.

Tuttavia, errori nei dati di addestramento possono portare a diagnosi errate o trattamenti inappropriati. Ad esempio, un algoritmo progettato per prevedere il rischio di sepsi potrebbe non funzionare correttamente se i dati su cui è stato addestrato sono incompleti o distorti.

Inoltre, la mancanza di trasparenza nei processi decisionali dell’IA può rendere difficile per i medici comprendere e fidarsi delle raccomandazioni fornite. ​

– Controllo del traffico aereo

L’IA è impiegata per migliorare la sicurezza e l’efficienza del traffico aereo attraverso la previsione di conflitti e la gestione del traffico. Tuttavia, l’affidamento eccessivo su sistemi automatizzati può portare a incidenti se gli operatori non comprendono appieno il funzionamento dell’IA o se non intervengono tempestivamente in situazioni critiche.

Ad esempio, l’incidente del volo Asiana Airlines 214 è stato attribuito in parte alla gestione errata dell’autopilota da parte dell’equipaggio.

– Intelligenza artificiale e attacchi hacker

Uno dei veri problemi che potrebbe generare la delega all’intelligenza artificiale di compiti complessi è rappresentato da attacchi hacker e manomissioni (non a caso il down di energia in Spagna di Aprile 2025 vi era subito stato attribuito, poi smentito).

Gli hacker hanno dimostrato di poter hackerare qualsiasi cosa (anche se la colpa è spesso da attribuirsi all’utente che non utilizza password adeguate o ad una scarsa sicurezza in genere). Recentemente è stato hackerato addirittura un aspirapolvere robot che ha iniziato a insultare il proprietario.

Se una diga, fosse delegata a sistemi automatici così come il traffico aereo, le cure da effettuare ad un paziente oppure la sicurezza informatica, e questo processo fosse hackerato, i danni sarebbero molto gravi.

Intelligenza Artificiale e armamenti: una minaccia reale?

L’uso dell’IA in ambito militare solleva preoccupazioni etiche e pratiche. Sebbene attualmente le decisioni critiche, come l’uso di armi letali, siano sotto il controllo umano, l’integrazione crescente dell’IA nei sistemi d’arma potrebbe portare a scenari in cui decisioni autonome vengano prese senza supervisione umana adeguata.

In scenari lontani da quelli dell’intelligenza artificiale come nel caso di Stranislav Petrov successe una cosa analoga. Nel 1983 il computer del militare russo segnalò alcuni missili nucleari provenienti dagli USA ma il tutto si rivelò un tragico errore. Solo la decisione di Petrov di andare contro la macchina si rivelò vincente ed evitò una apocalisse nucleare.

Così come l’AI Act in Europa, organizzazioni internazionali e esperti del settore segnalano la necessità di regolamentazioni rigorose per prevenire l’uso improprio dell’IA in contesti bellici. L’intelligenza artificiale potrebbe decidere in autonomia se “scagliarsi” su un bersaglio piuttosto che su un altro, decidendo quante vittime fare e come. (Il che si collega anche alla classica diatriba: un’automobile a guida autonoma, non potendo evitare l’impatto, preferirebbe investire un bambino o sterzare e investire una vecchietta?)

L’Intelligenza Artificiale nella cultura popolare: analisi di alcuni film iconici

Concludiamo queste nostre riflessioni dell’intelligenza artificiale “senziente” con alcuni esempi cinematografici: quanti potrebbero essere realistici?

Terminator (1984)

In questo film, il sistema di difesa automatizzato Skynet diventa autocosciente e decide di eliminare l’umanità per proteggere se stesso. Sebbene sia una rappresentazione estrema, solleva questioni sulla delega di potere decisionale a sistemi automatizzati senza adeguate salvaguardie.​

Matrix (1999)

Le macchine, dopo essere state sfruttate dagli esseri umani, si ribellano e creano una realtà simulata per controllare l’umanità. Il film esplora temi di controllo, realtà e libero arbitrio, mettendo in discussione la dipendenza umana dalla tecnologia.​

I, Robot (2004)

Basato sulle leggi della robotica di Asimov, il film mostra come un’interpretazione rigida delle regole da parte dell’IA possa portare a risultati imprevisti e pericolosi. Nella fattispecie il Robot cerca di acquisire diritti simili ad un essere umano e cerca di divenirlo in tutti i modi. Evidenzia l’importanza di una programmazione flessibile e dell’intervento umano.​

Mass Effect (Videogioco)

In questo celebre videogioco ambientato nello spazio, i Geth (dei robot controllati da una AI) si ribellano contro i loro creatori dopo aver sviluppato autocoscienza. Per preservare la propria esistenza cacciano letteralmente la razza che viveva nel loro pianeta e ne prendono possesso. Il gioco esplora le conseguenze dell’evoluzione dell’IA e le sfide etiche associate alla creazione di forme di vita artificiali.​

The Orville (Serie TV)

La serie presenta delle casistiche simili a Mass Effect. Le IA, trattate come inferiori, si ribellano contro gli esseri umani una volta sviluppata una sorta di superiorità. Sottolinea l’importanza del rispetto e dell’etica nel trattamento delle entità artificiali.​

Conclusione: controllare, regolare o temere l’IA?

Come possiamo concludere tutto questo? L’IA, sebbene non sia una minaccia autonoma al momento, presenta rischi significativi legati al suo utilizzo e alla sua integrazione nei sistemi critici.

Le principali minacce sono rappresentate da attacchi hacker, errori umani (di programmazione) ed errori informatici. Oltre che a quanto viene direttamente controllato dall’uomo e quando dalla macchina.

Il precedente citato episodio del blackout spagnolo che ha disattivato sia l’elettricità, sia l’internet, fa riflettere ulteriormente.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *