letto da: 238
0 0
Tempo lettura articolo:3 Minuti, 4 Secondi
«L’intelligenza artificiale potrebbe essere il peggior errore dell’umanità». A scrivere la lapidaria affermazione è il fisico Stephen Hawking in un intervento pubblicato sull’Indipendent. Il ricercatori mette in guardia sui rischi e i pericoli che si celano dietro lo sviluppo delle macchine intelligenti.
 

La creazione dell’Intelligenza Artificiale potrebbe essere il più grande evento nella storia umana, ma anche il più grande errore.

Numerose pellicole di fantascienza hanno fantasticato sulla possibile ribellione delle macchine intelligenti: film come Matrix e Terminator hanno immaginato un futuro dove non sono più le macchine a servire l’uomo, ma l’uomo a servire le macchine.

Negli ultimi tempi, sempre più spesso, il tema comincia ad essere argomento di discussione non solo tra gli appassionati di fantascienza, ma anche tra eminenti scienziati, sempre più preoccupati che l’autonomia decisionale delle macchine dotate di Intelligenza Artificiale possa in futuro mettere in pericolo l’intero genere umano.

L’ultimo ad intervenire sull’argomento è stato il famoso fisico Stephen Hawking, il quale, in un intervento pubblicato sull’Indipendent, mette in guardia sui potenziali rischi dello sviluppo dell’Intelligenza Artificiale.

“L’Intelligenza Artificiale sarebbe il più grande evento nella storia umana, ma potrebbe essere anche l’ultimo, se non pensiamo a come evitare i rischi”, scrive il fisico premio Nobel. Lo spunto per la riflessione nasce dall’imminente uscita del nuovo film con Jonny Depp “xxx”, nel quale si esplora un mondo dove i computer superano le capacità degli esseri umani.

L’IA, nascosta sotto le mentite spoglie di auto che guidano da sole e da computer che dialogano con l’uomo, sta guadagnando terreno giorno dopo giorno. Secondo Hawking, la progressiva introduzione di questa tecnologia mette l’umanità di fronte ad un futuro incerto. Cosa accadrebbe se queste macchine cominciassero a prendere decisioni in autonomia contro l’uomo? Potrebbe significare la fine dell’umanità?

Hawking definisce lo sviluppo di alcuni programmi intelligenti come Siri, Google xx e Cortana come il sintomo di una corsa agli armamenti informatici che rappresentano un pallido esempio di quello che succederà nei prossimi decenni. Accanto alle grandi potenzialità offerte dallo sviluppo di queste tecnologie, non si possono e non si devono escludere i potenziali rischi.

“Guardando in avanti, non ci sono limiti fondamentali a ciò che può essere raggiunto” scrive il premio Nobel. “Non c’è nessuna legge fisica che precluda di organizzare le particelle in modo da eseguire calcoli in maniera più complessa di quanto non avvenga nel cervello umano”.

IBM ha già sviluppato chip intelligenti che potrebbero aprire la strada allo sviluppo di reti neurali che imitano la capacità del cervello per la percezione, l’azione e il pensiero.

Un giorno non troppo lontano, gli scienziati informatici saranno in grado di sviluppare una macchina con un cervello più intelligente di quello umano.

Unito a questo, bisogna considerare che le forze armate di tutto il mondo stanno cominciando a sviluppare sistemi d’arma autonomi, mentre le Nazioni Unite stanno facendo lo sforzo contrario per vietarle. Un Intelligenza Artificiale Armata è il peggior incubo che l’umanità potrebbe vivere nel suo immediato futuro.

 

Il professor Hawking scrive, inoltre, che gli esperti non sono preparati per questo tipo di scenari. Per fare un confronto, è come se gli alieni ci avvisassero del loro arrivo nel giro di pochi decenni e gli scienziati non facessero altro che sedersi in attesa del loro arrivo.

“Sebbene ci troviamo di fronte a qualcosa che potrà migliorare o peggiorare la condizione dell’umanità, c’è ancora poca ricerca seria dedicata a queste tematiche. Tutti noi dovremmo chiederci cosa possiamo fare per migliorare le possibilità di sfruttare i vantaggi di questa nuova tecnologie ed evitarne i rischi”, conclude Hawking.[fonte]

Lascia un commento