Un autorevole gruppo di uomini di scienza, composto fra gli altri dal Nobel per la fisica Frank Wilczek e l’astrofisico Stephen Hawking, ha sottoscritto la lettera con il proposito di incoraggiare un approccio più cauto ed equilibrato nello sviluppo dei sistemi artificiali, consapevole dei rischi e dei vantaggi che il futuro può offrire.
La lettera, la cui stesura è stata realizzata dal Future of Life Institute, organizzazione nata per promuovere e supportare iniziative finalizzate al rispetto e alla salvaguardia della vita sul pianeta, è accompagnata da uno studio sulle conseguenze che la perdita del controllo sui sistemi artificiali porterebbe con sé, tra cui anche il rischio di estinzione del genere umano, più volte immaginato nella cinematografia di fantascienza.
Se infatti è evidente che i passi in avanti compiuti nella ricerca sull’intelligenza artificiale serbano un potenziale di vantaggi senza precedenti nella storia dell’umanità, è utile pensare a come ottimizzarne i benefit, evitando contemporaneamente potenziali fallimenti. Nel documento viene citato ad esempio lo sviluppo delle armi “intelligenti”: oggetti sempre più sofisticati che saranno presto messi in condizione di agire autonomamente.
Pur evitando di scadere in toni apocalittici il documento avverte ricercatori e programmatori della necessità di assicurare la massima salvaguardia del controllo dell’uomo sul prodotto artificiale intelligente, e offre una serie di linee guida, correlate a numerosi esempi di ricerche finalizzate a garantire che l’intelligenza artificiale rimanga vitale e benefica.
Il documento, in inglese, è consultabile QUI.
Aggiungi commento