Leggo un interessante articolo, apparso su wired a firma di Anna Lisa Bonfranceschi che riporto integralmente:
Si chiamerà
Centro per lo studio del rischio esistenziale ed è un progetto della
University of Cambridge che mette insieme filosofi, scienziati e un programmatore di software per discutere quanto gli sviluppi in materia di
tecnologia umana - dalla
vita sintetica alle
intelligenze artificiali
- possano essere pericolosi. Nel significato più profondo del termine,
ovvero se queste tecnologie, o gli effetti da esse derivanti, possano
mettere a
rischio la nostra stessa
esistenza.
“Il nostro obiettivo”, scrivono infatti da Cambridge:
“è indirizzare una piccola frazione delle grandi risorse
intellettuali di Cambridge e della reputazione costruita sul suo passato
e sull’attuale preminenza scientifica, nel compito di assicurare che la
nostra specie abbia un futuro a lungo termine”. Perché, come spiega
Huw Price, filosofo a Cambridge, sull’
Huffington Post,
è probabile che in futuro
“non saremo più le cose più intelligenti che ci circondano” e potremmo arrivare a dipendere da
“macchine che sebbene non maligne non tengano in conto i nostri interessi”.
Il riferimento in questo caso è soprattutto a un campo in particolare, quello dell’
intelligenza artificiale, a cervelli del genere di
Hal, il famoso computer di
2001: Odissea nello Spazio.
"Il rischio - continua il filosofo, che insieme all’astrofisico
Martin Rees e
Jann Tallinn (co-fondatore di Skype) lavora al progetto del centro, che dovrebbe decollare il prossimo anno -
potrebbe sembrare quasi elusivo, sfuggente da comprendere e prevedere, ma più reale di quanto si creda".
Quello che le macchine potrebbero fare in futuro non è in fondo
molto diverso da quanto ha fatto la specie umana con il resto del regno
animale, continua Price. Vale a dire operare senza tenere conto degli
effetti che le sue azioni hanno sul resto del sistema. Così come gli
uomini hanno messo a rischio la sopravvivenza degli animali sfruttando
le risorse da cui questi dipendono, potrebbe accadere lo stesso con i
computer e la
specie umana.
Nessun commento:
Posta un commento