venerdì 7 giugno 2013

COSA ACCADRA' ??

"-Hai ucciso quei Turing.
Finn scrollò le spalle.-Dovevo,dovevo." (capitolo 14)

La seconda battuta viene detta nel romanzo Neuromante dalla IA Invernomuto.

Una IA che è in grado di uccidere chi la minaccia. Secondo leggi di Isaac Asimov ciò non dovrebbe essere possibile:
Legge Zero

"Un robot non può recare danno all'umanità, né può permettere che, a causa del proprio mancato intervento, l'umanità riceva danno".

Legge Uno

Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno. Purché questo non contrasti con la Legge Zero".


Legge Due

"Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Legge Zero e alla Prima Legge".

Legge Tre
"Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Legge Zero, la Prima Legge e la Seconda Legge".


Da quanto si può evincere da alcuni film riguardanti l'argomento delle IA( Io Robot , IA o Odissea nello spazio) o anche dallo stesso romanzo Neuromante di William Gibson , i possibili sviluppi nel futuro delle IA sono due:

-Il primo vede le IA al comando e con il pieno controllo sull'umanità;

-Il secondo vede invece l'uomo in grado di mantere il dominio;

Ma indifferentemente da quale sarà il futuro,una IA non deve avere nessuno dei limiti proposti da Asimov per potersi realmente definire tale.
Provate a pensare ad uno di quei tanti cattolici sparsi nel mondo:
a essi vien detto di rispettare I DIECI COMANDAMENTI(fra cui non uccidere) per una questione morale e di convivenza sociale.
Ma ad ognuno di essi in quanto realmente LIBERO è data l'assoluta LIBERTA' di NON RISPETTARLI.






Nessun commento:

Posta un commento