E se i robot si ribellassero all'uomo? Google ha pronto un "tasto rosso"

07 giugno 2016 ore 9:26, Adriano Scianca
Le macchine che diventano “troppo” intelligenti e finiscono per ribellarsi all'uomo: lo scenario fantascientifico da cui traggono spunto saghe come quella di Terminator sembra essere preso molto sul serio in casa Google, che starebbe pensando a un “pulsante rosso” da schiacciare in caso di emergenza. Nel caso in cui, cioè, le macchine decidessero di giocarci qualche brutto scherzo.

E se i robot si ribellassero all'uomo? Google ha pronto un 'tasto rosso'
Il sistema è oggetto di uno studio condotto da DeepMind di Google (il cui software è finito sotto i riflettori per aver battuto l'uomo al gioco Go) e dall'Università di Oxford, ed è pubblicato sul sito del Machine Intelligence Research Institute dell'università californiana di Berkeley. Lo studio si innesta in un momento storico di forti investimenti da parte della Silicon Valley sull'intelligenza artificiale (AI). I ricercatori affermano di aver creato una sorta di "pulsante rosso" che non solo è in grado di "arrestare" le azioni di una intelligenza artificiale ma anche di impedire che un sistema troppo sviluppato possa capire e aggirare questa interruzione. Tuttavia non è ancora chiaro, spiegano gli scienziati al sito Business Insider, "se tutti i tipi di algoritmo possano essere 'interrotti' facilmente e in modo sicuro". I ricercatori stanno ragionando sul fatto che un agente AI possa evolversi anche in modo pericoloso o controproducente per l'essere umano. Lo studio sarà illustrato alla Conference on Uncertainty in Artificial Intelligence (UAI) in agenda a New York a fine giugno.
Si tratta, insomma, di un modo per rendere certa l'esecuzione delle tre leggi della robotica formulate da Asimov, che recitavano: 

“1. Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge”.
caricamento in corso...
caricamento in corso...
[Template ADV/Publy/article_bottom_right not found]