Roboetica

La roboetica è l'etica applicata alla robotica, dunque l'etica degli esseri umani che progettano, costruiscono e usano i robot.

Isaac Asimov, del quale cui ricorre quest'anno il centenario della nascita, nel 1942 definì le tre leggi della robotica.

Prima Legge: Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.

Seconda Legge: Un robot deve obbedire agli ordini impartiti dagli esseri umani, purchè tali ordini non vadano in contrasto alla Prima Legge.

Terza Legge: Un robot deve proteggere la propria esistenza, purchè la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.

  

Nel 1985, Asimov aggiunse una quarta legge, che precede per importanza tutte le altre, la Legge Zero: Un robot non può recare danno all'umanità, né può permettere che, a causa del proprio mancato intervento, l'umanità riceva danno.

All'inizio degli anni 20 del XXI secolo, la diffusione di vari e numerosi dispositivi dotati di intelligenza artificiale, capaci di prendere decisioni autonome, pone diversi interrogativi di ordine morale e legale.

In questa prospettiva nel 2017 il Parlamento europeo ha pubblicato una risoluzione recante raccomandazioni alla Commissione concernenti ’norme di diritto civile sulla robotica’(2015/2103(INL)).Il documento include il CODICE ETICO-DEONTOLOGICO DEGLI INGEGNERI ROBOTICI.

I ricercatori del settore della robotica dovrebbero impegnarsi a tenere un comportamento etico e deontologico quanto più rigoroso possibile e a rispettare i seguenti principi:

Vai al documento completo

Torna a home