Si hubiese que actualizar las Leyes de la robótica de Asimov, ¿cómo las diseñaríamos ahora?

Recordemos que las tres leyes son:

  1. Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.

A éstas se añadiría una Ley Cero, que daba mayor libertad a los robots a la hora de actuar a largo plazo.

0. Un robot no hará daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño.

Supongo que a día de hoy estas leyes son válidas, pero quizás deberíamos ir pensando en un conjunto de leyes que las complementen, o las sustituyan, ahora que empezamos a comprender la potencia de la inteligencia artificial.

Muchos científicos y futuristas advierten del peligro de dejar que se desarrolle una IA sin control, sin que sus objetivos estén alineados con los nuestros, o de que incluso lleguemos a dotar de inteligencia a drones armados.

Así que supongo que va siendo hora de actualizar las 3 Leyes para prepararnos para un nuevo futuro.

bigdata_1 lkuhsrghdsnhgnspth

Anuncios