Valoración del Usuario:  / 2
MaloBueno 
Escrito por Javier Nisa AVila - Lexnos Categoría: Tecnología Legal
Fecha de Publicación Visitas: 2531
Imprimir

alphadog darpa

Las cuatro leyes de la robótica

      1. Ley Cero: Un robot no puede hacer daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño.
      2. Un  humano no puede emplear un robot sin conocer las normas legales y profesionales de seguridad y ética robot del sistema de funcionamiento humano-robot
      3. Un robot debe responder a los seres humanos de manera apropiada a sus funciones
      4. Un  robot debe estar dotado de suficiente autonomía para proteger su propia  existencia siempre y cuando no entre en conflicto con las leyes anteriores

Estas cuatro leyes revisadas hace algunos años, serán dentro de unos pocos años las más leídas, comentadas y debatidas en muchos órganos públicos y entidades privadas.

 

Vamos a analizar las cuatro leyes desde un punto de vista jurídico:

 

Ley Cero: Un robot no puede hacer daño a la humanidad o, por inacción, permitir que la humanidad sufra daño.

 

Para empezar vamos a tratar a los robots como entidades de inteligencia artificial o IA, mejor IA debido a que es un concepto más amplio que la imagen gráfica que nos podemos hacer al hablar de robots. Las entidades de IA son entidades que derivado de su alto conocimiento son capaces de procesar órdenes complejas de forma autónomo o no autónoma, con una ejecución similar o idéntica a la que cualquier humano podría tomar, teniendo incluso capacidades de decisión propias.

 

La ley cero implica que cualquier sistema de IA no puede realizar ningún tipo de acción física o psíquica que dañe a cualquier persona bien activamente o de forma pasiva. Que implica ello? Pues que la utilización de entidades autónomas o no autónomas no puede conllevar que se utilicen o ellos tomen decisiones que provoquen daño alguno a un ser humano.

 

Antes de seguir desglosando esta ley cero vamos a definir una entidad de IA autónoma y no autónoma. Una entidad de IA autónoma es aquella que sin necesidad de intervención previa por parte de ningún humano es capaz de tomar cualquier tipo de decisión en base a una capacidad de razonamiento igual o superior a la humana. Una entidad de IA no autónoma es aquella con capacidades similares a las de los humanos, pero que han sido programados y fabricados para la realización de tareas específicas para las cuales necesitan de un humano que le diga que la realice o que le asista o el humano sea el que de la ignición de inicio para ejecutar su tarea; las entidades de IA no autónomas pueden tener una baja capacidad de libre albedrío debido a que están programados de forma más mecánica para una o varias tareas preasignadas e inalterables.

 

Una vez dicho esto podemos empezar a desglosar mas la Ley cero. Para empezar en cualquier desarrollo o fabricación de una entidad de IA debe existir una regulación legal que la regule en todos sus aspectos, debido a que va a ser un sistema que interactúe con seres humanos con capacidades similares y por lo tanto un peligro potencial. Para ello dependiendo de la materia es verdad que existirán determinadas especificaciones que no contendrán otros sectores de desarrollo o fabricación pero existirán siempre una serie de normas básicas de fabricación, programación e interactuación comunes a sistemas IA autónomos y no autónomos. Estas serán las normas básicas de convivencia, que no sólo serán estas cuatro leyes como conceptos básicos sino una serie de normas de convivencia, no agresión, respeto mutuo, no violencia...este tipo de normas o órdenes inherentes a su labor preasignada o su libre albedrío total serán definidas por Ley e irán inyectadas en su memoria ROM primaria por una entidad gubernamental o una entidad certificadora de forma que jamás bajo ninguna circunstancia pueda ser modificada sino es por legislación, y sin posibilidad de acceso para el propio sistema de IA ni para nadie distinto al fabricante en plataformas específicas de modificación primarias.

 

Estas tareas serán las que definen la Ley cero y por lo tanto la que generan la base de convivencia que dicha ley propugna.

 

Para ello se deben generar una serie de leyes específicas en tecnología legal de Inteligencia Artificial Avanzada, en la que se esté constantemente actualizando los requisitos legales de fabricación, requisitos para los desarrollos de software en materia de seguridad, calidad de piezas, sistemas de actualización...todo ello con supervisión de entidades gubernamentales.

 

La Ley Cero en el futuro deberá ser un compendio de legislación que regule al completo cualquier punto o aspecto de las entidades de IA no sólo como máquinas a nivel de sistemas de calidad y prevención de posibles efectos sobre la salud humana derivados de su fabricación, sino a nivel de desarrollo interno sobre la programación de las capacidades del sistema de IA, en la cual el legislador tendrá que analizar de forma minuciosa cualquier tipo de interactuación posible para ser regulada de forma genérica. Asimismo se debe establecer un sistema de programación sobre una estructura igual para cualquier fabricante el cual se desarrolle por parte del estado y sus entidades gubernamentales y sean supervisadas por un organismo de seguridad específico para poder encontrar posibles fallas de seguridad sobre estas entidades artificiales y sean corregidas.

Este sistema operativo común se construirá en base a la legislación tecnológica específica que se genere por parte del estado.

Por otro lado el principal tema a legislar también, serán los posibles efectos penales o civiles en los que pueden incurrir la entidades de inteligencia artificial.3

Como esquema legal a desarrollar y leyes y medidas básicas a implantar en la ROM de forma obligatoria a los sistemas de Inteligencia Artificial son las siguientes:

 

Legislación a desarrollar

 

      • Regulación de la fabricación de sistemas de IA autónomos y no autónomos

      • Normativas de Calidad

      • Riesgos a la salud humana

      • Normativa legal en materia penal y civil derivados de defectos de fabricación o construcción o por conductas dolosas o negiglentes para fabricantes o programadores

      • Normativa Penal y civil para los sistemas de IA

      • Limitaciones de construcción y/o diseño

      • Limitaciones de utilización de entidades IA para determinados sectores (militar,...)

      • ...

 

ROM:

 

    • Normas Penales

    • Normas Civiles

    • Prohibiciones

    • Sistemas de comportamiento

    • Imposibilidad de agresividad

    • Prelación de normas de supervivencia y asistencia entre humanos-robots-humanos

    • Sistemas de defensa no agresiva

    • Sistemas de ataque no agresivo

    • Imposibilidad de reprogramación

    • Imposibilidad de lesiones a humanos

    • Aprendizaje semicognitivo

    • Imposibilidad de generar odio

    • Imposibilidad de generar empatia

    • Acatamiento estricto de órdenes con cumplimiento de la prelación normativa.

    • Apagado automático en caso de exigencias antirreglamentarias

    • Imposibilidad de utilización de cualquier tipo de arma o de fuerza sobre las cosas o sobre humanos o sobre otras entidades de IA

    • Imposibilidad de autoreprogramación

    • Imposibilidad de construcción de otras entidades de IA físicas o virtualizadas.

 

Todas estas medidas citadas a modo de ejemplo deben encontrarse reguladas por Ley, supervisadas por órganos gubernamentales y actualizándose entorno a los nuevos avances tecnológicos.

 

En próximos artículos desarrollaremos la Ley 2 vinculándola con la Ley cero.


Powered by udjamaflip.com
| + - | RTL - LTR