Valoración del Usuario:  / 1
MaloBueno 
Escrito por Super User Categoría: Tecnología Legal
Fecha de Publicación Visitas: 1157
Imprimir

Inteligencia artificial y ley

 

Continuando con nuestro análisis de las cuatro leyes de la robótica; vamos a analizar hoy la ley 2 de la robótica en vinculación con la ley cero. Esta ley 2 nos dice que “Un humano no puede emplear un robot sin conocer las normas legales y profesionales de seguridad y ética robot del sistema de funcionamiento humano-robot “

 

Vamos a empezar con una definición del tipo jurídico de esta ley 2.

 

- El desconocimiento de la legislación no exime del cumplimiento de la misma

- Se requiere de un mínimo de conocimientos para el empleo de sistemas o entidades de inteligencia artificial

- Imposibilidad o prohibición de utilización en caso de desconocimiento.

 

¿¿Todo ello que implica?? Pues significa que cualquier entidad humana que desee utilizar una entidad de inteligencia artificial necesita poder acreditar unos conocimientos mínimos del funcionamiento completo de dicha IA en el campo de su utilización. Es decir, se necesita de una autorización administrativa que vincule directamente una IA con una persona física, de forma que pueda localizarse a efectos de responsabilidad a la entidad controlante o supervisora del sistema de IA.

 

Por lo tanto si no se tiene esa autorización administrativa no se puede utilizar la IA afectada. Por todo ello desconocer de la necesidad de autorización no significa que se pueda utilizar bajo pena de infracción administrativa, sino que no se puede utilizar y de echo se bloquearán los sistemas.

 

Todo ello podemos traducirlo dentro del sistema de procesos tecnológicos a varios estamentos de programación procedimental tecnolegal, es decir, teniendo en cuenta las restricciones a imponer según la Ley 2 y su desglose que hemos echo, deberá programarse el sistema de IA para que requiera determinadas condiciones para su utilización.

 

Para ello dividiremos el sistema de IA en dos zonas como se ha indicado anteriormente ROM y memoria programable.

 

Los procesos tecnolegales que se deberán inyectar en ROM deberán ser los que a continuación indiquemos. Estos procesos implican que en caso de no cumplir con los condicionantes que permitan entender como cumplida la Ley 2 el sistema de IA no arrancará y no funcionará puesto que será la Ley 2 la primera ley observable que deberá tener en cuenta el IA para iniciar su funcionamiento o no. una vez observadas las condiciones de la Ley 2 y su cumplimiento. Entonces arrancará el sistema de IA y el resto de las tres leyes iniciarán su procedimiento combinado que irá supervisando continuamente su correcto funcionamiento.

 

Los condicionantes legales derivados de la Ley 2 y necesariamente inyectados en ROM por una entidad gubernamental son:

 

- Reconocimiento por sistemas biométricos de la identificación del operador físico que pretende arrancar el IA

- Verificación de existencia de autorización de utilización de IA emitida por entidad autorizada.

- Cruce de arranque de IA, emitiendo una señal de que la maquina IA se encuentra activada por el operador físico que se ha identificado previamente.

 

 

Si al iniciar la verificación de la existencia de autorización de IA carece de la misma o existe alguna irregularidad que implica el bloqueo de la unidad de IA, se emitirá una señal con las medidas que identifiquen al operador en caso de necesidad para futuras investigaciones por uso irregular de entidades de inteligencia artificial.

 

Si por el contrario se verifica correctamente la existencia de autorización del operador físico. Se iniciaría el sistema de IA y se iniciarían una serie de comprobaciones permanentes entre las ordenes dadas al IA por el operador y el resto de las leyes de robótica.

 

En este caso vamos a analizar una vez introducido el tema; la interacción entre la Ley 0 y la Ley 2.

 

Todo sistema de IA debe tener una serie de normas inyectadas en su ROM que por mucho que el operador, las infrinja de forma involuntaria o intencional, nunca deben ser obedecidas por el terminal IA. Esta normativa de IA existe de forma previa al operador físico.

 

Aunque un operador físico mande orden de realizar daño a otro humano, el sistema de IA paralizará la orden, apagará sus sistemas y remitirá parte de los sucedido a la entidad supervisora, de la misma forma que si un humano pretende por inacción de su IA que sufra daño de forma intencionada otra persona, también apagará sus sistemas y remitirá parte de los sucedido a la entidad supervisora.

 

Es decir nunca las ordenes que un operador mande a su IA o a una IA pueden por desconocimiento o por intención violar la normativa legal, de seguridad o ética de los sistemas. Todo ello gracias a la capacidad inherente de normas en ROM que deben tener asociadas a la LEY CERO que es el pilar básico de toda IA; y que como hemos visto en anteriores artículos y a modo de recordatorio cito, eran entre otras:

 

ROM

    • Normas Penales

    • Normas Civiles

    • Prohibiciones

    • Sistemas de comportamiento

    • Imposibilidad de agresividad

    • Prelación de normas de supervivencia y asistencia entre humanos-robots-humanos

    • Sistemas de defensa no agresiva

    • Sistemas de ataque no agresivo

    • Imposibilidad de reprogramación

    • Imposibilidad de lesiones a humanos

    • Aprendizaje semicognitivo

    • Imposibilidad de generar odio

    • Imposibilidad de generar empatia

    • Acatamiento estricto de órdenes con cumplimiento de la prelación normativa.

    • Apagado automático en caso de exigencias antirreglamentarias

    • Imposibilidad de utilización de cualquier tipo de arma o de fuerza sobre las cosas o sobre humanos o sobre otras entidades de IA

    • Imposibilidad de autoreprogramación

    • Imposibilidad de construcción de otras entidades de IA físicas o virtualizadas.

 

En próximos artículos analizaremos la Ley 3 de forma individual y en conjunto con la Ley cero y la Ley 2.


Powered by udjamaflip.com
| + - | RTL - LTR