Central Telefónica
WhatsApp
Consultas / Soporte
Aula Virtual
Noticias
06 de Julio del 2024

Inteligencia artificial y responsabilidad penal

Inteligencia artificial y responsabilidad penal

Inteligencia artificial y responsabilidad penal

 

1. Inteligencia, inteligencia artificial y otros conceptos

 I. No es objeto de este trabajo definir qué es la inteligencia, ni siquiera posicionarse sobre ello. Entre otras razones porque el concepto de inteligencia, como característica propia del género humano, dista mucho de ser pacífico, tanto en cuanto a su contenido (¿qué es la inteligencia?) como a su extensión (¿solo son inteligentes los humanos?). No obstante, y con independencia de las dificultades para definir el concepto de inteligencia (natural), a efectos de nuestro trabajo, y con carácter preliminar, definiremos la inteligencia a partir de las siguientes habilidades básicas: 1) capacidad para recibir información, 2) capacidad para entender la información recibida —entendiendo por tal la capacidad para hacer utilizable por el agente, en el contexto y en función de objetivos, la información recibida—, 3) capacidad para almacenar la información recibida, 4) capacidad para utilizar la información obtenida y procesada mediante las habilidades anteriores en la resolución de problemas y 5) capacidad para tomar decisiones. En este trabajo designaremos a estas habilidades como habilidades de la inteligencia. En la capacidad para recibir información incluiremos la capacidad para comunicarse con otros agentes inteligentes en la medida en que primaremos la obtención de la información en la comunicación sobre otras posibles funciones.

Vaya por delante que en este trabajo no se pretende definir la inteligencia artificial, concepto que forzosamente ha de ser gradual, entendiendo, al menos por tal, la que es “mayor que cero”. Ahora bien, sí interesa al jurista precisar cuándo o con qué grado de inteligencia se supera el “umbral de responsabilidad”, entendiendo por tal aquel en el que el agente artificial puede ser hecho responsable de sus decisiones.

II. El concepto de inteligencia artificial hace referencia tanto a una rama de la ciencia de la computación que trata de diseñar agentes artificiales inteligentes como a la inteligencia de tales agentes. Aunque se ha admitido que un agente inteligente artificial es aquel que es capaz de evaluar las circunstancias y condiciones de su entorno para adoptar decisiones que maximizan sus posibilidades de éxito (Poole, Mackworth, Goebel, 1998).

En este contexto, una decisión racional será aquella no programada que se adopta utilizando la información recibida en función de objetivos o fines, teniendo en cuenta sus condicionamientos previos. Condicionamientos previos serán tanto el software, que podría determinar las habilidades de la inteligencia, el ámbito de actuación y los objetivos del agente, entre otros, así como el hardware, su cuerpo físico, que forzosamente limita su capacidad de actuación. A estos efectos, y con independencia de este último factor —hardware—, la inteligencia no es absoluta, sino graduable.

La calificación como racional de una decisión implica que es adecuada o funcional, que está orientada a objetivos o fines predeterminados. A nuestros efectos, un objetivo marcará la producción de un resultado concreto y predeterminado, de configuración fija y estable (por ejemplo: arar la finca “F” de perímetro delimitado y características físicas concretas o resolver un problema matemático concreto). Un fin será aquel que determina una valoración positiva y propone un modelo a alcanzar en un conjunto de actuaciones (por ejemplo: bajar el nivel de la temperatura del agua, evitar choques frontales en vuelos, etc.). Los objetivos están orientados a fines, pero tanto la obtención de fines como la obtención de objetivos pueden exigir el diseño de estrategias.

El fin preseleccionado orienta la actuación del agente inteligente a partir de valores, que convierten el fin en algo valorable como positivo o negativo. En este sentido, tiende a presumirse que los fines son buenos y calificarse de irracional la conducta que no tiende a ellos. De ahí la necesidad de determinar, de la forma más objetiva y desvalorada posible, el fin (u objetivo) que en el caso concreto persigue directamente el agente con su conducta para poder afirmar si la conducta es racional o no —de forma independiente a la valoración positiva o negativa que se realice de dicho fin u objetivo—.

Una decisión autónoma será la que se adopta por propio el agente, que es capaz de dirigir su comportamiento o el de otros con su decisión. En una primera acepción, autonomía hace referencia a la capacidad de actuación sin intervenciones externas o, en este caso, humanas. Sin embargo, quizá sea conveniente utilizar (o construir) un concepto normativo de autonomía que haga referencia a la posibilidad de definir las propias relaciones o la propia conducta (en paralelo con lo que en derecho sería la autonomía de la voluntad). Esta precisión tiene como objeto excluir del concepto de conducta autónoma la del autómata que para realizar su tarea no requiere apoyo externo.

La autonomía de la decisión, así entendida, hace referencia a la opción por una conducta en concreto entre una o varias alternativas de conductas posibles, pero, en principio, no hace referencia a la autonomía en la decisión de los fines o los objetivos, aunque cabe también una decisión autónoma sobre fines u objetivos, por supuesto. Pero de momento, y dado el estado de la ciencia, cuando nos refiramos a decisiones autónomas estaremos haciendo referencia a autonomía en cuanto a la conducta o comportamiento más adecuado a un fin u objetivo, excluyendo la autonomía de la decisión sobre el fin o el objetivo. Con ello estamos limitando el análisis a problemas en los que los fines u objetivos han sido fijados de forma externa al agente artificial inteligente y, como consecuencia, se implica a una persona (o a varias) en la toma de decisiones — dado que los fines u objetivos condicionan la decisión racional y autónoma del agente— y, con ello, se le hace responder también por las consecuencias de los actos del agente artificial. La medida de tal responsabilidad y los títulos en los que se fundamenta deberán ser objeto de estudio y concreción, pero no excluirá y podrá verse afectada, al menos en el ámbito teórico y de momento, la responsabilidad del agente artificial por su propia decisión. Habrá que dilucidar, en este punto, cuándo el agente artificial deja de ser un mero instrumento (en el sentido jurídico-penal del término) para dar paso a nuevas formas de autoría distintas a una, mutatis mutandis, autoría mediata clásica.

Por ejemplo, un robot para el control de fronteras que tiene la orden de disparar cada vez que detecte en una franja de tierra a personas en movimiento es autónomo, en el sentido de que puede actuar sin intervención externa, pero no es inteligente. La autonomía relacionada con la inteligencia es aquella que permite decidir al robot qué debe hacer según las circunstancias, con la posibilidad, incluso, de adoptar comportamientos que no han sido predeterminados en su software. Esta autonomía, que abriría el paso a la responsabilidad, es la derivada de la libertad de decisión como concepto contrario al de necesidad de decisión.

III. En la actualidad existen ya agentes artificiales inteligentes que adoptan decisiones de comportamiento para la consecución de objetivos, en función de fines predeterminados y en atención a las circunstancias. Estas decisiones son autónomas, lo que significa que no dependen de la autorización o control —individualizado para cada conducta— de una persona y pueden dar lugar a consecuencias que, de deberse a una conducta humana, podrían acarrear responsabilidad civil e incluso penal y que, desde luego, son admitidas como válidas y plenamente eficaces en el tráfico jurídico.

Este tipo de agentes inteligentes que adoptan decisiones y aprenden de su propia “experiencia” son comunes no solo en el ámbito industrial, sino incluso en el cotidiano de los ordenadores personales, donde cada vez más programas “aprenden” de las instrucciones y correcciones que van recibiendo —caso, por ejemplo, de los diccionarios y autocorrección en los procesadores de texto—. Bien es verdad que estos agentes inteligentes, en la actualidad, limitan su capacidad de actuación y aprendizaje a un número reducido de tareas, cuando no a una tarea única, si bien, un objetivo cercano es diseñar protocolos de comunicación que permitan dialogar a distintos agentes inteligentes, bien que sean idénticos o con la misma función, bien con distintas funciones en un proceso industrial o de otro tipo. La inteligencia artificial, en este momento tecnológico, trata de consolidar la comunicación entre agentes inteligentes y la inteligencia artificial general —que trata de reproducir o imitar la inteligencia humana y con ello su libertad (entendida como posibilidad de decidir entre diversas alternativas)—, es un reto aún no al alcance de la mano).

IV. La aparición de agentes artificiales inteligentes que pueden decidir autónomamente ejecutar —o hace ejecutar a otros— acciones u omisiones parcialmente predeterminadas (las decisiones) por los fines (Balke/ Eimann, 2008) u objetivos marcados, que son capaces de aprender y, a partir de ese aprendizaje, también autónomo, configurar de nuevo parcialmente, nuevas estrategias y adoptar ciertas decisiones directamente derivadas de su aprendizaje o condicionadas por este, y que, como consecuencia, pueden llegar a realizar conductas socialmente significativas, abre un complejo campo de estudio y plantea numerosas cuestiones —de toda índole pero muchas con trascendencia jurídica— que, sin duda, se irán dilucidando a medida que dichos agentes artificiales inteligentes vayan desarrollando actuaciones (comportamientos) que impliquen a terceros. Algunas novedades normativas, sin embargo, ya se han ido produciendo en los ordenamientos comparados y, específicamente, en el nuestro.

A) Ejemplo de ello es el Real Decreto-Ley 8/2014, de 4 de julio, de aprobación de medidas urgentes para el crecimiento, la competitividad y la eficiencia (corrección de errores publicadas en el Boletín Oficial del Estado —boe— 167 de 10 de julio), que entre medidas de muy diversa índole regula en España el uso de rpa (por sus siglas en inglés, Remotely Piloted Aircaft) o uav (por sus siglas en inglés, Unmanned Aerial Vehicle), los drones (Diez de la Cuesta, 2008).

En general, se utiliza tanto el término dron —en español, preferido en Internet— como drone —en inglés literalmente “zángano”—. La rae ha acogido ya el término en español dron para designar “aeronaves no tripuladas”. En plural, drones, es utilizado por el citado en la Exposición de Motivos del Real Decreto-Ley 8/2014, de 4 de julio, para referirse a vehículos aéreos no tripulados —rpas (por sus siglas en inglés, Remotely Piloted Aircaft) o uavs (por sus siglas en inglés, Unmanned Aerial Vehicle)— con forma de aeronave.

El Real Decreto-Ley define a los drones como “aeronaves civiles pilotadas por control remoto” —excluyendo, por tanto, a aquellos drones que vuelan de forma autónoma, una vez definidos el punto de despegue y de aterrizaje— y autoriza su uso cuando su peso es inferior a los 150 Kg o, aún con peso superior, si están destinados “a la realización de actividades de lucha contra incendios y búsqueda y salvamento, dado que, en general, el resto estarían sujetas a la normativa de la Unión Europea”. Con independencia de otras cuestiones, entre ellas el propio concepto de dron o uav, esta norma se destina a regular las condiciones de uso de las máquinas (cuya regulación más concreta remite a un reglamento) y atribuye la responsabilidad por daños causados por la operación o la aeronave, así como la eventual responsabilidad frente a la Administración Pública por incumplimiento de la normativa aplicable, al operador “que es, en todo caso, el responsable de la aeronave y de la operación” (art. 50 rdl 8/2014, de 4 de julio). Como consecuencia, se plantean tres posibles modalidades de responsabilidad penal:

• Responsabilidad personal por acciones o daños u otros resultados típicos, cuando la aeronave actúe bajo control de una persona.

• Responsabilidad personal por acciones o daños u otros resultados típicos, cuando la aeronave actúe dirigida por una persona, pero en la decisión en concreto hayan intervenido factores ajenos a la persona que dirige, que desarrolla el software u otras.

• Responsabilidad personal por acciones o daños u otros resultados típicos, cuando la aeronave actúe autónomamente, en este caso, con dos subvariantes:

- como consecuencia de errores, déficits o deficiencias de cualquier tipo en el software que establece fines, objetivos, límites y condiciones que incidieron en la toma de decisiones;

- subsidiariamente, cuando no concurriere el supuesto anterior, por la decisión autónoma y derivada del propio aprendizaje de la aeronave.

B) En un ámbito completamente distinto, pero con problemas no tan alejados, aunque con una trascendencia mayor, en principio, en el ámbito mercantil (pero como consecuencia eventualmente también penal, en este caso por delitos contra el patrimonio, revelación de datos protegidos, delitos contra los derechos económicos de los consumidores, etc.), agentes artificiales gestionan las páginas web de bancos online a través de las cuales se puede realizar todo tipo de operaciones, incluso de alto riesgo: transferencias, depósitos, contratación de deuda pública, adquisición de acciones o derivados y un largo etcétera de operaciones bancarias y bursátiles. Al margen de otras cuestiones, el agente artificial que interacciona con los clientes (consumidores) adopta decisiones con trascendencia jurídica (acepta depósitos a determinado interés, realiza transferencias, gestiona pagos o presenta declaraciones a modo de intermediario ante organismos públicos y, por supuesto, detrae comisiones, calcula y paga (o no) intereses, etc.). Aquí también será preciso analizar, como en el supuesto anterior, las distintas modalidades posibles de responsabilidad personal como consecuencia de decisiones adoptadas autónomamente por el agente artificial.

C) Finalmente, en octubre de 2018, los periódicos internacionales se hicieron eco de algunos intentos de determinar “los comportamientos morales” que debían adoptar los coches autónomos en caso de riesgo para las personas. La cuestión, planteada desde el desconocimiento del derecho, como una cuestión moral, es un problema de estado de necesidad: en caso de que el coche autónomo tenga que decidir entre matar a A o a B, ¿cómo debe actuar? Se procedió a encuestar a un alto número de personas que dijeron lo que, efectivamente, tuvieron a bien. Y quiero pensar que con ello se trató de hacer llegar a la sociedad la certeza de que estos vehículos también pueden matar. Porque lo contrario, es decir, creer que con una encuesta van a resolver un problema tan antiguo como el de la Tabla de Carnéades, sería terrible para la especie humana.

Pues bien, con todo ello, quiero poner de manifiesto cómo la implementación de tecnología inteligente va a implicar, también, al derecho penal de una forma, además, probablemente más profunda de lo que, en un principio, podría parecer.

2. Mandatos, prohibiciones y código

I. El derecho penal, como rama del ordenamiento jurídico, tiene entre sus funciones principales, por un lado, fijar normativamente conductas (y en tal sentido, como ciencia, es una ciencia normativa) y, por otro, imputar delitos y exigir responsabilidad. Desde esta perspectiva, el derecho penal tiene como objetivo establecer pautas de conducta correctas o, en términos jurídicos, acordes con las previsiones normativas (desde la perspectiva de protección de bienes jurídicos y con los límites materiales y formales enunciados por la ciencia penal), y diseñar consecuencias jurídicas —sancionadoras o preventivas— a imponer cuando se infrinja la norma que establece la pauta de conducta —o dicho de otro modo: cuando la conducta individual se aparte de la pauta diseñada normativamente—.

Con todas las salvedades que tan esquemática y focalizada exposición implica, conviene recordar y resaltar precisamente estas funciones del derecho y la ciencia penal, que son de trascendental importancia para este discurso. Por un lado, porque si entes inteligentes artificiales interactúan con la sociedad o personas —o cuando lo hagan— pueden, con su comportamiento, lesionar o poner en peligro bienes jurídicos, lo que exige reflexionar sobre el segundo aspecto anteriormente enunciado: la exigencia de responsabilidad penal (en el sentido más amplio del término).

Pero, por otro lado, en cuanto que ciencia normativa, cuyo objeto son normas (jurídicas, pero normas), las aportaciones de la dogmática penal pueden muy bien ser utilizables en el ámbito tecnológico. Y me explico: si los entes artificiales inteligentes actúan o realizan comportamientos con significado social, su comportamiento y actuación habrán de adecuarse a normas. Esta adecuación normativa del comportamiento tiene aún un doble aspecto; o mejor: implica normas funcionalmente distintas.

Así, y en el ámbito estrictamente tecnológico, será preciso diseñar pautas de comportamiento que predeterminen qué tiene que hacer el ente inteligente artificial. Estas (pautas), dependiendo de las habilidades y estado de la técnica, funciones encomendadas, etc., pueden ser muy complejas y serán las que se incorporarán al software como instrucciones u órdenes de actuación. Entre estas pautas de conducta habrá algunas que no tendrán por objeto exclusivo la determinación de la actuación del agente para la directa y simple consecución de un objetivo, sino que junto a estas —órdenes directas— será necesario incluir otras pautas de conducta que indiquen cómo actuar ante eventuales cambios de circunstancias. La complejidad de dichas órdenes, instrucciones o comandos que contengan pautas de conducta se incrementará exponencialmente en función de la capacidad de actuación del ente, y, cuando la capacidad de actuación implique muy diversos factores, las órdenes deberán incluir excepciones.

En este sentido, el software contiene un conjunto de instrucciones —código de instrucciones— que posibilita y (pre)determina el comportamiento del agente (si bien, cuando se trate de agentes inteligentes tal predeterminación no puede ser absoluta). En este sentido, el software aparece como un sistema normativo de pautas de conducta que pueden generar comportamientos con trascendencia social. Volviendo a uno de los ejemplos anteriores, recurramos de nuevo a un dron o uav que tiene capacidad

(Continúa...)

 

Descarga el documento completo aquí

Próximos Programas

Atención al Alumno
Atención al Alumno

Para alguna consulta por favor contacte con uno de nuestros representantes o caso contrario a los siguientes teléfonos:

x