"ReDCE núm. 39. Enero-Junio de 2023"
|
|
Una cosa es aceptar, de manera pacífica, la creciente relevancia de la inteligencia artificial (en adelante IA) al respecto de la cultura, la economía, la salud, el progreso científico, las relaciones sociales, la política y el propio Derecho [02], y otra asumir, sin más, las consecuencias a las que tal incidencia nos lleve al tiempo en los ámbitos recién indicados. Es preciso, por tanto, reflexionar sobre esas consecuencias. Al respecto de esto, y en cuanto al Derecho constitucional, no plantea ya dudas el intensísimo influjo que la IA está provocando en los derechos fundamentales [03], como con relación al sistema democrático en sí [04]; dos pilares básicos del constitucionalismo democrático-pluralístico de posguerra [05], y sobre los que la IA viene expresando una inusitada capacidad disruptiva y transformadora que pone en riesgo elementos claves de aquel [06]. Pero la relevancia de la AI en el Derecho constitucional aún puede ser, si no más importante más amplia y vasta, según comienza a apuntarse en relación con la capacidad de la Constitución normativa para ordenar jurídica y efectivamente el poder –hoy en la sombra– de la sociedad digital en ciernes (Balaguer Callejón) [07]. Y desde tal perspectiva, que abordemos entonces en estas páginas la particular incidencia de la IA al respecto de las fuentes del Derecho, dada no solo la natural disposición de estas para asumir y catalizar los cambios que se dan en la realidad que contextualiza el Derecho en cada momento histórico [08], sino por corresponderse a la propia “esencia del Derecho” (Díez-Picazo) [09].
Mientras el referido influjo de la IA con relación a los derechos fundamentales y el principio democrático entronca con una dimensión sustantiva del Derecho constitucional (al afectar directamente a contenidos jurídicos), a la par que es manifiesta y explícita para la misma ciudadanía, en el caso de las fuentes se da desde una consideración más formal, interna y hasta menos evidente al respecto de aquel, al actuar ahora sobre su propia articulación jurídica y su ulterior desarrollo normativo. A estos efectos, la aproximación al tema va a requerir de una perspectiva menos directa y más compleja, por cuanto que reconducida a una pluralidad de fenómenos y cuestiones capaces de evidenciar los cambios e impacto de la IA con relación a las fuentes del Derecho, y así que sean tres las vías que proponemos a la hora de abordar la relevancia de la IA en el sistema constitucional de fuentes: una, la regulación de la IA al respecto de las fuentes del Derecho a través de las cuales se lleva y/o debería llevarse a cabo; otra, cómo incide específicamente ahora la IA en las fuentes del Derecho al desarrollar estas precisamente tal regulación; y la última, la consideración, incluso, de la IA como fuente del Derecho [10]. En cuanto a las dos primeras (ambas se involucran al referirse realmente las dos a la regulación jurídica de la IA, mas desde distinta perspectiva), ciertamente, no son cuestiones nuevas, pues son propias de la relación que desde hace tiempo se da entre globalización, economía y tecnología respecto a las fuentes del Derecho [11], sin perjuicio de que puedan advertirse particularidades propias para el caso de la IA. Otra cosa es la señalada potencial consideración de la IA como fuente del Derecho, como cuestión auténticamente original. Pero antes de proceder con tales temas, y a modo de cuestiones preliminares al asunto a tratar, consideramos oportuno partir de una concepción adecuada de la IA a nivel jurídico-constitucional, además de recordar qué entendemos por fuentes del Derecho.
Respecto a qué comprendemos por IA a los efectos de estas páginas, aun siendo esta un producto en desarrollo por la tecnología, requiere de una aproximación jurídica propia en tanto que materia llamada a ocupar un papel específico en el tráfico jurídico, en general, y en el sistema constitucional, en particular [12]; otra cosa es que para tal aproximación a la IA, como realidad nueva que es para el Derecho, se haya de tener en cuenta previamente lo que desde la misma informática se entienda o pretenda por tal [13]. Así, y al margen de la distinción de una hipotética IA “general” o “fuerte” y la más realista “específica” o “débil”, como de sus tipos actuales “Machine Learning” (en el que el software se entrena con datos a fin de reconocer patrones que luego aplica) o “Deep Learning” (en el que el software razona y llega a aprender por sí mismo) [14], es de resaltar que desde la informática se venga buscando la imitación, mediante algoritmos digitalizados, de capacidades y funciones como la creatividad, el aprendizaje, el entendimiento, la sensibilidad, la percepción y/o el lenguaje [15]; y no sólo desde la condición humana de tales facultades [16], sino desde una visión más abierta a la propia naturaleza y su funcionamiento [17]. Fuera del ámbito tecnológico, pero entroncado con espacios en los que la IA comienza a incidir, como es la economía y el comercio, se advierten ya algunas aproximaciones sobre ella; es el caso de la OCDE y de sus “Principios sobre Inteligencia Artificial”, de mayo de 2019, y en los que por tal se entiende aquel sistema basado en una máquina que puede hacer predicciones, recomendaciones o tomar decisiones, influyendo en entornos reales o virtuales, respecto a ciertos objetivos definidos por los humanos [18]. Y finalmente, que a nivel jurídico también comiencen a aparecer algunos conceptos sobre la IA, como por ejemplo el que ofrece la “Recomendación sobre la Ética de la Inteligencia Artificial” aprobada por la Conferencia General de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO), de noviembre de 2021 (París), y en la que se definen los sistemas de IA como “tecnologías de procesamiento de la información que integran modelos y algoritmos que producen una capacidad para aprender y realizar tareas cognitivas, dando lugar a resultados como la predicción y la adopción de decisiones en entornos materiales y virtuales” (art. 2.a) [19]. O con ocasión de los incipientes procesos regulatorios que se van abriendo paso al respecto de aquella, como es la Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión (COM/2021/206 final), de 21 de abril de 2021 (en adelante, PRIA), que por IA se comprenda
No obstante el gran interés que suscitan los anteriores conceptos jurídicos de la IA, nos resultan un tanto concretos ante la finalidad normativa a la que sirven, como al tipo de IA predominante al momento que pretenden regular y de sus posibles aplicaciones, y de ahí el riesgo de su obsolescencia jurídica al tiempo como consecuencia de nuevos avances tecnológicos que se puedan dar [21], además de poder incurrir en una potencial restricción desproporcionada del principio de neutralidad tecnológica según determinados desarrollos futuros de IA [22]. Por ello es que consideremos más adecuado, y especialmente al respecto del Derecho constitucional, una aproximación más sencilla, abierta y apta para cubrir manifestaciones más diversas de la IA, a la vez que pueda adaptarse mejor a nuevos cambios [23]; y en tal sentido, que entendamos por IA: el proceso informático (como software o sistema de software) capaz de aprender y evaluar información, para así alcanzar conclusiones sobre ella con cierta autonomía [24]. A diferencia de otros programas informáticos, las IA no se limitan a ejecutar órdenes diseñadas por algoritmos y en los que la solución es única tras un mero procesamiento de datos (p. ej., un cálculo matemático, la gestión de una base de datos o un automatismo digital). En la IA, en cambio, y previo aprendizaje y entrenamiento con datos expresamente aportados a tales efectos, se examina la información, y es a partir de ello que luego se construya o procese de manera artificial y autónoma una respuesta apropiada. Y decimos “apropiada”, por cuanto que, en caso contrario, el de respuesta inapropiada o inadecuada, no tiene por qué suponer un mal funcionamiento o diseño de la IA [25]; no en vano, el algoritmo, como expresión matemática que es, y de estar bien formulado y entrenado (claro), nunca puede errar, y más cuando el resultado siempre es expresión y estimación, a su vez, de probabilidades estadísticas [26].
Por todo ello es muy importante ser capaces de fiscalizar adecuadamente el diseño, la programación, los datos y el proceso de entrenamiento de una IA, además de explicar el funcionamiento lógico que ha tenido su software; y no únicamente a efectos de dilucidar, en su caso, responsabilidades (lo cual ya es relevante jurídicamente) [27], sino simplemente para poder conocer cómo efectivamente funciona una IA, especialmente ante la dificultad que se viene advirtiendo en no pocos casos: la llamada black box [28]. Esto supone, de por sí, uno de los aspectos más disruptivos de la IA al respecto del Derecho, en general, y del Derecho constitucional, en particular; y es que con la IA estamos ante auténticos procesos autónomos de evaluación de información, que finalmente pueden incidir en situaciones y bienes de tanto interés constitucional, como son los referidos derechos fundamentales (según se ha referido al inicio de estas páginas) [29], y ello rompiendo, además, con la cadena jurídica causa-efecto, que hasta ahora debía darse siempre entre toda acción pública o privada y su consecuencia jurídica, al concebirse aquella técnica, potencialmente autónoma a la intervención y al control humano [30]. Por esta razón, se debe poder estar en disposición de explicar cómo razonan las IA cuando su funcionamiento y lógica sean parte de una actividad pública, pues esta queda, con carácter abstracto (no se olvide), sujeta a Derecho y bajo control jurídico (sin más, arts. 9.3, 103.1 y 106.1 CE) [31]; y así, finalmente, que la aceptación y la viabilidad jurídica de la IA al respecto de su utilización por los poderes públicos dependa, en principio, de su potencial explicabilidad (o lo que es igual, de si es o no una IA explicable, en tanto que comprensible en su funcionamiento), además del grado de transparencia que ofrezca el propio sector público sobre las IA que utilice (Cotino Hueso) [32].
En cuanto a las fuentes del Derecho ahora y, en especial, a la luz de constituciones normativas que vienen a definir sus sistemas de fuentes (como es la nuestra), aquellas son, recordemos, los distintos procesos a través de los cuales se producen, modifican y derogan las normas jurídicas de/por sus respectivos ordenamientos jurídicos; y ello conforme establecen los propios ordenamientos y, en especial, sus constituciones al respecto de ellas mismas y sus fuentes primarias, mediante normas sobre producción jurídica que ordenan dichos procesos normativos [33]. De este modo, a través del estudio de las fuentes del Derecho, no solo se alcanza conocimiento sobre cuáles sean las normas jurídicas, sino que se consigue cierta sistematicidad en las mismas, a partir de la afirmación de un régimen jurídico de la norma jurídica, según la fuente que la produce, pues es esta la que le da una concreta eficacia jurídica frente a las demás que conforman el ordenamiento jurídico; pero también, con ello, que el peso jurídico de la norma no dependa de su contenido, sino de la fuente a la que pertenece [34]. Esto, a su vez, y al respecto del principio democrático, permite conectar las normas jurídicas con relación no ya a su origen democrático en abstracto, dado que todo el Derecho propio de un sistema democrático debe encontrar su fundamento en el pueblo (p. ej., arts. 1.2 y 117.1 CE), sino en cuanto al grado de pluralismo político que las distintas fuentes del Derecho suponen según la intervención de mayorías y minorías en los respectivos procesos normativos; y así, que el principio democrático alcance a la norma jurídica tanto en su contenido, lo que regula, como al respecto de su régimen jurídico o capacidad a la hora interactuar con otras de su mismo ordenamiento [35]. El problema es, sin embargo, que tal modelo de las fuentes entra en la actualidad, si no en crisis, sí que en transformación al amparo del intenso pluralismo ordinamental en el que nos encontramos; y no solo porque el Derecho sea hoy expresión de una diversidad de órdenes normativos públicos, pero también privados, en constante interacción y contaminación, sino por cómo ello acaba influyendo, a su vez, en las referidas fuentes de los ordenamientos constitucionales [36].
Señalado lo anterior, es que quepa entonces desarrollar el esquema anteriormente propuesto, reflexionando primero sobre la regulación de la IA a través de las distintas fuentes del Derecho, y por cómo incide luego la IA en los diversos procedimientos normativos que conforman dichas fuentes del Derecho; y ello tanto desde su perspectiva formal o procedimental del Derecho, como desde su dimensión democrática, de manera que al recapacitar sobre la IA y las fuentes del Derecho acabemos especulando sobre quién, cómo y hasta dónde quepa regular la IA [37]; y con esto, por tanto, sobre nuestro propio futuro, inmersos –como estamos– en una nueva realidad digital en construcción y de la que no debemos quedar al margen [38]. Pero también que posteriormente reflexionemos (según lo adelantado) al respecto de la potencial consideración de la IA como fuente del Derecho, en cuanto que participe de una u otra forma, como en mayor o en menor grado, de procedimientos públicos en los que cabe percibir auténticos procesos normativos; sin duda, el aspecto más disruptivo de la IA con relación al sistema constitucional de las fuentes del Derecho.
Antes de proceder con la regulación de la IA a través de las distintas fuentes del Derecho, cabe adelantar cómo esta se ordena de acuerdo con dos ejes, el horizontal y el vertical, y a dos criterios, el funcional y el democrático; y con ello entronca con el principio de subsidiariedad, al suponer quién debiera hacer dicha regulación [39]. Y es que (conforme lo referido) el carácter extremadamente técnico de la IA como objeto de normación, además de su dimensión económica y global [40], inciden fuertemente al respecto (al igual a cómo la IA repercute en las diversas fuentes del Derecho que la regulan, según se vea luego en el siguiente epígrafe).
Desde tal condición tecnológica y económica de la IA destaca así, desde sus inicios, el carácter primariamente privado de su regulación. Resultando originariamente la IA como mero resultado, primero, del progreso científico, y luego de su impulso económico (al hilo de su explotación), y ello de acuerdo al marco jurídico conformado por las libertades de investigación y empresa (arts. 20.1.b y 38 CE), junto al derecho a la propiedad privada (art. 33 CE) [41]. De ahí que su desarrollo técnico no fuera inicialmente regulado hasta que los propios científicos e ingenieros informáticos advirtieran de sus riesgos, en especial para las personas [42], produciendo, entonces, la aparición a los años de las primeras declaraciones éticas elaboradas por grupos científicos intentando limitar ciertos progresos en IA (como los “Asilomar AI Principles”, de 17 de enero de 2017, al amparo del “Future of Life Institute” y apoyada por más de 2.000 investigadores), como de auténticos códigos éticos de carácter más amplio (p. ej., la Declaración sobre inteligencia artificial, robótica y sistemas “autónomos” del Grupo europeo sobre ética en ciencia y nuevas tecnologías de la Comisión Europea, de 9 de marzo de 2018, y las ulteriores Directrices Éticas para una IA Fiable, del Grupo independiente de expertos de alto nivel sobre inteligencia artificial, de junio de 2018; la Declaración de Montreal para el desarrollo responsable de Inteligencia Artificial, de diciembre de 2018; la Guía del Instituto de ingenieros electrónicos y eléctricos, de 2019; los referidos Principios de la OCDE sobre Inteligencia Artificial, de mayo de 2019; o los Principios de Inteligencia Artificial de Beijing, de septiembre de 2020) [43]. De ahí, al tiempo, el impulso de tales normas éticas como manifestación de procesos autorregulatorios, dado el carácter técnico de la materia, como de los intereses económico-privados que las impulsan [44]; y a la par, la potencial consideración de aquellas como auténticas normas jurídicas, pero de carácter privado (tal como sucede con las llamadas normas técnicas) [45]. Otra cosa es que, también, dichas normas éticas se vean promocionadas por los propios poderes públicos a modo de regulación híbrida, y a modo de resultado, así, de la colaboración público-privada, como por ejemplo se plantea en la propia PRIA (art. 69) [46].
Esto último, a su vez, nos lleva, por sí, a una primera propuesta de regulación pública, de carácter general y a nivel europeo respecto de la IA: la referida PRIA [47]. Un auténtico hito con relación a la ordenación pública de la IA, pues, más allá del contenido de la misma (como del que finalmente resulte de su definitiva aprobación) [48], supone un intento arduo por asumir desde lo público y la legitimidad democrática el destino del desarrollo, la comercialización y el uso de la IA en el ámbito público y privado de la Unión Europea, respecto a una materia hasta ahora en exclusivas manos de los particulares; y esto tras un proceso de reflexión pública y política que se remonta a 2017 (Propuesta del Parlamento Europeo a la Comisión Europea en pro de una Directiva sobre Robótica) [49], a fin de, frente a los desarrollos norteamericano y chino que de la IA se dan, construir un mercado europeo de aquella a partir de un modelo de IA segura, fiable y respetuosa con los derechos de las personas (Exp. Mot. 1.1 PRIA) [50]. Y a estos efectos, y siguiendo el antecedente del Reglamento General de Protección de Datos (en adelante, RGPD), que se haya optado directamente por el Reglamento, en vez de la Directiva (art. 288 TFUE) [51], a fin de reducir la capacidad normativa de los Estados (Exp. Mot. 2.4 PRIA) y con ello garantizar mejor no solo los derechos de los ciudadanos europeos, sino la seguridad del mercado de la IA en Europa [52], al buscar evitar con esto su fragmentación jurídica [53]. Con todo, resultaría adecuado que, al tiempo, se hiciera referencia específica a la IA en el Derecho originario de la Unión Europea dada su tremenda importancia del mismo modo como, por ejemplo, se hace respecto de la tecnología espacial (art. 189 TFUE); y más cuando, se guarda silencio en relación con la informática como tal, sin perjuicio, eso sí, de múltiples referencias a sus riesgos para los ciudadanos (p. ej., arts. 3.2, 8, y 21.1 CDFUE, o 83.1 TFUE) [54].
Todavía en el ámbito europeo, pero ahora en una dimensión más internacional, se advierte cómo la IA va asimismo abriéndose camino jurídico, como acontece con ocasión de la Recomendación CM/Rec (2020) 1 del Comité de Ministros a los Estados Miembros sobre los impactos de los sistemas algorítmicos en los derechos humanos, el 8 de abril de 2020. Y en esta línea, y ya a nivel mundial, que esté también la referida Recomendación sobre la ética de la Inteligencia Artificial de la UNESCO, de 23 de noviembre de 2021.
Por otra parte, y finalmente en el ámbito nacional y constitucional, ante el aun silencio de las constituciones [55], es oportuno que estas, dada su especial posición y función en sus respectivos ordenamientos jurídicos y sistemas de fuentes del Derecho [56], hagan referencia a la IA en razón a la enorme incidencia que esta ya tiene, y tendrá, en el Derecho constitucional (según se indicaba al comienzo de estas páginas); de este modo, y sin perjuicio de los marcos jurídicos que sobre la IA prosperen tanto a nivel regional (como es el referido en Europa), como global, es adecuado que en las constituciones estatales quepa encontrarse las bases jurídicas formales y materiales de la ordenación nacional de la IA [57]. Otra cosa es cómo se presente y desenvuelva tal constitucionalización de la IA de acuerdo a su referido carácter técnico y globalizante, y ello a fin de que dicha constitucionalización sea normativamente efectiva; así, que tal vez baste con una referencia de tipo principial sobre la IA que permita luego su expansión sobre el resto del orbe constitucional a la luz de la interpretación sistemática de la Constitución, a la par que sirva de fundamento y límite a la ulterior normativa jurídico-nacional llamada a regular con mayor precisión la IA. En este punto, ahora (y sin perjuicio también de la normativa europea e internacional sobre la IA) sería la Ley la fuente llamada a desarrollar el marco jurídico de la IA. Y no solo al amparo de las reservas de ley involucradas a la hora de limitar derechos implicados con relación y al respecto de las IA [58], sino a la luz de la especial importancia política de dicha regulación y su relevancia para el entero sistema democrático-pluralista [59]; es el caso, por ejemplo, del artículo 23 de la Ley 15/2022, de 12 de julio, integral para la igualdad de trato y la no discriminación, relativo a la IA y al uso de “mecanismos de toma de decisión automatizados”. Otra cosa será, asimismo, una normativa de más detalle sobre la IA, y en especial dada su condición altamente técnica y cambiante (a tenor de su constante progreso), de modo que sea entonces el Reglamento, y en colaboración siempre con la Ley, la fuente del Derecho propia u ordinaria de la IA.
La referida caracterización de la IA desde la globalización, la tecnología y la economía, además de su disruptiva naturaleza, vienen a su vez a incidir en las referidas fuentes del Derecho al momento de su regulación por estas (conforme se ha señalado antes). Empezando por los diversos espacios desde los que se norma la IA, junto con la dimensión privada o particular de esta a la sombra de la autorregulación, es que, finalmente, la IA impulse su regulación desde una pluralidad de ordenamientos privados y públicos, nacionales y regionales (según se lo referido), de forma que el estatuto o marco jurídico de la IA resulte de la convergencia y comunicación dialéctica de dichos ordenamientos [60]. Y ello, sin perder de vista la vertiente económica de la IA al respecto del coste de su investigación, como de su ulterior explotación (a su vez), de modo que dicha normación o regulación garantice unos mercados lo suficientemente amplios como para permitir la imposición efectiva de ciertas limitaciones jurídicas en el diseño y la comercialización de la IA, e incluso su propia exportación a otros (a la vista del conocido como efecto “Bruselas”) [61]. Esto supone la necesidad de ponderar unas y otras fuentes del Derecho de unos y otros ordenamientos jurídicos, de forma que, más allá del significado y del valor constitucional de las distintas fuentes, se alcance un equilibrio entre la dimensión económica de la IA y los principios jurídicos a hacerse valer normativamente. No en vano, el riesgo de no asumir tal proyección de la IA es que, finalmente, a nivel global acabe por imponerse un modelo de IA que suponga un evidente peligro para los derechos de la persona (p. ej. el chino y el “social scoring”) [62]. Los costes del desarrollo técnico de la IA son tales, que no solo es que su investigación quede en manos privadas, generando ya una situación de dependencia tecnológica para los poderes públicos, sino que necesita de expectativas económicas en forma de beneficios; y así, que de no garantizarse una alta inversión privada (y/o pública) en IA en Europa [63], esta quede entonces dependiente de IA foráneas [64], pero al menos controlables desde un mercado lo suficientemente amplio como para poder imponer restricciones sustantivas a la comercialización y al uso de aquellas [65]. Todo esto, entonces, acaba por afectar al sistema de fuentes del Derecho de ordenamientos construidos en torno a constituciones normativas (como el nuestro), pues se deja de responder directa y exclusivamente a los valores y principios constitucionales a los que directamente sirven (sin perjuicio de que el mercado también lo sea), al tenerse que lidiar con (asumiendo) elementos potencialmente espurios a ellos (como es la maximización del beneficio económico, en cuanto que fin en sí mismo, y al respecto de empresas que actúan a nivel global) [66].
Por otra parte, y al respecto de la referida investigación o desarrollo técnico en IA, es que esta, sin perjuicio de ciertos parones en el pasado (el llamado “invierno de la IA”, en las últimas décadas del anterior siglo) [67] avance y, como sucede con el más genérico progreso tecnológico, de manera imparable, de modo que la cambiante y acelerada realidad digital exija de constantes cambios normativos con los que ordenar jurídica y eficientemente las relaciones sociales y de poder que se dan en cada momento. Y así lo prevé la PRIA cuando habla expresamente de un modelo “flexible” de regulación de la IA, de forma que acabe por incluir mecanismos “que le permiten adaptarse de manera dinámica a medida que evoluciona la tecnología y surgen nuevas situaciones preocupantes” (Exp. Mot. 1.1); a tales efectos, e incluso al respecto del propio concepto de IA que presenta (nuevamente, art. 3.1 PRIA), es que establezca mecanismos que permitan una más rápida adaptación normativa, como son los actos delegados (art. 4 PRIA) [68]. Obviamente en el caso del Derecho de la Unión Europea (a la vista del art. 290 TFUE), como del Derecho italiano (con su “delegificazione”), tal dimensión temporal de la IA no resulta complicada al prever sus respectivos sistemas de fuentes mecanismos específicamente diseñados para adaptar de manera sencilla y rápida sus normas jurídicas de primer nivel (como reglamentos, directivas y decisiones, de un lado, y leyes, de otro) [69]; pero sí lo es, en cambio, de no tenerse dichos mecanismos institucionalizados, como es el supuesto del Derecho español, donde sin embargo se acaban por tolerar fenómenos normativos de deslegalización [70], o simplemente se asumen alteraciones entre las fuentes a fin de conseguir –al tiempo– mayor flexibilidad normativa (p. ej. entre ley orgánica y ordinaria, de un lado, o entre ley y reglamento, de otro) [71].
Otra incidencia de la IA en las fuentes del Derecho, y cuasi propia del ámbito de la IA (frente otras manifestaciones tecnológicas), es la utilización de “sandboxes” con los que garantizar un marco jurídico-normativo apropiado para los procesos de entrenamiento y experimentación de la IA. Y es que no siendo dichos “sandboxes” originarios de la IA (p. ej. en materia financiera) [72], estos han tenido especial desarrollo en el caso de aquellas IA que tienen que ser probadas en espacios compartidos con situaciones reales y con regulaciones propias, de manera que acaben por modificarse estas para dar cabida jurídica a dichas pruebas: estos son así espacios controlados de pruebas para las IA a fin de facilitar el desarrollo, la prueba y la validación de sistemas innovadores, durante períodos limitados, antes de su definitiva introducción en el mercado y/o puesta en servicio (art. 53 PRIA); buscándose, con ello, un equilibrio regulatorio con respecto a una garantía adecuada de la responsabilidad y de la innovación [73]. La incidencia jurídica del “sandbox” se encuentra, en principio, en la alteración normativa que requiere, y ello al amparo del principio de especialidad, pero también, e incluso, desde la misma excepción normativa (o “derogazione” italiana) al venir a autorizarse el incumplimiento de parte del régimen jurídico ordinario sobre tal actividad [74]. En este ámbito, por ejemplo, estarían hoy los vehículos autónomos y su circulación experimental en circuitos abiertos al tráfico público, mas en entornos controlados (p. ej., Instrucción VEH 2022/07 Autorización de pruebas o ensayos de investigación realizados con vehículos de conducción automatizada en vías abiertas al tráfico en general, y arts. 44 ss. RD 2822/1998, de 23 de diciembre, por el que se aprueba el Reglamento General de Vehículos).
El problema realmente surge, entendemos, para el supuesto de extender los “sandboxes” más allá de entrenamientos y prácticas de las IA, de modo que la excusa tecnológica de la IA venga simplemente a justificar al tiempo una regulación diversa al margen de lo razonable y lo proporcional, o en exceso indeterminada (de algún modo, y al respecto de ejemplo anterior, la mera previsión de normas diversas que en materia de tráfico y seguridad vial deban cumplir los vehículos dotados de un sistema de conducción automatizado, conforme arts. 4.k y 5.u, y disp. final 2ª.2. k, R D Leg. 6/2015, de 30 de octubre, por el que se aprueba el texto refundido de la Ley sobre Tráfico, Circulación de Vehículos a Motor y Seguridad Vial); o lo que es igual, como mera adecuación de la regulación a una nueva realidad digital que en proceso [75]. En cuanto a la PRIA (y según lo referido más arriba), esta se refiere expresamente a los espacios controlados de pruebas para la IA a modo de entornos que faciliten “el desarrollo, la prueba y la validación de sistemas innovadores de IA durante un período limitado antes de su introducción en el mercado o su puesta en servicio, en virtud de un plan específico” (art. 53.1); estos –sin perjuicio de garantizar la protección de datos personales y los derechos de personas implicadas y terceras (art. 53.2 y 3), así como la capacidad de las autoridades nacionales para controlarlos (art. 53.1 y 3) – deberán de ajustarse a las modalidades y condiciones que al tiempo se establezcan mediante futuros actos de ejecución (art. 53.6), pero sin mayores especificaciones al respecto [76]. Y ya en España, se han presentado diversas propuestas parlamentarias a fin de ordenar dichos espacios controlados o “sandboxes”: como la Proposición de Ley para la Transformación Digital de España, de 22 de junio de 2021 (122/000148) [77], o la más específica Proposición no de Ley sobre la Gobernanza de la Inteligencia Artificial, de 20 de diciembre de 2022 (161/004617); pero también, entendemos, la genérica iniciativa del Estado español (nada más y nada menos) como programa piloto al respecto de la regulación de la IA a nivel europeo (según se presentara ante la Comisión Europea el 27 de junio de 2022).
Asimismo, como consecuencia de la altísima tecnificación de la IA es el protagonismo (y como sucede, por lo demás, en otros muchos sectores muy tecnificados de la realidad) de técnicos (en este caso, ingenieros informáticos) en la elaboración de normas relativas al tema, como, e incluso, la previsión de la atribución de competencias normativas sobre ello a órganos técnicos, a la vista del reconocimiento de la potestad reglamentaria en manos de agencias independientes [78]. En tal sentido, precisamente, la PRIA regula un Comité Europeo de Inteligencia Artificial (arts. 3.42, 53.5 y 56-58. PRIA), además de prever otras autoridades de supervisión a nivel nacional (arts. 3.42 y 43, 53.5 y 59 PRIA) [79]; y ya en España, y en esta línea, la institucionalización de la Agencia Española de Supervisión de Inteligencia Artificial (disp. adic. centésimo trigésima L 22/2021, de 28 de diciembre, de Presupuestos Generales del Estado para el año 2022). Ciertamente, dicha normativa reglamentaria y técnica no subvierte formalmente los sistemas de fuentes constitucionales; en tal sentido el Tribunal Constitucional en su Sentencia 76/2019, de 22 de mayo de 2019, expresamente ha rechazado que una agencia técnica e independiente, como es la Agencia Española de Protección de Datos (en adelante, AEPD), pueda, mediante el ejercicio de competencias propias (art. 55 LO 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales) sustituir la labor del legislador, en especial en casos de reservas de ley (FJ núm. 8.c.ii) [80]. Sin embargo, materialmente, cabe advertir cierta capacidad de impulso jurídico sobre el ámbito sustantivo sobre el que dichas agencias actúan (tal como sucede con ocasión de la referida AEPD), al ir conformando en su actuación un cuerpo normativo propio sobre sus respectivos ámbitos materiales [81]. Y ello, además, desde la dificultad que supone la activación de la responsabilidad política al respecto de dicha normativa, no solo por el carácter independiente de estas agencias, sino por el supuesto carácter técnico del criterio que marca su labor [82]. Aunque esta objeción no afecta únicamente a estas agencias, pues acaba interesando a cualquier actuación pública que se toma a tenor de criterios técnicos (recuérdese las medidas normativas sanitarias adoptadas durante la pandemia) [83], sí que, entendemos, perturba el modo de conferirse tal responsabilidad al verse removida del circuito político y, por tanto, de su dimensión democrático-pluralista.
Por otra parte, y volviendo a la comentada autorregulación al respecto de la IA, más allá del propio interés particular de ingenieros y empresarios por darse un propio cuerpo normativo, aun de carácter ético, con el que garantizar su posición de preeminencia en el tema (a nivel económico, pero no solo), cabe que (y conforme asimismo se ha señalado) sean los propios poderes públicos los que, ante el carácter técnico de la IA, como ante su dependencia tecnológica ante aquellos, acaben por remitirles parte de la regulación de la IA (nuevamente, art. 69 PRIA); incluso, siendo posible hablar de corregulación (al hilo del anterior RGPD y según se ha adelantado) [84]. El problema no es tanto en relación con la parte más tecnológica de dicha normativa privada, por cuanto que integrada dentro de la articulación que de las normas técnicas que ofrece hoy el Derecho administrativo [85], sino al respecto de la referida dimensión ética de tal normativa privada [86]; y esto por referirse a cuestiones que están previstas, de una u otra manera, por el Derecho constitucional, y ante el lance de que ingenieros y empresarios de la IA puedan ofrecer (de acuerdo a sus intereses particulares) un desarrollo normativo diverso a tales materias constitucionales [87]. Un ejemplo de ello es, al hilo del progreso de los llamados vehículos autónomos [88], el debate ético abierto sobre el “dilema del tranvía” y sobre quién haya de resolverlo (poderes públicos, fabricantes o consumidores) de manera concreta (el cómo, ahora) [89], cuando esto debería considerarse ya resuelto al amparo de la dignidad y de la nulidad jurídica de decisiones previas que supongan juicios abstractos de unas personas sobre otras (Sentencia del Tribunal Constitucional Federal alemán de 15 de febrero de 2006 -115, 118 1 BVR 357/05-) [90]. También en línea con este retroceso de la normativa pública ante lo privado respecto de la IA, está cierta tendencia de los poderes públicos a acudir a respuestas normativas propias del “soft law” [91], como es la Estrategia Nacional de Inteligencia Artificial de 2020 (en adelante, ENIA) [92] o, en un ámbito más genérico-digital, la Carta de Derechos Digitales de 2021 [93]. Y esto a modo de un Derecho abierto a sus actores, menos procedimentalizado, más persuasivo que normativo, y buscando así más la complicidad de sus destinatarios que la clásica sujeción estrictamente jurídica (propia de nuestro clásico “hard law”) [94]; pero con ello, el riesgo de rebajar, a su vez, la normatividad de deberes que los poderes públicos quepan deducir, de manera objetiva, del marco jurídico vigente (como p.e. a la luz del vigente derecho de las personas a participar en el progreso tecnológico, conforme a los arts. 27.1, in fine, DUDH y 15.1.b PIDESC, además del más neutro 44.2 CE) [95].
Por último, y a la sombra ahora del carácter disruptivo de la IA, se advierten cambios, incluso mutaciones, al respecto de las fuentes del Derecho que ella y la tecnología digital pueden, directa o indirectamente, estar impulsando. Dejando para el párrafo siguiente la consideración misma de la IA como fuente del Derecho, está el tema de las condiciones generales de contratación de las principales redes sociales (como Facebook, YouTube o Twitter, a tenor de su enorme influencia social, cultural, económica y política) [96] en tanto que, o a modo de, ordenación privada, no solo de la relación entre la respectiva aplicación y sus usuarios, sino entre estos mismos, y al punto de llegar a conformar auténticas comunidades sociales (virtuales) [97] e incluso auténticos foros públicos [98]; y ello cuando dichas condiciones pueden actuar como base para el uso de algoritmos capaces de afectar a las libertades de expresión, información y comunicación [99]. Mientras que, desde una perspectiva clásica de las fuentes del Derecho (y la eficacia erga omnes de las normas jurídicas resultantes de estas) [100], tales condiciones quedarían en el mero ámbito jurídico de la contratación entre particulares [101]; cabe, sin embargo, dar el paso de considerarlas como medios de conformación jurídica del marco normativo privado (claro) de auténticas comunidades sociales (de hasta millones de personas); y esto, en especial, si en vez de atender a dichas condiciones, cuando se trata de aplicaciones digitales de naturaleza económica, nos fijamos en cambio en aquellas redes sociales que estén basadas en código abierto o libre [102], al no concurrir aquí los presupuestos económicos del contrato, y al dar lugar a comunidades sociales asimilables a las otras (aunque de menor tamaño, dado su menor impacto). No en vano, cabe advertir, ya en el pasado, algún referente de cómo normas de origen privado y contractual pasaron a conformar el presupuesto de auténticas ordenaciones públicas [103].
Más allá de la ya clásica equiparación presentada por Lessig al respecto del algoritmo como nueva forma de codificación jurídica al venir a ordenar la nueva realidad digital en la que nos encontramos [104], está la señalada propuesta de la IA como fuente del Derecho desde la constatación de cómo a través de ella los poderes públicos realizan normas jurídicas en procedimientos públicos [105]. Y es que, como dice Boix Palop, los
En principio, y sin entrar todavía en el fondo del asunto, es interesante destacar cómo la anterior constatación se asemeja bastante (según nosotros) a la forma con la que una IA precisamente evalúa imágenes al respecto de algo [107], dando lugar a un resultado positivo y suficiente para, a su vez, profundizar luego en él [108]; o lo que es igual (y en nuestro caso), para que efectivamente vengamos a penetrar en la hipótesis de la IA como fuente del Derecho, o al menos en su participación.
En tal sentido, y volviendo a la proposición de Boix Palop [109], lo cierto es que la consideración de la IA como fuente del Derecho que él plantea, viene determinada por cómo los poderes públicos que actúan jurídicamente conforme a una IA (aun instrumentalmente) acaban sujetándose también normativamente a la misma (sin perjuicio, no obstante, de la capacidad jurídica que tengan para apartarse de ella) [110]. Esto supone que la IA opere materialmente como parámetro de aquellos; y no ya por suponer la IA la producción y/o realización de normas jurídicas realmente, sino por la capacidad fáctica de esta para determinar directamente situaciones jurídico-públicas cuando la actuación de los poderes públicos se encuentre jurídicamente sujeta a la IA. Por ello es por lo que el algoritmo es considerado como si fuera una norma, pues la IA viene a actuar frente a los poderes públicos de la misma forma a cómo una norma jurídica determina la actuación de estos en cuanto que sujetos a Derecho (nuevamente, arts. 9.3, 103.1 y 106.1 CE); incluso, podríamos decir, que la IA viene a completar la norma jurídica que determina la actuación de aquellos. Esta aproximación al tema de la IA como fuente del Derecho es, sin duda, muy sugerente, pues aborda cómo la IA evalúa situaciones jurídicas no solo conforme a Derecho, sino haciéndola partícipe de la conformación del parámetro de actuación jurídica que guía a los poderes públicos; pero esto, sin responder verdaderamente (a nuestro atender) al sistema de fuentes en sentido estricto, sino en relación a cómo actúan los poderes públicos (según lo adelantado) [111]. Sin embargo, lo anterior no es poco, pues supone someter el funcionamiento de la IA en el sector público a Derecho (y a su amparo a las mismas garantías que en su actuación estándar u “offline”) [112], además de, y en un paso más, asumir que cualquier evaluación compleja [113] que sobre hechos o Derecho haga una IA de manera instrumental para un poder público al respecto de la configuración de una situación jurídica, venga finalmente a considerarse como parámetro jurídico de su actuación, si tal evaluación está prevista por el propio ordenamiento jurídico.
Desde una perspectiva formal ahora, y del entendimiento que por fuentes del Derecho hemos recordado al inicio de estas páginas (en cuanto que procesos previstos por un ordenamiento jurídico al respecto de la introducción en él de normas jurídicas, como de su modificación y derogación), salvo que estemos ante una IA que tenga por fin específico elaborar, modificar o derogar normas jurídicas, tanto para el caso de procedimientos administrativos, como de procesos juridiciales, es que, ciertamente, las IA utilizadas en ambos ámbitos públicos no sean auténticas fuentes del Derecho [114]; al fin y al cabo, de ellos no resulta o se produce expresamente, en principio, norma jurídica alguna, sino un mero acto jurídico, administrativo o judicial, de dimensión específica, que no abstracta, ni innovativa per se [115]. Otra cosa es lo que en el futuro sí pueda pasar, pues es potencial y tecnológicamente viable a la luz de la llamada IA generativa [116]; como también es distinto que en ese hipotético caso, que tal potencial IA productora de normas solo quepa constitucionalmente, en tanto que mero instrumento de aquellos poderes a los que se les confiere expresamente potestades normativas (arts. 66.2 y 97 CE), de modo que al final sean aquellos los que aprueben la norma elaborada por la IA y a los que se les impute esta (si bien, claro, con el auxilio de la IA en su producción o redacción) [117]. Únicamente entonces es que la IA pudiera considerarse, al menos (y en el futuro), como fase o parte del proceso productivo de la norma jurídica y, por tanto, para tal caso, que la IA sí quepa participar de la respectiva fuente del Derecho en la que interviene, aunque para ello, no se olvide, tendrá que haber siempre una norma sobre producción jurídica que así prevea la intervención de dicha IA en dichos hipotéticos procesos de producción de normas jurídicas [118].
Por otra parte, y para el caso de las IA en las que su programación se integren normas jurídicas, está la falta de condición unívoca (generalmente) de dichas normas jurídicas al momento no ya de su aplicación o procesamiento por dicha IA, sino de su propia digitalización por un ingeniero informático o programador a fin de alimentar a tales IA, y de cómo sea este (el programador) el que acabe, entonces, por detallarlas (definiéndolas); y es que al trasladarse a código binario una norma jurídica todavía analógica se acaba por reducir la normal plurivocidad de la norma al concretarse al máximo su sentido (así, Hoffmann-Riem) [119]. No en vano, el informático es hoy el nuevo escriba de la realidad digital que se impone y desarrolla y, al respecto de estas páginas, el que efectivamente traspone a código e integra en el algoritmo un Derecho todavía analógico en su contenido y forma. De ahí que, y sin perjuicio de lo presentado antes, al momento del propio diseño, programación y entrenamiento de una IA quepa constatar un proceso normativo informal en el que se delimita la concreción de la norma jurídica, aunque fuera de los cauces del sistema de fuentes ordinario; y, por tanto, que quepa advertirse un instante normativo al respecto del mismo momento de la programación de la IA. Ahora bien, con ello, que bien quepa postularse para el futuro una nueva y potencial forma de redacción originaria de las normas jurídicas con ocasión de su aprobación por su correspondientes fuentes del Derecho y a fin de su ulterior y adecuada digitalización, de modo que: de un lado, las normas tiendan a nacer ya unívocas, de manera que solo requirieran una codificación digital simple y directa de las mismas (al no necesitar concreción ulterior alguna por el informático); y de otro, la IA no tenga ya que proceder a reducir o especificar el sentido de las normas que vaya a aplicar. Sin embargo, las normas jurídicas no se realizan de manera aislada, sino en contacto con otras de su mismo y/o distinto ordenamiento (incluso en conflicto) y, consecuentemente, que una IA que evalúe jurídicamente un caso termine por concretar la norma o normas con la o las que zanja aquel. Y es que el Derecho hoy no es ya solo el resultado complejo de relaciones normativas (recuérdese), sino el producto dinámico y dialéctico de un pluralismo ordinamental, de modo que, salvo en los supuestos de IA que actúen cuasi automáticamente constando situaciones jurídicas muy simples [120], lo normal será que la potencial univocidad de la norma jurídica pase a “abrirse” a otras en su realización informática, al entrar en contacto con estas en el proceso algorítmico correspondiente.
En esta perspectiva de plurivocidad normativa y al respecto de las IA que en la actuación de los poderes públicos evalúen normas jurídicas por expresa previsión normativa, es que, y desde el particular funcionamiento de dichas IA, quepa también considerar si estas, efectiva y finalmente, participan de la producción de normas jurídicas, y, con ello, su consideración como auténticas fuentes del Derecho. Empezando por el funcionamiento de la propia IA, y aun actuando en casos singulares, esta evalúa información en la que precisamente pueden encontrarse normas jurídicas (según lo recién referido) de manera abstracta; y dada la naturaleza racional e intelectiva (matemática) de la IA [121], que esta siempre tienda a resolver dicha evaluación de manera universal, al entender que la respuesta concreta que ofrece en cada caso no es sino expresión de la mejor solución que puede dar en cada momento conforme a la evaluación porcentual posible de todas las potenciales respuestas que maneje la IA, al respecto de dicho caso y, por tanto, de otros idénticos a él. Además, y aun siendo posible las programaciones de las IA que permitan respuestas potencialmente diversas [122], en el caso de aquellas destinadas por los poderes públicos a evaluar el Derecho o situaciones jurídicas, siempre habrían de resolver de manera tendencialmente unívoca, al entroncar con el valor justicia (1.1 CE), la interdicción de la arbitrariedad (art. 9.3 CE) y la igualdad ante el Derecho (art. 14 CE); y, de esta forma, que tal dimensión abstracta de la IA acabe por reforzarse.
Ello nos lleva al proceso jurídico de decantación de la norma desde la mera disposición [123], y de la consideración que ahora dé la jurisprudencia como fuente del Derecho, tal y como teorizara Kelsen en su segunda edición de su “Teoría pura del Derecho” [124]. Y es que la actuación jurídico-intelectual desarrollada por un actor jurídico público y, en especial, un juez, al momento de la interpretación y aplicación de una norma jurídica ad casum, siempre dará lugar a una ulterior decantación normativa en cuanto que definidora en abstracto de la norma jurídica finalmente resultante; por ello, cada vez que aquel aplica una norma en un caso, resolviéndolo jurídicamente, quepa entender existente un proceso o momento previo normativo en el que vendría a precipitarse una dilucidación perfecta de dicha norma [125]. Esto enlaza con el deber jurídico de los actores públicos de resolver cualquier cuestión jurídica conforme a Derecho y, en especial, los jueces (art. 1.7 CC) además de como expresión de la justicia, la igualdad y la interdicción de la arbitrariedad, debiendo actuar también de forma tendencialmente abstracta, universalizante y erga omnes; y de ahí, claro, esa imagen mítica de un juez jurídicamente omniscente que al tiempo se despliegue, en cuanto que comprometido con una resolución justa y abstracta ad casum con ocasión de una realización pulcra de un Derecho hoy complejo (el juez Hércules) [126], además de en red (el juez Hermes) [127]. En consecuencia, la norma jurídica a la que aquel llega en cada caso es potencialmente aplicable a todos los demás supuestos iguales que puedan presentarse ante ellos en el futuro (salvo que premeditada o temerariamente hayan buscado una respuesta injusta y/o arbitraria). Otra cosa es, obviamente, el acierto o no de la respuesta interpretativa a la que se llegue (sea un aplicador jurídico o una IA), como a su propia pluralidad, dado el también carácter plural del sujeto jurídico que ha de resolver tales casos (administra, como judicialmente), de modo que, a la postre, quepa aparecer no una, sino diversas respuestas jurídicas a partir de una misma norma jurídica; y entonces, ante ello, la articulación de instrumentos normativos (p. ej., circulares) o procesales (recursos) destinados a uniformar dicha interpretación y aplicación. Así, y en el ámbito jurisdiccional, que quepa reconocerse un mayor grado de abstracción, cuando tal actuación judicial se encuentre jurídica y efectivamente destinada, directa o indirectamente, a unificar la doctrina judicial en torno a una norma jurídica, pues en tal supuesto, el presupuesto abstracto de dicha actuación jurídica cabe entenderse predominante (p. ej., el recurso de casación en unificación de la doctrina) [128]; e incluso, que se llegue entonces a considerar expresamente dicha realización del Derecho como fuente formal del mismo (arts. 1.6 CC y 5.1 LOPJ) dada su particular dimensión nomofiláctica, abstracta y erga omnes [129].
De esta forma abstracta es que vengan precisamente a actuar también las IA al respecto de procedimientos en los que jurídicamente se han de aplicar y realizar normas jurídicas; y más, a la luz de los referidos principios de igualdad (art. 14 CE) y de interdicción de la arbitrariedad (art. 9.3 CE) nuevamente, necesaria y procedimentalmente integrantes de su programación. No es solo, entonces, que una IA para ofrecer una evaluación jurídica sobre un caso (resolviéndolo, o simplemente informándolo) previamente deba decantar interpretativamente una determinada y última norma jurídica (que será la que finalmente se aplique), sino la forma o cómo lo hace en razón a su mayor grado de abstracción: de un lado, excluyendo cualquier elemento o factor espurio en la instrumentación digital de la norma jurídica (salvo que este hubiera sido dolosa o erróneamente incluido en su programación); y de otro, y a la par, siguiendo siempre un proceso informático-intelectual exclusivamente lógico o matemático (según se ha adelantado) de manera que el resultado de la evaluación jurídica de cualquier caso sea automática y perfectamente trasladable a otros iguales en el futuro. Así, a la IA le es indiferente resolver uno o miles de casos iguales a la vez, por cuanto que actúa de manera indeterminada a los distintos supuestos ante los que se enfrenta, al no considerar más aspectos que aquellos que son expresamente determinantes jurídicamente para la IA según el supuesto. Por supuesto que, al tiempo, quepa detectar respuestas erradas, e incluso otras más atinadas, de modo que la IA pueda luego, tras un proceso de re-aprendizaje, ofrecer nuevas y distintas evaluaciones jurídicas en un mismo caso (como de hecho sucede legítimamente a nivel jurisdiccional), pero siempre lo hará desde la más alta abstracción posible, de modo que en otra ocasión tal evaluación sea considerada, desde el propio momento presente (claro), como la óptima para futuros casos iguales. Con esto, además, los referidos principios de igualdad y arbitrariedad no sólo actúan como motor de un igual trato al respecto del funcionamiento de una IA, sino que también devendrían como efecto natural de un normal y adecuado funcionamiento de la misma (salvo que se observe algún sesgo en contrario u otro fallo de programación o entrenamiento, obviamente); y de ahí, precisamente, el interés positivo que para el Derecho público genera la utilización de las IA en procedimientos resolutivos, por cuanto que potencialmente más garantes de un trato igualitario a las personas.
Por tanto es que con la IA acaben por coincidir aplicación y normativización del Derecho; no en vano, la interpretación de una norma supone su concretización a la realidad que efectivamente regula [130]: “la norma no es previa, no está dada al observador, sino que es el resultado de la observación; norma es la operación de selección de una solución aplicable a un caso, de entre varias posibles ofrecidas por el ordenamiento jurídico” (Serrano Moreno) [131]. Tal coincidencia en la realización de la norma, en su producción y aplicación, resulta pacíficamente admitida en la cultura jurídica anglosajona al observarse el Derecho más como resolución de conflictos que como mera regulación de relaciones, pues en su realización confluyen producción y aplicación del Derecho y, con ello, la norma jurídica final. En cambio, y desde una mentalidad jurídica continental-europea, es cierto que se haya tendido a romper dicha confluencia distinguiendo entre aplicación y producción del Derecho, de modo que hayamos centrado en esta última las fuentes de este [132]; y ello, además, desde la perspectiva cerrada del sistema de fuentes al amparo de constituciones normativas (tal como se ha advertido al comienzo de estas páginas). Asimismo, sin embargo, lo anterior, y con relación a la jurisprudencia de ciertos tribunales, es que se acabe reconociendo expresamente su naturaleza de fuente del Derecho (según lo adelantado también más arriba) dado el carácter eminentemente abstracto y nomofiláctico de la misma [133]; y de este modo, entonces, que debamos entenderlo asimismo respecto a las IA que evalúan información conforme a Derecho, dada la total abstracción con la que deben funcionar o trabajar durante tal evaluación.
En contrapartida a lo anterior estaría la necesaria vigilancia jurídica sobre aquellas IA que, al servicio del poder público, hagan evaluaciones desde el Derecho. Y en este sentido, y al amparo de la PRIA, su consideración como IA de “alto riesgo” (art. 6.2 y Anexo III.5, 6, 7 y 8) de modo que estas estén llamadas no sólo a cumplir determinados y estrictos requisitos, sino a que sean evaluadas públicamente por terceros independientes a fin de comprobar dicho cumplimiento ex ante, además de someterse a otras obligaciones y controles a posteriori (Tít. III PRIA). Pero también, claro, el propio examen jurídico sobre cómo hayan funcionado efectivamente dichas IA [134], y ello con especial referencia a su alcance respecto a la interpretación de la norma jurídica que hagan al momento de realizar tales evaluaciones [135] y, en particular, su corrección jurídica [136]. Otra cosa será cómo quepa hacerse dicho control judicial a tenor del carácter técnico del funcionamiento de la IA, además de la dificultad que para explicar su funcionamiento se advierte en no pocos supuestos (como se ha comentado); y otra cosa es, también, que dichos controles previos de la IA que prevé la PRIA puedan llegar a compensar jurídica y preventivamente las dificultades de tal control jurídico y a posteriori, en tanto que garantizada inicialmente cierta confianza jurídica en el funcionamiento de la IA (al menos, con carácter iuris tantum). Con todo, y en su caso, es que el juez dependa ahora de expertos informáticos no ya para peritajes digitales del sistema informático en sentido estricto, cuando sea necesario (respecto al funcionamiento de la IA conforme sus algoritmos y entrenamiento), sino en relación al propio Derecho, en cuanto que interpretación y concreción de la misma norma jurídica (así, su racionamiento jurídico-digital).
Esto último nos lleva a una reflexión que excede de este trabajo, y es la preparación informática que deberían tener ya los juristas, en general [137], y los jueces y magistrados, en particular [138], en cuanto que juristas digitales ahora [139]. No en vano, en poco tiempo el empleo intensivo de la IA en la actividad jurídica va a requerir tanto la condición de usuario de los juristas, como un conocimiento técnico-informático más profundo por estos; y es que los juristas están llamados a participar, junto a los informáticos, en el diseño, desarrollo, entrenamiento y pruebas de dichas IA, como en los propios equipos que luego hayan de desentrañar su ulterior funcionamiento. Además, y por otra parte, está el que el desarrollo y la explotación comercial de tales IA (las llamadas a evaluar cuestiones conforme a Derecho por los poderes públicos) se encuentra fundamentalmente en manos privadas y, por tanto, (según la referida condición de dichas IAs como fuentes del Derecho) que se plantee cierta privatización y externalización de estas, en cuanto que bajo impulso privado. Esto, en principio, se presentaría como una manifestación más de cómo el desarrollo tecnológico y digital está permitiendo o dando lugar a un traslado de actuaciones públicas al ámbito privado: así, externalizando la propia actividad y función pública, pero con la relevancia ahora que supone el referirnos al sistema de fuentes del Derecho, y al responder este no sólo a un esquema jurídico esencialmente definido a nivel constitucional, sino al deber también a articularse de acuerdo a una cadena de legitimidad en la que sus eslabones conecten con el principio democrático (conforme lo señalado en la introducción). Y ello, ahora (entendemos), sin que en este caso pueda resolverse desde un mero reenvío de normas públicas a otras privadas, pues esto no se da realmente aquí; simplemente es que se está ante un supuesto de externalización (por lo menos del diseño) del proceso deductivo de la norma jurídica, de manera que esta, en su tramo final, queda en manos de un sistema informático de origen mayoritariamente privado [140].
Para terminar este apartado, cabría plantear cómo tales IA además de suponer retos para el Derecho, son también oportunidades para el mismo, dado que potenciales innovaciones al respecto de él: sin más, pensemos en una IA directamente diseñada y programada para evaluar conflictos entre normas jurídicas pertenecientes a ordenamientos diversos; y, con ello, no sólo resolviendo dichos conflictos, sino pudiendo llegar también a plantear nuevos modos de trazar las relaciones entre ordenamientos. Recuérdese que hoy las IA, aun tendiendo a la emulación de la inteligencia humana, acaban desarrollando estrategias y razonamientos lógicos propios, lo que bien puede dar lugar a nuevas maneras de plantear las relaciones entre ordenamientos jurídicos, la resolución de conflictos normativos o la propia forma crear o interpretar las normas jurídicas; o lo que es igual, llegar a plantearnos una “dogmática artificial” al impulso de la IA. Y es que, considerándose la doctrina jurídica por algunos como una fuente informal del Derecho [141], bien cabría que dicha “dogmática artificial” acabara formando parte del propio Derecho. Naturalmente ello queda aún en el baúl del tiempo y de lo posible, pero no por ello en un futuro necesariamente distópico, pues dependerá de nuestra oportuna y adecuada intervención como constitucionalistas responsables tanto en su potencial desarrollo informático, como de su ulterior uso instrumental en nuestra labor científico-jurídica.
Como se ha visto, estamos ante un presente jurídico cambiante e inestable dados los cambios sociales, técnicos y jurídicos que ya se han producido, y los que están por llegar a la sombra del progreso de la tecnología digital, en general, y de la IA, en particular; cambios, por lo demás, que no estamos en condiciones enteramente de prever, por más que proyectemos una visión prospectiva al respecto [142]. Ello, obviamente, afecta ya a la seguridad jurídica en cuanto que elemento principial y básico del Derecho moderno, y, por tanto, a la propia construcción de nuestros contemporáneos ordenamientos constitucionales; de “final de una época dorada”, incluso, llega a hablar Balaguer Callejón [143]. Con todo, y apelando a la referida condición de constitucionalistas responsables y comprometidos que somos (como hemos hecho más arriba) es que quepa (o mejor debamos) someter dicho progreso de la IA a una constante monitorización constitucional a fin de ir advirtiendo los retos y las dificultades que aquella vaya dando lugar en todo momento; una labor ardua y pesada (por lo demás, ante su constante aceleración) pero necesaria, si no queremos amanecer un día ante un futuro distópico por más que algún que otro elemento de distopía se advierta en el presente [144]; pero apelación también a nuestro compromiso constitucional sobre nuestro propio futuro y el de las generaciones venideras [145], de modo que tal progreso de la IA pueda responder asimismo a valores construidos democráticamente en torno a la dignidad de la persona; una labor igualmente espinosa, pero distinta a la anterior, pues requiere ahora de altas dosis de imaginación sobre cómo guiar el desarrollo de la IA respecto a su potencial impacto. En esa labor, precisamente, se deben enmarcar estas páginas de reflexión crítica, con las que hemos querido señalar, al menos, los nuevos nodos que al sistema constitucional se le abren, se le pueden abrir y se le deberían abrir con relación al progreso digital, tanto para su ulterior diagnóstico jurídico, como para una prescripción normativa con la que encauzar dicho progreso. Una reflexión crítica, así, con la que contrarrestar el relato de un futuro digital bajo el dominio de ciertas empresas globales en vez de las personas, cuando son estas las auténticas protagonistas de los valores constitucionales que aún perviven en nuestros maltrechos sistemas constitucionales. Por ello es tan trascendente el impacto de la IA en las fuentes del Derecho, pues de lo que se trata no es solo de cómo hoy la IA incide en el Derecho, sino de cómo el Derecho debiera incidir en aquella para de este modo garantizar cierto control democrático del devenir disruptivo de la IA.
Resumen: El presente trabajo reflexiona sobre la incidencia constitucional de la inteligencia artificial en el sistema de fuentes del Derecho, dada su disposición para asumir y catalizar jurídicamente los cambios que se dan en la realidad en cada momento histórico. A estos efectos se aborda cuáles son las fuentes con las que se está regulando la inteligencia artificial; asimismo, cómo repercute la inteligencia artificial en tales fuentes al desarrollar precisamente tal regulación; y finalmente, hasta qué punto cabe considerar la inteligencia artificial como fuente del Derecho.
Palabras claves: Inteligencia artificial, Derecho constitucional, fuentes del Derecho.
Abstract: This paper reflects on the constitutional incidence of Artificial Intelligence in the system of the sources of Law, given its willingness to legally assume and catalyse the changes of reality at each historical moment. In this perspective, the paper analyses the sources that regulate Artificial Intelligence; likewise, it is about how Artificial Intelligence affects such sources when developing its regulation; and finally, if Artificial Intelligence can be considered as a source of Law.
Key words: Artificial Intelligence, Constitutional Law, Sources of Law.
Recibido: 3 de abril de 2023
Aceptado: 15 de junio de 2023
______________________________________
[01] Este trabajo se ha realizado en el marco del Proyecto de Investigación: “La configuración del espacio público en las redes sociales y su incidencia sobre la Democracia pluralista y la Constitución” (PID2019-106118GB-I00).
[02] P.e., R. LÓPEZ DE MÁNTARAS, C. SIERRA y P. ALMEDA, “IA: els interrogants que ens interpel·len”, Idees: Revista de Temes Contemporanis, núm. 48, 2020.
[03] Entre otros, M.Á. PRESNO LINERA, Derechos fundamentales e inteligencia artificial, Marcial Pons / Fundación Giménez Abad, Madrid, 2022.
[04] Así, F. BALAGUER CALLEJÓN, “O impacto dos novos mediadores da era digital na liberdade de expressão”, Espaço Jurídico: Journal of Law, vol. 23, núm. 1, 2022, pp. 179 ss.; también J.A. MONTILLA MARTOS, “Inteligencia Artificial y derechos de participación política”, De Lege Ferenda: Revista de la Facultad de Derecho de la Universidad de Granada, núm. 1, 2023.
[05] P.e., véase P. RIDOLA, “Constitucionalismo y Estado Constitucional”, A. Pérez Miras (trad.), en AA.VV. Derechos fundamentales, desarrollo y crisis del constitucionalismo multinivel: libro homenaje a Jörg Luther, Civitas / Thomson Reuters, Cizur Menor, Navarra, 2020, pp. 69 ss.
[06] Así, O. POLLICINO y G. DE GREGORI, “Constitutional Law in the Algorithmic Society”, en AA.VV. Constitutional Challenges in the Algorithmic Society, Cambridge University Press, Cambridge, 2022, pp. 3 ss.
[07] F. BALAGUER CALLEJÓN, La constitución del algoritmo, Fundación Manuel Giménez Abad, Zaragoza, 2022, pp. 32 ss.
[08] Cfr. J.F. SÁNCHEZ BARRILAO, De la ley al reglamento delegado: deslegalización, acto delegado y transformaciones del sistema de fuentes, Aranzadi / Thomson Reuters, Cizur Menor, Navarra, 2015, p. 23.
[09] L. DÍEZ-PICAZO, “La Doctrina de las fuentes del Derecho”, Anuario de Derecho Civil, vol. 37, núm. 4, 1984, p. 933.
[10] Para otra perspectiva, la relativa a los procesos regulatorios de la IA, las modalidades de regulación de la IA y los enfoques regulatorios de la IA, véase A. REICHMAN y G. SARTOR, “Algorithms and Regulation”, en AA.VV. Constitutional Challenges in the Algorithmic Society… cit., pp. 131 ss.
[11] Véase J.F. SÁNCHEZ BARRILAO: “Sobre la Constitución normativa y la tecnología”, Revista de la Facultad de Derecho de la Universidad de Granada, núm. 8, 2005, pp. 257 ss.; “Tecnología, democracia y fuentes del derecho”, en AA.VV. Constitución y Democracia. 25 años de Constitución democrática en España: (actas del congreso celebrado en Bilbao los días 19 a 21 de noviembre de 2003) (I), Centro de Estudios Políticos y Constitucionales, Madrid, 2005, pp. 467 ss.; “Ordenamientos privados y Derecho constitucional”, en AA.VV. Libro homenaje al profesor Rafael Barranco Vela (I), Civitas / Thomson Reuters, Madrid, 2014, pp. 607 ss.; y De la ley al reglamento delegado… cit., pp. 228 ss.
[12] Nuevamente J.F. SÁNCHEZ BARRILAO, pero ahora “El Derecho constitucional ante la era de Ultrón: la informática y la inteligencia artificial como objeto constitucional”, Estudios de Deusto: Revista de Derecho Público, vol. 64, núm. 2, 2016, pp. 255-256.
[13] En tanto que perspectiva de conocimiento en la que la IA ha nacido, y así tener un conocimiento básico sobre qué consista, para luego procurar ya un concepto jurídico de tales realidades capaz de trascender su origen, en tanto que instrumental al Derecho y a la Ciencia jurídica. Sobre el uso de perspectivas extrajurídicas al respecto del Derecho Constitucional, véase F. BALAGUER CALLEJÓN, pero ahora “Constitución normativa y ciencia del derecho”, en AA.VV. Estudios de Derecho público en homenaje a Juan José Ruiz-Rico. I, Tecnos, Madrid, 1997, en especial pp. 89 ss.
[14] Para una aproximación al desarrollo de la IA desde mediados del S. XX hasta la primera década de este, véase N.J. NILSSON, The quest for Artificial Intelligence. A history of ideas and achievements, Cambridge University Press, Cambridge / New York, 2009; y ya, para el salto que ha dado en estos últimos, B. DELIPETREV, C. TSINARAKI y U. KOSTIĆ, AI Watch. Historical Evolution of Artificial Intelligence. Analysis of the three main paradigm shifts in AI, European Commission / Joint Research Centre, Ispra, 2020, pp. 11 ss.
[15] Cfr. S.J. RUSSELL y P. NORVIG, Artificial Intelligence: A Modern Approach, 4ª ed., Pearson, Hoboken, 2022.
[16] Otra cosa es que la IA razone como un humano o de otra forma, tal como nos recuerda M. ACOSTA, en “Inteligencia artificial. La cibernética del ser vivo y de la máquina”, Naturaleza y Libertad: Revista de Estudios Interdisciplinares, núm. 12, 2019, pp. 13 ss.
[17] Cfr. S. CIRUELA MARTÍN, “La sabiduría de la Naturaleza. Ciencia Cognitiva”, Revista Electrónica de Divulgación, vol. 2, núm. 3, 2008, pp. 81-83.
[18] OECD, Artificial Intelligence in Society, OECD Publishing, Paris, 2019, p. 23.
[19] Sigue diciendo: “Los sistemas de IA están diseñados para funcionar con diferentes grados de autonomía, mediante la modelización y representación del conocimiento y la explotación de datos y el cálculo de correlaciones.Pueden incluir varios métodos como por ejemplo, aunque noexclusivamente: i) el aprendizaje automático, incluido el aprendizaje profundo y el aprendizaje de refuerzo; ii) el razonamiento automático, incluidas la planificación, la programación, la representación del conocimiento y el razonamiento, la búsqueda y la optimización. / Los sistemas de IA pueden utilizarse en los sistemas ciberfísicos, incluidos la Internet de las cosas, los sistemas robóticos,larobóticasocialylasinterfacesentresereshumanosyordenadores,quecomportanelcontrol,lapercepción, el procesamiento de los datos recogidos por sensores y el funcionamiento de los actuadores en el entorno en que operan los sistemas de IA”.
[20] Anexo I Técnicas y estrategias de inteligencia artificial mencionados en el art. 3.1 PRIA: “Estrategias de aprendizaje automático, incluidos el aprendizaje supervisado, el no supervisado y el realizado por refuerzo, que emplean una amplia variedad de métodos, entre ellos el aprendizaje profundo. / Estrategias basadas en la lógica y el conocimiento, especialmente la representación del conocimiento, la programación (lógica) inductiva, las bases de conocimiento, los motores de inferencia y deducción, los sistemas expertos y de razonamiento (simbólico). / Estrategias estadísticas, estimación bayesiana, métodos de búsqueda y optimización”.
[21] Cfr. J.F. SÁNCHEZ BARRILAO, “El futuro jurídico de internet: Una aproximación constitucional a la neutralidad de la red”, Revista de Derecho Constitucional Europeo, núm. 26, 2016, pp. 198-199.
[22] Sobre tal principio, véase J.C. HERNÁNDEZ PEÑA, El marco jurídico de la Inteligencia Artificial… cit., pp. 101 ss.
[23] Como así plantea la propia PRIA en su art. 4 (y sobre lo que volveremos más adelante).
[24] No en vano, cualquier IA acaba por evaluar información sin perjuicio del proceso de aprendizaje y razonamiento que la guíe (Machine Learning o Deep Learning), de cómo obtenga la información (pues esta puede ser suministrada por una persona, o ser obtenida automáticamente), de qué pase luego con ello (dado que la evaluación puede limitarse a una valoración o bien dar lugar a concretas decisiones), de si el proceso es singular o compuesto por varias (formando sistemas complejos de IA), de si ella se incorpora o no a una máquina con cierta autonomía (cómo no, un robot), o, e incluso, de si es capaz de abstraer y crear a partir de dicha evaluación de información (música, sin ir más lejos, o pintura). Así tan IA es hoy el personaje secundario que acompaña al avatar del jugador de no pocos videojuegos, como un coche de conducción autónoma de nivel 5, un asistente digital en el hogar o en el móvil, o un software capaz de detectar un cáncer de piel a partir de una foto de un lunar, predecir una situación de riesgo o peligro, o de crear, incluso, una imagen a modo de cuadro en NFT; y ello, con cierta capacidad propia y autónoma de funcionamiento, tal como destaca M. BARRIO ANDRÉS, en “Inteligencia artificial: origen, concepto, mito y realidad”, El Cronista del Estado Social y Democrático de Derecho, núm. 100, 2022, especialmente p. 9.
[25] Piénsese en una IA programada para jugar al ajedrez, pues puede perder una partida aun habiéndola jugado bien. Otra cosa es que se advierta un problema de programación del algoritmo, de entrenamiento o de los datos con los que esta hubiera aprendido, y entonces que sí se pueda hablar de un mal funcionamiento por un mal diseño; como también es distinto que el algoritmo directamente haya sido diseñado para un fin espurio (recuérdese el escándalo de la Cambridge Analytica), y este al tiempo produzca un daño, pero precisamente porque funciona correctamente (es decir, conforme a lo que había sido diseñado).
[26] No en vano, estamos en el campo de la ciencias y la tecnología (que no del Derecho), y en este es que las respuestas (salvo en el caso de las leyes naturales) se expresen porcentualmente; sobre el diverso lenguaje de la Ciencia y el Derecho en tal sentido, véase J. ESTEVE PARDO, “Decidir y regular en la incertidumbre. Respuestas y estrategias del Derecho Público”, en AA.VV. Estrategias del Derecho ante la incertidumbre y la globalización, Marcial Pons, Madrid, 2015, pp. 33 ss.
[27] Así, J. GÓMEZ-RIESCO TABERNERO DE PAZ, “Los robots y la responsabilidad civil extracontractual”, en AA.VV. Derecho de los Robots, La Ley / Wolters Kluwer, Madrid, 2018, pp. 107 ss.; y J.M. MUÑOZ VELA, Retos, riesgos, responsabilidad y regulación de la inteligencia artificial (Un enfoque de seguridad física, lógica, moral y jurídica), Aranzadi / Thomson Reuters, Cizur Menor, Navarra, 2022, pp. 201 ss.
[28] Véase p.e, J. TEJERO, “Unwrapping black-box models: A case study in credit risk”, Estabilidad Financiera, núm. 43, 2022, pp. 91 ss.
[29] Cfr. A. SIMONCINI y E. LONGO, “Fundamental Rights and the Rule of Law in the Algorithmic Society”, en AA.VV. Constitutional Challenges in the Algorithmic Society… cit., pp. 27 ss.
[30] Cfr.E. GOÑI HUARTE, “La causalidad incierta en la responsabilidad civil derivada de la inteligencia artificial”, Revista General de Derecho Europeo, núm. 58, 2022.
[31] En general, sobre tal control, E. GARCÍA DE ENTERRÍA y T.R. FERNÁNDEZ, Curso de Derecho Administrativo (I), 4ª ed., Civitas, Madrid, 1986, pp. 409 ss.; y ya al respecto de la IA, J. JIMÉNEZ LÓPEZ, “Oscuridad algorítmica en el sector público”, en AA.VV. La disrupción tecnológica en la Administración Pública. Retos y desafíos de la Inteligencia Artificial, Aranzadi / Thomson Reuters, Cizur Menor, Navarra, 2022, pp. 41 ss.
[32] L. COTINO HUESO, “Transparencia y explicabilidad de la inteligencia artificial. Elementos conceptuales, generales y de género”, en AA.VV. Transparencia y explicabilidad de la inteligencia artificial, Tirant lo Blanch, Valencia, 2022, pp. 25 ss. También, véase A. BOIX PALOP, “Transparencia en la utilización de inteligencia artificial por parte de la Administración”, El Cronista del Estado Social y Democrático de Derecho, núm. 100, 2022, pp. 90 ss.; y J.I. HERCE MAZA, “Buena administración de la transparencia de los algoritmos de la Administración Pública: un instrumento para el control de las cajas negras decisionales”, en AA.VV. La disrupción tecnológica en la Administración Pública… cit., pp. 123 ss.
[33] Entre otros: V. CRISAFULLI, Lezioni di Diritto Costituzionale (II.1 L’ordinamento costituzionale italiano: le fonti normative), F. Crisafulli (ed.), CEDAM, Milani, 1993; L. PALADIN, Le fonti del diritto italiano, Il Mulino, Bologna, 1996; F. MODUGNO, Appunti dalle lezioni sulle Fonti del Diritto, G. Giappichelli, Torino, 2000; o F. SORRENTINO, Le fonti del Diritto Amministrativo, en Trattado di Diritto Amministrativo (XXXV), CEDAM, Milani, 2004.
[34] Así, p.e., F. BALAGUER CALLEJÓN, Fuentes del Derecho (II. Principios del ordenamiento constitucional), Tecnos, Madrid, 1991, pp. 48 ss.
[35] Cfr. J.F. SÁNCHEZ BARRILAO, De la ley al reglamento delegado… cit., pp. 57-58.
[36] Otra vez J.F. SÁNCHEZ BARRILAO, mas ahora Pluralismo ordinamental y Derecho constitucional: El derecho como relaciones entre ordenamientos jurídicos, Aranzadi / Thomson Reuters, Cizur Menor, Navarra, 2021.
[37] De interés, A.L. TERRONES RODRÍGUEZ, “Inteligencia artificial, responsabilidad y compromiso cívico y democrático”, CTS: Revista iberoamericana de Ciencia, Tecnología y Sociedad, vol. 15, núm. 44, 2020, pp. 253 ss.
[38] Nuevamente J.F. SÁNCHEZ BARRILAO, pero “Constitucionalismo digital: entre realidad digital, prospectiva tecnológica y mera distopía constitucional”, Revista da AJURIS, vol. 49, núm. 152, 2022, pp. 405 ss.
[39] Véase P. RIDOLA, “Il principio di sussidiarietà e la forma di stato di democrazia pluralistica” junto a A.A. CERVATI y S. P. PANUNZIO, en Studi sulla riforma costituzionale (Itinerari e temi per l’innovazione costituzionale in Italia), G. Giappichelli Editore, Torino, 2001, pp. 194 ss. También de interés, sobre cómo se articula tal principio en la Unión Europea, y así al respecto de su incidencia en la gobernanza normativa de la IA en Europa, F. BALAGUER CALLEJÓN, “La subsidiariedad en la Unión Europea”, Revista de Derecho Constitucional Europeo, núm. 31, 2019, pp. 89 ss.
[40] Cfr. otra vez F. BALAGUER CALLEJÓN, La constitución del algoritmo… cit., pp. 105 ss.
[41] Acerca de tales derechos como fundamento de una dimensión liberal del progreso tecnológico (en el que cabría integrar, al menos inicialmente, el nacimiento, el desarrollo y la explotación de la IA), véase J.F. SÁNCHEZ BARRILAO, “Los fundamentos del «progreso informático» en la Unión Europea”, Revista de Derecho Político, núm. 98, 2017, pp. 342 ss.
[42] De interés, E. YUDKOWSKY, “Artificial Intelligence as a Positive and Negative Factor in Global Risk”, en AA.VV. In Global Catastrophic Risks, Oxford University Press, New York, 2008, pp. 308 ss.; y, especialmente, N. BOSTROM, Superinlligence: Paths, Dangers, Strategies, Oxford University Press, Oxford, 2014.
[43] Sobre aquella y estas declaraciones, J. VALLS PRIETO, Inteligencia artificial, derechos humanos y bienes jurídicos, Aranzadi / Thomson Reuters, Cizur Menor, Navarra, 2021, Cap. III.
[44] En torno a esta, véase: J. ESTEVE PARDO, Autorregulación (Génesis y efectos), Aranzadi, Cizur Menor, Navarra, 2002; o H. SIMONETTI, Codici di autoregolamentazione e sistema delle fonti, Jovene Editore, Napoli, 2009.
[45] Ya J.F. SÁNCHEZ BARRILAO, Pluralismo ordinamental y Derecho constitucional… cit., pp. 69 ss., y 102.
[46] Sobre la colaboración normativa entre particulares y poderes públicos que se viene dando en materia digital, véase W. HOFFMANN-RIEM, El Derecho ante el reto de la transformación digital, E. Knörr Argote (trad.), Aranzadi / Thomson Reuters, Cizur Menor, Navarra, 2022, pp. 127 ss.
[47] Con carácter general, sobre la PRIA, véase V. VARGAS, “Entre la confianza ciudadana y el impulso tecnológico. Retos jurídicos de la Inteligencia Artificial a la luz de la propuesta de Reglamento de la UE”, IUS ET SCIENTIA: Revista electrónica de Derecho y Ciencia, vol. 8, núm. 1, 2022, pp. 176 ss.; M. DE HOYOS SANCHO, “El proyecto de Reglamento de la Unión Europea sobre inteligencia artificial, los sistemas de alto riesgo y la creación de un ecosistema de confianza”, en AA.VV. Justicia poliédrica en periodo de mudanza: Nuevos conceptos, nuevos sujetos, nuevos instrumentos y nueva intensidad, Tirant Lo Blanch, Valencia, 2022, pp. 403 ss.; L. REYES RICO, “La inteligencia artificial y su futuro marco regulatorio”, Comunicaciones en Propiedad Industrial y Derecho de la Competencia, núm. 95, 2022, pp. 121 ss.; y, especialmente, J.C. HERNÁNDEZ PEÑA, El marco jurídico de la Inteligencia Artificial. Principios, procedimientos y estructuras de gobernanza, Aranzadi / Thomson Reuters, Cizur Menor Navarra, 2022.
[48] La PRIA fue presentada por la Comisión en abril de 2021, registrándose en el Parlamento el 27 de abrile iniciándose el correspondiente procedimiento legislativo ordinario (2021/0106/COD), aún abierto al momento de escribir estas páginas (marzo de 2023).
[49] Aprobación por el Parlamento Europeo, el 27 de enero de 2017, de un Informe de la Comisión de Asuntos Jurídicos, de 31 de mayo de 2016 (5015/2103). Sobre ello, J.F. SÁNCHEZ BARRILAO, “Derecho constitucional, desarrollo informático e Inteligencia Artificial: aproximación a la Propuesta del Parlamento Europeo a favor de la una regulación sobre robótica”, en AA.VV. Retos jurídicos por la sociedad digital, Aranzadi / Thomson Reuters, Cizur Menor, Navarra, 2018, pp. 21 ss.; y A.M. ARANSAY ALEJANDRE, “Antecedentes y propuestas para la regulación jurídica de los robots”, en AA.VV. Derecho de los Robots… cit., pp. 87 ss.
[50] P.e., S. RUIZ TARRÍAS, “La búsqueda de un modelo regulatorio de la IA en la Unión Europea”, Anales de la Cátedra Francisco Suárez, núm. 57, 2023, pp. 91 ss.
[51] Sobre ambas fuentes, por todos, véase R. ALONSO GARCÍA y P.A. SÁENZ DE SANTAMARÍA, El sistema europeo de fuentes, Fundación Coloquio Jurídico Europeo, Madrid, 2022, respectivamente pp. 34 ss., y 172 ss.
[52] No en vano, el mercado de la IA es la primera base jurídica de la PRIA. Cfr. art. 114 TFUE, conforme Exp. Mot. 2.1 PRIA: “Su objetivo primordial es garantizar el correcto funcionamiento del mercado interior mediante el establecimiento de normas armonizadas, en particular en lo que respecta al desarrollo, la introducción en el mercado de la Unión y el uso de productos y servicios que empleen tecnologías de IA o se suministren como sistemas de IA independientes”. También, véase art. 1 PRIA.
[53] Así es que la Exp. Mot. 1.1 PRIA hable expresamente de “facilitar el desarrollo de un mercado único para hacer un uso legal, seguro y fiable de las aplicaciones de IA y evitar la fragmentación del mercado”. Además, véase Exp. Mot. 2.2 PRIA.
[54] Cfr. J.F. SÁNCHEZ BARRILAO, “Los fundamentos del «progreso informático» en la Unión Europea… cit., 2017, pp. 348 y 350; y con carácter más general, sobre tal perspectiva negativa de la informática en el Derecho primario de la Unión Europea, “Innovación digital, ciudadanía e integración europea”, en AA.VV. Europa, società aperta (I Problemi attuali e prospettive future), Editoriale Scientifica, Napoli, 2022, pp. 423 ss.
[55] Ni si quiera la fallida propuesta de Constitución en Chile de 2022, especialmente interesada en torno al progreso digital y sus efectos en la ciudadanía (p.e., arts. 33, 48, 86, 88, 89, 90, 152 o 216), llega a hablar de la IA.
[56] P.e., I. DE OTTO Y PARDO, Derecho constitucional: sistema de fuentes, Ariel España, Barcelona, 1987.
[57] Cfr. F. BALAGUER CALLEJÓN, La constitución del algoritmo… cit., pp. 181 ss.
[58] Pues no se trata solo de que se pueda limitar legalmente derechos fundamentales mediante el uso de IAs, sino que a la sombra de los riesgos que suponen las IAs se limite legalmente también los referidos derechos a la investigación científica, a la propiedad privada y a la libre empresa (así, art. 53.1 CE). A tales efectos, acerca del sentido constitucional hoy de la reserva de ley, véase F. BALAGUER CALLEJÓN, Fuentes del Derecho (II. Ordenamiento general del Estado y ordenamientos autonómicos), Tecnos, Madrid, 1992, pp. 104 ss.
[59/a>] Cfr. J.F. SÁNCHEZ BARRILAO, “Reivindicando la ley”, en AA.VV. Constitucionalismo crítico: liber amicorum Carlos de Cabo Martín (II), 2ª ed., Tirant lo Blanch, Valencia, 2016, pp. 859 ss.
[60] Con carácter general, véase J.F. SÁNCHEZ BARRILAO, Pluralismo ordinamental y Derecho constitucional… cit., pp. 23 ss., y en especial p. 48.
[61] Sobre tal efecto, véase A. BRADFORD, “The Brussels Effect”, Northwestern University Law Review, vol. 107, núm. 1, 2012.
[62] Véase W. HOFFMANN-RIEM, El Derecho ante el reto de la transformación digital… cit., pp. 48 ss.; también, J.C. HERNÁNDEZ PEÑA, El marco jurídico de la Inteligencia Artificial… cit., pp. 70 ss.
[63] No en vano, uno de los objetivos expresos de la PRIA es “garantizar la seguridad jurídica para facilitar la inversión e innovación en IA” (Exp. Mot. 1.1).
[64] Así, sobre la distancia entre la Unión Europea al respecto del desarrollo en IA por Estados Unidos, y especialmente por China, J. FOURNIER GUIMBAO, “Inteligencia artificial una carrera hacia el futuro tecnológico”, bie3: Boletín IEEE, núm. 23, 2021, pp. 146 ss.
[65] Sin duda, ello estaba ya en mente del propio Parlamento Europeo en 2017, al hilo de la referida aprobación del anterior Informe de la Comisión de Asuntos Jurídicos de 2016 (2015/2103), por el que se instaba a la Comisión Europea para que propusiera una Directiva en torno a la Robótica; al respecto, véase J.F. SÁNCHEZ BARRILAO, “Derecho constitucional, desarrollo informático e Inteligencia Artificial… cit., pp. 71 ss.
[66] Pues de otro modo, insistimos, la IA que finalmente acabara por utilizarse mayoritariamente en Europa sería la desarrollada por otros (y conforme a postulados propios), de forma que los ciudadanos de Europa, ante su dependencia tecnológica, quedaran a merced de aquellos.
[67] Cfr. AI Expert Newsletter: “W is for Winter”. Archivado el 9 noviembre de 2013 en Wayback Machine; sobre esto, véase R. SANGÜESA y A. GUERSENZVAIG, “AI as a Design Material: Dealing with New Agencies”, Temes de Disseny, núm. 35, 2019, p. 7.
[68] Por su interés: “Se otorgan a la Comisión los poderes para adoptar actos delegados de conformidad con el artículo 73 al objeto de modificar la lista de técnicas y estrategias que figura en el anexo I, con miras a adaptar dicha lista a la evolución del mercado y los avances tecnológicos sobre la base de características que sean similares a las técnicas y las estrategias incluidas en ella”. También, pero al respecto de IAs consideradas de “alto riesgo” conforme al Anexo III PRIA, véase su art. 7.
[69] Véase J.F. SÁNCHEZ BARRILAO, De la ley al reglamento delegado… cit., Caps. 4 y 5.
[70] Nuevamente J.F. SÁNCHEZ BARRILAO, De la ley al reglamento delegado… cit., pero ahora Cap. 6.
[71] Cfr. J.F. SÁNCHEZ BARRILAO, “Tecnología, democracia y fuentes del derecho… cit., pp. 476-477 ss.
[72] Ya en España, L 7/2020, del 13 de noviembre, para la transformación digital del sistema financiero.
[73] Desde esta perspectiva, J. TRUBY et al., “A Sandbox Approach to Regulating High-Risk Artificial Intelligence Applications”, European Journal of Risk Regulation, núm. 13, 2022, pp. 270 ss.
[74] Acerca de la diferencia entre derogazione y abrogazione en Italia, véase R. GUASTINI, Dalle fonti alle norme, 2ª ed., G. Giappichelli Editore, Torino, 1992, pp. 260-261; asimismo de interés, sobre la especialidad en tanto que derogación parcial normativa, A. RUGGERI, Fonti, norme, criteri ordinatori. Lezioni, 3ª ed., G. Giappichelli Editore, Torino, 2001, pp. 65-67.
[75] Desde esta perspectiva, véase A. MERLINO, “La regulatory sandbox in un recente parere del Consiglio di Stato”, Giustizia Amministrativa, 2021, en https://www.giustizia-amministrativa.it/web/guest/-/merlino-la-regulatory-sandbox-in-un-recente-parere-del-consiglio-di-stato; y ya, desde una perspectiva más crítica, S. RANCHORDAS, “Experimental lawmaking in the EU: Regulatory Sandboxes”, EU Law Live (Weekend Edition, 22 October 2021), University of Groningen Faculty of Law Research Paper No. 12/2021, en https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3963810.
[76] Cfr. J.C. HERNÁNDEZ PEÑA, El marco jurídico de la Inteligencia Artificial… cit., pp. 203-205.
[77] Art. 16.1: “Se promoverá la creación de un Sandbox multisectorial, abierto a todo tipo de innovación, que permita crear condiciones seguras para que puedan probarse innovaciones de base tecnológica bajo vigilancia de los supervisores”.
[78] P.e., P. GARCÍA-MANZANO JIMÉNEZ DE ANDRADE, Los reglamentos de las administraciones independientes. Sector financiero, reguladores y Comisión Nacional de los Mercados y la Competencia, autoridades de protección, Civitas / Thomson Reuters, Cizur Menor, Navarra, 2013.
[79] Sobre tal órgano y sus relaciones con las respectivas Autoridades nacionales, véase J.C. HERNÁNDEZ PEÑA, El marco jurídico de la Inteligencia Artificial… cit., pp. 173 ss.
[80] “La insuficiencia legal que venimos analizando tampoco puede ser colmada, en ejercicio de sus potestades, por la Agencia Española de Protección de Datos. La agencia es la autoridad administrativa independiente a la que se encomienda la interpretación y aplicación de la normativa de protección de datos (arts. 57 y 58 RGPD y 44 y sigs. LOPDyGDD), y su potestad normativa, mediante la aprobación de circulares, está circunscrita al dictado de «disposiciones que fijen los criterios a que responderá la actuación de esta autoridad» en la aplicación de lo dispuesto en el Reglamento (UE) 2016/679 y en la Ley Orgánica 3/2018 (artículo 55.1 LOPDyGDD). Por tanto, la circunstancia de que, con posterioridad a la interposición del presente recurso contra la ley, la presidencia de la Agencia Española de Protección de Datos haya aprobado la Circular 1/2019, de 7 de marzo, para abordar esa laguna, tal como se indicó anteriormente, no puede subsanar la insuficiencia constitucional de la que adolece el artículo 58 bis LOREG introducido por la Ley Orgánica 3/2018 por lo que se refiere a la recopilación de datos personales relativos a las opiniones políticas en el marco de actividades electorales. Una interpretación distinta vaciaría de contenido el principio de reserva legal que consagra la Constitución y que de forma reiterada ha invocado nuestra jurisprudencia previa en materia de protección de datos personales”.
[81] Así, R. BERMEJO BOSCH, “Análisis en la doctrina administrativa de la Agencia Española de Protección de Datos en relación con el tratamiento de imágenes a través de sistema de vídeovigilancia”, Revista Aranzadi de Derecho y Nuevas Tecnologías, núm. 25, 2011, pp. 61 ss.
[82] Cómo no, L.A. POMED SÁNCHEZ, “Fundamento y naturaleza jurídica de las Administraciones independientes”, Revista de Administración Pública, núm. 132, 1993, pp. 117 ss.; también, con carácter general, M. SALVADOR MARTÍNEZ, Autoridades independientes: un análisis comparado de los Estados Unidos, el Reino Unido, Alemania, Francia y España, Ariel, Barcelona, 2002.
[83] Cfr. J.F. SÁNCHEZ BARRILAO, “Transformaciones, tendencias y algún recelo sobre la potestad normativa (legislativa) en los tiempos de la Covid-19”, en AA.VV. División de poderes en el Estado de partidos, Marcial Pons, Madrid, 2021, en especial pp. 60-61.
[84] Cfr. nuevamente W. HOFFMANN-RIEM, pero ahora Big Data. Desafíos también para el Derecho, E. Knörr Argote (trad.), Civitas / Thomson Reuters, Cizur Menor, Navarra, 2018, pp. 167 ss.
[85] Así, V. ÁLVAREZ GARCÍA, La normalización industrial, Tirant lo Blanch, Valencia, 1999; o F. SALMONI, Le norme tecniche, A. Giuffrè Editore, Milano, 2001.
[86] De interés, L. COTINO HUESO, “Ética en el diseño para el desarrollo de una inteligencia artificial, robótica”, Revista Catalana de Dret Públic, núm. 58, 2019, pp. 29 ss.
[87] Como así advierte A. AGUILAR CALAHORRO, “Valores constitucionales y sociedad digital”, Revista da AJURIS, vol. 49, núm. 152, 2022, pp. 347 ss.
[88] Cfr. M. CASTELLS I MARQUÈS, “Vehículos autónomos y semiautónomos”, en AA.VV. Inteligencia artificial: tecnología, derecho, Tirant lo Blanch, Valencia, 2017, pp. 101 ss.
[89] Véase R. CÁRDENAS KRENZ y V. PADILLA VERDE, “Vehículos autónomos: temas viales – dilemas vitales. La tecnología toma el volante”, Persona y Familia, núm. 8, 2019, en especial p. 75.
[90] Entre otros, G. DOMÉNECH PASCUAL, “¿Puede el Estado abatir un avión con inocentes a bordo para prevenir un atentado kamikaze? (Comentario a la Sentencia del Tribunal Constitucional Federal alemán sobre la Ley de Seguridad Aérea)”, Revista de Administración Pública, núm. 170, 2006, pp. 389 y ss.
[91] Por todos, D. SARMIENTO RAMÍREZ-ESCUDERO, El Soft Law Administrativo (Un estudio de los efectos jurídicos de las normas no vinculantes de la Administración), Civitas / Thomson, Madrid, 2008.
[92] Al respecto de esta: Á. SÁNCHEZ BRAVO, “España digital 2025. Estrategia Nacional de Inteligencia Artificial”, en AA.VV. Inteligencia artificial y Filosofía del Derecho, Laborum, Murcia, 2022, pp. 501 ss.; o J.M. GONZÁLEZ MORENO, “La ética en la Estrategia Nacional de Inteligencia Artificial (ENIA), 2021-2023. Una revisión crítica”, en AA.VV. La disrupción tecnológica en la Administración Pública… cit., pp. 205 ss.
[93] Cfr. L. CABALLERO TRENADO, “La Carta de Derechos Digitales, una oportunidad de gobernanza tecnológica para España”, Anales de la Real Academia de Doctores de España, vol. 6, núm. 3, 2021, pp. 407 ss. Y ya a nivel europeo, la reciente Declaración Europea sobre los Derechos y Principios Digitales de 2023.
[94] Con ello se consigue impulsar u orientar políticamente una determinada acción pública, e incluso privada, mas sin determinarlas jurídicamente dado que tales normas no llegan a considerarse estrictamente vinculantes y limitativas de la actuación pública y/o privada, si bien caben ser utilizadas por los Tribunales como instrumento interpretativo o de referencia jurídica (STS, Sala Cont., Sec. 4ª, de 31 de mayo de 2017, FD 3.2; sobre esta STS, véase R.C. CANCIO FERNÁNDEZ, “Constitucionalidad, soft law y elección de Jueces para el TEDH: Comentario a la Sentencia de la Sala 3.ª del Tribunal Supremo de 31 de mayo de 2017”, Teoría y Realidad Constitucional, núm. 41, 2018, pp. 449 ss.). Así, piénsese en la referida ENIA (como en la Carta de los Derechos Digitales), en la que viene a definirse un marco político de referencia o plan de acción a desarrollar en corto, medio y/o largo plazo en materia de IA por los respectivos agentes y poderes públicos, pero también por los particulares. Y de este modo que, de un lado, específicas actividades quepan ser orientadas y enmarcadas políticamente a partir de tales criterios, orientaciones, tendencias o previsiones, a la par que ganan en legitimidad sustantiva, mas sin llegar a resultar jurídicamente encorsetadas por éstas; y de otro, el déficit del carácter jurídico de dichas normas (junto con la condición amplia e imprecisa de ellas, de ordinario), dificulten tanto su control jurisdiccional abstracto, como su efectiva consideración como auténtico parámetro normativo-jurisdiccional con ocasión del ulterior juicio jurídico de específicas actuaciones públicas, mas sin perjuicio de que puedan tenerse en cuenta como elemento interpretativo (según se ha indicado más arriba). Acerca de esto último (aunque al respecto de la naturaleza de las estrategias nacionales en materia de seguridad), cfr. J.F. SÁNCHEZ BARRILAO, Inteligencia y seguridad como objeto constitucional el CNI y la comunidad de inteligencia ante los nuevos retos de la sociedad del riesgo, Centro de Estudios Políticos y Constitucionales, Madrid, 2019, pp. 90-91.
[95] Así, J.F. SÁNCHEZ BARRILAO, “Los fundamentos del «progreso informático» en la Unión Europea… cit., pp. 345 ss. Y al tiempo, en esta dimensión más positiva de la informática ahora al respecto del empoderamiento de la persona, véase la Declaración Europea sobre los Derechos y Principios Digitales, de 2023.
[96] Véase M.N. MATO PACÍN, “Los contratos de redes sociales como contratos mediante condiciones generales”, en AA.VV. Servicios digitales, condiciones generales y transparencia, Aranzadi / Thomson Reuters, Cizur Menor, Navarra, 2020, pp. 87 ss.
[97] P.e., M. MANTINI, “Movimientos sociales, comunidades virtuales y desarrollo”, CIC: Cuadernos de Información y Comunicación, núm. 17, 2012, pp. 135 ss.
[98] Sentencia del Juez federal del Distrito de Nueva York del 23 de mayo de 2008, en el caso 1:17-cv-05205-NRB; cfr., J.F. SÁNCHEZ BARRILAO, “El Internet en la era Trump: aproximación constitucional a una nueva realidad”, Estudios en Derecho a la Información, núm. 9, 2020, p. 57.
[99] P.e., A. PIZZORUSSO, Lecciones de Derecho constitucional (II), J. Jiménez Campo (trad.), Centro de Estudios Constitucionales, Madrid, 1984, pp. 148-149, y 386-387.
[100] Otra vez J.F. SÁNCHEZ BARRILAO, pero ahora “Sobre ‘youtubers’ y la neutralidad de la red”, en AA.VV. Desafíos de la protección de menores en la sociedad digital: Internet, redes sociales y comunicación, Tirant lo Blanch, Valencia, 2018, pp. 195 ss.
[101] Cfr. F. BALAGUER CALLEJÓN, La constitución del algoritmo… cit., pp. 37-38.
[102] P.e., R. SAN SEGUNDO MANUEL y M.A. CODINA CANET, “Conocimiento abierto: software libre frente a monopolio tecnológico”, en AA.VV. A Ciência Aberta o contributo da Ciência da Informação: atas do VIII Encontro Ibérico EDICIC, Universidade de Coimbra, Coimbra, 2017, pp. 281 ss.
[103] De interés, N. MATTEUCI, Organización del poder y libertad. Historia del constitucionalismo moderno, F. Javier Ansuátegui Roig y M. Martínez Neira, Trotta, Madrid, 1998, pp. 170 ss.
[104] L. LESSIG, El código y otras leyes del ciberespacio, E. Alberola (trad.), Taurus, Madrid, 2001.
[105] Véase F. BALAGUER CALLEJÓN, La constitución del algoritmo… cit., pp. 35 y 39.
[106] “Son por ello, no ya código 2.0, que también, sino más en concreto reglamentos en un sentido jurídico material y, por ello, como tal han de ser tratados por el Derecho a la hora de regular cómo se producen, aplican y las garantías en torno a estos procesos”; A. BOIX PALOP, “Los algoritmos son reglamentos: La necesidad de extender las garantías propias de las normas reglamentarias a los programas empleados por la administración para la adopción de decisiones”, Revista de Derecho Público: Teoría y Método, vol. 1, 2020, p. 237.
[107] P.e., lunares potencialmente cancerígenos.
[108] Y es que la evaluación de un cáncer por tal IA no supone un diagnóstico final (siguiendo con el ejemplo de la nota anterior), pero sí que es suficiente para progresar con pruebas potencialmente más intensas.
[109] A. BOIX PALOP, “Los algoritmos son reglamentos… cit., p. 223 ss.
[110] Así, y p.e., cuando en el caso de la app. VioGén se determina un alto grado de riesgo para un mujer, siempre conllevará la toma de medidas de protección para aquella, mientras que en el caso contrario cabe también que se adopten estas; de esta forma nos encontramos cómo la actuación conforme a la IA resulta reglada en el primer supuesto, mientras que es disponible en el segundo. Al respecto, véase M.Á. PRESNO LINERA, Derechos fundamentales e inteligencia artificial… cit., pp. 25 y 29.
[111] Muy ilustrativo, al respecto, es el siguiente párrafo: “[…] la programación informática de respuestas del poder público frente a diversas situaciones, en cualquiera de sus modalidades, es una actividad estrictamente equivalente a su programación jurídica. Pautar con programas, algoritmos, en definitiva con un código de ceros y unos, cuáles son las condiciones y elementos que, tomados en cuenta de manera ordenada y sucesiva, determinarán unas consecuencias que van a afectar a la esfera de derechos y deberes de los ciudadanos, sean estas extraídas por medio de algoritmos y aplicando lógicas de programación más o menos complejas e inteligencia artificial que se declina y expresa por medio del código fuente o lo sean por medio de reglas y normas escritas a través de fórmulas y conceptos jurídicos que se expresan lingüísticamente y aplican deductivamente a partir de la clásica operación de subsunción hecha por los aplicadores, es materialmente lo mismo”; A. BOIX PALOP, “Los algoritmos son reglamentos… cit., p. 249.
[112] Sigue diciendo el anterior párrafo: “Requiere, por esta razón, de una mismas reglas y garantías básicas y, en consecuencia, de una correcta traslación o, si se quiere, traducción, materialmente completa, de las garantías tradicionales respecto de estas últimas nos aportarán una regulación y encuadramiento satisfactorio de la actividad administrativa realizada por medio de algoritmos”; ibidem. Además, véase op. cit., pp. 250 ss.
[113] Dejando así a un lado aquellas actuaciones cuasi automáticas de una IA, por cuanto que limitadas más a constatar, que a evaluar realmente; en tal sentido, cfr. A. BOIX PALOP, op. cit., pp. 230, 235 o 249.
[114] Cfr. A.J. HUERGO LORA, “Una aproximación a los algoritmos desde el Derecho Administrativo”, en AA.VV. La regulación de los algoritmos, Aranzadi / Thomson Reuters, Cizur Menor, Navarra, 2020, pp. 64 ss.
[115] Así, sobre la abstracción y la innovación como características de las fuentes, véase A. CERRI, Prolegomeni ad un corso sulle fonti del diritto, G. Giappichelli Editore, Torino, 1997, pp. 26 ss. y en especial 39.
[116] No en vano, ya es posible que una IA haga imágenes artísticas a partir de una serie de instrucciones o criterios que se le indican (y esto, hoy, al punto de haber ganado premios de arte; p.e., la app Midjourney), o incluso un relato de estructura y contenido más que plausible también a partir de una serie de ideas que se le dan (por ahora, la app ChatGPT); y al tiempo, que un programa con IA en unos años sea capaz de redactar disposiciones jurídicas a partir de ciertos parámetros políticos y normativos, y ello con un alto grado de adecuación y plausibilidad al respecto del resto del ordenamiento jurídico. Por último, al respecto de la IA generativa véase, p.e., J.M. TÚÑEZ LÓPEZ, M.J. UFARTE RUIZ y B. MAZZA, “Aplicación de la inteligencia artificial en comunicación”, Revista Latina de Comunicación Social, núm. 80, 2022.
[117] Y tal como sucede al respecto de la IA con relación al ejercicio de la función jurisdiccional, puesto que constitucionalmente circunscrita al Poder Judicial conforme art. 117.1 y 3 CE (según se ha visto).
[118] Otra cuestión es que tal norma sobre producción jurídica no tenga porqué ser expresa, pudiendo presuponerse o deducirse del mismo sistema de fuentes; y de este modo, que de advertirse dicha norma sobre producción jurídica, quepa reconocerse la IA, finalmente, como fuente de Derecho.
[119] W. HOFFMANN-RIEM, El Derecho ante el reto de la transformación digital… cit., pp. 65 ss.
[120] En las que las IA se limiten más a constatar, que a evaluar (según se ha advertido antes).
[121] Puesto que expresión del algoritmo y al entenderse este como “conjunto ordenado y finito de operaciones que permite hallar la solución de un problema”, según la R.A.E.
[122] P. ej. una IA destinada a juegos como el ajedrez o el go, en los que ha de desarrollar estrategias distintas para poder ganar una serie de partidas, y por tanto que cuando la IA inicie una partida lo haga desde una diversidad de opciones plausibles.
[123] Entre otros, véase F. BALAGUER CALLEJÓN, Fuentes del Derecho (I)… cit., pp. 109 ss.
[124] H. KELSEN, Teoría Pura del Derecho, 2ª ed., R.J. Vernengo (trad.), Editorial Porrúa / UNAM, 6ª reimp., México, 1991, en especial pp. 240 ss. y 347 ss. Y ello, respondiendo a la cultura jurídica del common law durante la estancia de aquel en Norteamérica (frente a una concepción más propia del civil law de su obra científica previa), y por tanto al respecto de la intensa dimensión judicial que del Derecho se da allí; cfr. J. RUIZ MANERO, “La función jurisdiccional en la Teoría Pura del Derecho”, en Jurisdicción y normas. Dos estudios sobre función jurisdiccional y teoría del Derecho, Centro de Estudios Constitucionales, Madrid, 1990, pp. 19 ss.
[125] “La interpretación que efectúa el órgano de aplicación del derecho es siempre auténtica. Crea derecho”; H. KELSEN, Teoría Pura del Derecho… cit., p. 354.
[126] R. DWORKIN, El imperio de la justicia (De la teoría general de derecho, de las decisiones e interpretaciones de los jueces y de la integridad política y legal como clave de la teoría y práctica), C. Ferrari (trad.), 2.ª ed., Gedisa, Barcelona, 1992, en especial pp. 238 ss.
[127] F. OST, “Júpiter, Hércules, Hermes: tres modelos de juez”, I. Lifante Vidal (trad.), Doxa. Cuadernos de Filosofía del Derecho, núm. 14, 1993, pp. 169 ss.
[128] Cfr. F.J. GÓMEZ ABELLEIRA, “La jurisprudencia como fuente: el recurso de casación para unificación de doctrina y la primacía del derecho comunitario (a propósito de una sts de 17 de diciembre de 1997)”, Anuario da Facultade de Dereito da Universidade da Coruña, núm. 2, 1998, pp. 675 ss.
[129] De interés, por una parte, A.M. GARCÍA CUADRADO, “La jurisprudencia del Tribunal Supremo como fuente del Derecho constitucional español”, Revista General de Derecho, núm. 548, 1990, pp. 3147 ss.; y por otra, F.J. DÍAZ REVORIO, “Interpretación de la Constitución y juez constitucional”, IUS: Revista del Instituto de Ciencias Jurídicas de Puebla, vol. 10, núm. 37, 2016, pp. 9 ss.
[130] Cfr. K. HESSE, “La interpretación constitucional”, P. Cruz Villalón (trad.), en Escritos de Derecho Constitucional, 2ª ed., Fundación Coloquio Jurídico Europeo / Centro de Estudios Políticos y Constitucionales, Madrid, 2011, pp. 63 ss.
[131] J.L. SERRANO MORENO, Sistemas jurídicos. Líneas básicas para una teoría general, L.D. Ríos (ed.), Universidad Nacional del Litoral / Universidad de Granada, Buenos Aires, 2022, pp. 89-90.
[132] De interés, para una aproximación comparada, además de histórica, del sistema de fuentes francés y alemán frente al inglés, véase A. ROSS, Teoría de las fuentes del derecho (Una contribución a la teoría del derecho positivo sobre la base de investigaciones histórico-dogmáticas), J.L. Muñoz de Baena Simón, A. de Prada García y P. López Pietsch (trad.), Centro de Estudios Políticos y Constitucionales, Madrid, 1999.
[133] P.e., S. MUÑOZ MACHADO, Tratado de Derecho Administrativo y Derecho Público General (II. El ordenamiento jurídico), Iustel, Madrid, 2006, pp. 114 ss.
[134] Así, S. DE LA SIERRA MORÓN, “Inteligencia artificial y justicia administrativa. Una aproximación desde la teoría del control de la Administración Pública”, Revista General de Derecho Administrativo, núm. 53, 2020.
[135] Además, equiparándose la IA al reglamento, dado que fuente de nivel inferior a la ley, y en consecuencia fuera del principio de imperio de la Ley (art. 117.1 CE), de modo que su control quede en manos de la jurisdicción ordinaria (conforme art. 6 LOPJ).
[136] No en vano, “[e]l cometido de la interpretación es el de hallar el resultado constitucionalmente “correcto” a través de un procedimiento racional y controlable, el fundamentar este resultado, de modo igualmente racional y controlable, creando, de este modo, certeza y previsibilidad jurídica, y no, acaso, el de la simple decisión por la decisión”; K. HESSE, “La interpretación constitucional… cit., p. 58.
[137] Ya, J.F. SÁNCHEZ BARRILAO, “La docencia del Derecho constitucional en la sociedad digital”, Docencia y Derecho, núm. 19, 2023.
[138] P.e., A. SALOM LUCAS, “El derecho y la inteligencia artificial”, Cuadernos Digitales de Formación, núm. 3, 2021.
[139] Y siguiendo así la estela que del jurista tecnológico nos propusiera ya V. FROSINI, en “El jurista en la sociedad tecnológica”, F.H. Llano Alonso (trad.), Argumentos de Razón Técnica, núm. 2, 1999, p. 241.
[140] De ahí, claro, que quepa plantearse un problema de legitimidad democrática de la norma jurídica que acabe siendo realizada por una IA con ocasión de la evaluación de una cuestión conforme a Derecho por poderes públicos, y de la importancia, entonces, de una supervisión asimismo pública de la IA en su origen a tales efectos y en relación a su cadena de legitimidad (según se acaba de señalar al amparo del Tít. III PRIA); y es que no se trata únicamente de que el poder público deba asumir jurídicamente la evaluación que haga la IA como propia, y ello también a efectos de su responsabilidad, sino de que, conforme al principio de legalidad, la actuación de los poderes públicos siempre ha de guiarse por normas jurídico-públicas (al menos indirectamente, por cuanto que acabe, según lo referido más arriba, remisiones a normas privadas). En consecuencia, los controles públicos sobre tales IAs deben de intensificarse no solo a fin de las debidas garantías jurídicas de la conformidad a Derecho de su funcionamiento, sino para reconducir todo lo posible el principio democrático a ese momento inicial (de diseño, desarrollo y entrenamiento) de la IA en manos de privados.
[141] De interés, véase A.J. LLEONART AMSÉLEM, “La doctrina científica, ¿es fuente de de Derecho?: referencia básica al Derecho internacional”, en AA.VV. Homenaje a Juan Berchmans Vallet de Goytisolo (V), Consejo General del Notariado, Madrid, 1988, pp. 363 ss.
[142] P.e., A. TRONCOSO, “Inteligencia Artificial: Pasado, presente y futuro”, Encuentros Multidisciplinares, vol. 24, núm. 70, 2022, pp. 6 ss.
[143] Cfr. F. BALAGUER CALLEJÓN, La constitución del algoritmo… cit., pp. 165 ss.
[144] J.F. SÁNCHEZ BARRILAO, “Constitucionalismo digital: entre realidad digital, prospectiva tecnológica y mera distopía constitucional… cit., pp. 410 ss.
[145] Así, G. PALOMBINO, Il principio di equità generazionale. La tutela costituzionale del futuro, Mondadori, Milano, 2022.