El pasado martes 12 de noviembre, 16-18 h en la Universidad Complutense, Ciencias de la información tuvo lugar el acto, «Luz, cámara… ¡regulación! El Reglamento de IA en escena.” Presentación de la obra de 35 autores Tratado del Reglamento inteligencia artificial de la Unión Europea, Aranzadi La Ley, 2024. https://www.cotino.es/tratadoria/

Acogidos como en casa en la Complutense, intervinieron (acceso al audio y descarga con botón derecho) :

Simón Casal, Director de la película Justicia artificial +info tráiler (película disponible en Prime)

Lorenzo Cotino, Catedrático de Derecho constitucional Universidad de Valencia, Valgrai, Odiseia, coordinador del tratado.

Pére Simón, Profesor titular de Derecho constitucional UNIR, Odiseia, coordinador del tratado.

Estrella Gutiérrez, Profesora Contratada Dra. Derecho  constitucional Universidad Complutense.

Moderó el interesande DEBATE : Loreto Corredoira, Profesora titular de Derecho constitucional Universidad Complutense.

Con el apoyo de: Proyecto de excelencia Generalitat Valenciana “Algoritmic law” (Prometeo/2021/009, 2021-24 y Proyecto de I+D+i Retos MICINN: PID2019-108710RB-I00, 2020-2022 “Derechos y garantías frente a las decisiones automatizadas en entornos de inteligencia artificial, IoT, big data y robótica”

Tras la presentación de cine de esta obra, ya dispones de esta obra de 38 capítulos por 35 de los máximos expertos en España y también en Europa e Iberoamérica, 29 doctores y profesores que han sido seleccionados para abordar sistemática y exhaustivamente el Reglamento de Inteligencia Artificial (RIA). La IA ha emergido como una tecnología transformadora, con aplicaciones que van desde la medicina hasta la seguridad pública y la Unión Europea ha tomado la delantera en regular su desarrollo y uso a través del RIA, con el objetivo de garantizar tanto la seguridad como el respeto a los derechos de los ciudadanos. En este contexto, hemos publicado el «Tratado del Reglamento de inteligencia artificial de la Unión Europea», que he dirigido en su versión española Pere Simón, con una próxima edición en inglés.

Este tratado se presenta no solo como un análisis profundo del RIA, sino también como un compendio de respuestas a las complejidades legales, éticas y técnicas que plantea la IA. Con 38 capítulos, este libro se estructura en bloques temáticos, lo que facilita al lector comprender tanto la visión europea como el contexto internacional de la normativa.

Entre otras muchas se pretende dar respuesta a algunas preguntas clave

¿Por qué regula la UE la IA y en qué se diferencia el Reglamento de IA europeo de otros marcos legales internacionales?

¿Qué tipos de sistemas de IA están prohibidos o restringidos en la normativa europea?

¿Qué convierte a un sistema de IA en “alto riesgo” según el Reglamento?

¿Cuáles son las principales obligaciones de los proveedores y desarrolladores de IA para cumplir con el Reglamento?

¿Cómo interfiere o complementa el Reglamento de IA con la protección de datos personales?

¿Qué derechos tienen los ciudadanos frente a la IA según el Reglamento?

¿Qué obligaciones de documentación técnica y actualización deben cumplir los proveedores de IA? ¿Cómo se asegura la trazabilidad y los registros?

¿Cómo se garantiza la transparencia y supervisión en los sistemas de IA de alto riesgo? ¿Qué papel juega la vigilancia humana en estos sistemas?

¿Qué criterios establece el Reglamento para la evaluación de conformidad y la vigilancia poscomercialización? ¿Qué deben hacer los proveedores ante incidentes graves?

Esta publicación se distingue por un enfoque estructural claro y temático que permite al lector una comprensión integral del Reglamento. Para quienes deseen profundizar en el índice y presentación del libro, pueden acceder a ellos en el siguiente enlace: https://links.uv.es/207Yo7O.

Además hicimos una presentación de cine el 12 de noviembre, en la Universidad Complutense, Ciencias de la información va a tener lugar el acto, «Luz, cámara… ¡regulación! El Reglamento de IA en escena.” Presentación de la obra de 35 autores Tratado del Reglamento inteligencia artificial de la Unión Europea, Aranzadi La Ley, 2024. Contamos ni más ni menos con :

Simón Casal, Director de la película Justicia artificial +info tráiler, película en Prime

Lorenzo Cotino, Catedrático de Derecho constitucional Universidad de Valencia, Valgrai, Odiseia, coordinador del tratado.

Pére Simón, Profesor titular de Derecho constitucional UNIR, Odiseia, coordinador del tratado.

Estrella Gutiérrez, Profesora Contratada Dra. Derecho  constitucional Universidad Complutense.

Modera: Loreto Corredoira, Profesora titular de Derecho constitucional Universidad Complutense.

Facultad Ciencias de la Información Edificio Principal Sala Francisco Umbral. 3a. Planta (Hasta completar aforo)

Gracias por su interés y si es el caso, por difundir con este tuit
https://x.com/cotino/status/1856576485336756325

https://ir.uv.es/8yqFaoN

Hola¡, es un gusto compartir la primera versión de este ambicioso proyecto que hemos desarrollado desde la Asociación www.ODISEIA.org donde coordino todas las áreas jurídicas con la colaboración de 70 investigadores en 13 subproyectos temáticos

https://ir.uv.es/8yqFaoN

Accede a más de 700 recursos seleccionados y sistematizados, en español e inglés, que incluyen informes, literatura especializada, sentencias, recursos web, herramientas, guías, legislación y jurisprudencia.

🌐 Esta recopilación es única a nivel mundial y abarca temas clave como:

  • Gobernanza de la IA
  • Impacto de la IA en el empleo
  • Ciberseguridad
  • Educación y mucho más.

Esta primera versión del directorio se actualizará constantemente hasta finales de 2025, y es novedoas por garantizar la estabilidad de los recursos, incluso frente a cambios en las fuentes originales.

Es un honor haber coordinado este esfuerzo, y espero que resulte de gran utilidad para la comunidad académica y profesional.

👇 ¡Explora el directorio aquí! 👇 https://ir.uv.es/8yqFaoN

Gracias por compartir y ayudarnos a difundir esta valiosa herramienta con un tuit como éste : https://x.com/cotino/status/1840725145033261359

Es un gusto volver al cole con la publicación del primer estudio que hay sobre el más que reciente Convenio del Consejo de Europa sobre inteligencia artificial, derechos humanos, democracia y Estado de Derecho, adoptado en mayo y puesto a la firma estos días de septiembre. La primera revista jurídica Scopus en Italia lo ha publicado en inglés y es posible acceder también en SSRN a una versión actualizada en español.

El trabajo ofrece una revisión exhaustiva del Convenio y su interacción con el Reglamento de IA de la Unión Europea. Se brindan respuestas a las preguntas clave sobre el Convenio:

¿Cuál es el propósito del Convenio del Consejo de Europa sobre inteligencia artificial?

¿En qué aspectos se diferencia el Convenio del Consejo de Europa respecto al Reglamento de IA de la Unión Europea? ¿Cómo se relaciona el Convenio con el Reglamento?

¿Qué principios jurídicos establece el Convenio para el diseño y aplicación de la IA en sectores públicos y privados?  ¿Qué especialimportancia pueden cobrar estos principios?

¿Qué innovaciones jurídicas propone el Convenio respecto a los sistemas de IA?

¿Se aplican estas regulaciones a sistemas de IA en investigación y defensa?

¿Cuáles son los derechos y garantías que establece el Convenio para las personas afectadas por la IA?

¿Qué garantías de independencia exige para las autoridades de supervisión? ¿Se cumplen en España?

¿Qué valor simbólico tiene el Convenio más allá de su aplicación normativa?

Considero que este artículo -cuya primera versión fue de febrero pero lamentablemente ha tardado en ver la luz- ha de ser una inicial referencia esencial para cualquier académico, profesional o responsable político interesado en la regulación de la IA. A través de un análisis detallado del Convenio, expone cómo este instrumento legal complementa al Reglamento de IA de la UE, y refuerza la protección de los derechos humanos bajo el enfoque de evaluación y mitigación de riesgos. Tiene algunas potencialidades que el tiempo y dirá, así como la capacidad para integrar principios éticos dentro del marco jurídico, el Convenio destaca por su importancia tanto simbólica como normativa.

Puedes leer el artículo completo en inglés AQUÍ

Acceso en español AQUÍ

Muchas gracias por tu interés. Y gracias por difundir un tuit como éste

https://twitter.com/cotino/status/1834561177310888083

Recuerda que tienes acceso a casi doscientas de mis publicaciones en www.cotino.es

Me complace anunciar la publicación de mi artículo «El uso jurisdiccional de la inteligencia artificial: habilitación legal, garantías necesarias y la supervisión por el CGPJ», en la revista Actualidad Jurídica Iberoamericana, nº 21, 2024

Puedes acceder a mi estudio AQUÍ. Se incluye en un excelente monográfico sobre JusticIA digital que reúne ni más ni menos que 22 estudios sobre estos temas, todo muy bien coordinado por Ana Montesinos y Diana Marcos, a quienes agradezco su empeño.

En este estudio quizá obtengas respuestas o al menos te puedes plantear cuestiones como:

  • ¿En qué funciones jurisdiccionales -y no meramente administrativas o procesales- puede utilizarse la IA? ¿De verdad que hay una «reserva de humanidad» que limite el uso de la IA en justicia?
  • ¿Cuáles son las principales carencias de Real Decreto-ley 6/2023 sobre el uso de IA y sistemas automatizados en Justicia, y cómo podrían subsanarse?
  • ¿En qué medida el Reglamento de Inteligencia Artificial de la UE (RIA) es suficiente regulación legal y con garantías para el uso de IA en justicia?
  • ¿Qué papel debería jugar el Consejo General del Poder Judicial (CGPJ) en la supervisión de sistemas de inteligencia artificial de alto riesgo? ¿por qué otras instituciones como la AESIA o la AEPD no son adecuadas para esta función?

Vengo sosteniendo un derecho a la inteligencia artificial (IA) y una consiguiente obligación de implantación por los poderes públicos, también en la Justicia.

Este estudio pretende allanar el camino para la integración de la IA en la función jurisdiccional. También busca asegurar que esta integración se realice respetando y fortaleciendo los derechos fundamentales. Creo firmemente que, aunque es necesario exigir garantías, debemos evitar una resistencia exagerada al uso público de la IA, en este caso en la Justicia. Estoy convencido de que los discursos actuales que cierran la puerta a estas innovaciones serán vistos con nostalgia en el futuro, cuando la tecnología sea una parte integral y confiable del proceso judicial.

En este estudio, defiendo el uso jurisdiccional -no meramente procesal o accesorio- de la IA en el sistema legal español, pero siempre bajo la premisa de que debe estar respaldado por suficientes garantías legales.

El análisis lo centro en la cobertura legal necesaria y variable en razón de los diferentes derechos y exigencias constitucionales concurrentes. Se subraya que el Reglamento de IA (RIA) de la UE, que sí que regula el uso jurisdiccional de la IA, no sirve como una habilitación legal por sí solo. Ahora bien, sin duda que el RIA implica garantías que deben superponerse con las garantías que obligatoriamente deben ser reguladas por ley, según jurisprudencia como la española (20219) o alemana (2022).

Desde una perspectiva constitucional, analizo y critico la regulación actual de los sistemas automatizados y de IA bajo el Real Decreto-ley 6/2023, que considero insuficiente.

No me entrometo en la robotización judicial y la sustitución del juez humano.   Obvimente nuestras constituciones analógicas parten de la premisa de que son humanos quienes realizan tales funciones jurisdiccionales. El CGPJ español afirma que la potestad jurisdiccional es una función “consustancial y ontológicamente anudada a la naturaleza humana, con independencia, imparcialidad, exclusividad y con exclusivo sometimiento al imperio de la ley” (nº 51)  . El CGPJ afirma una reserva de humanidad y “el derecho a una resolución fundada en Derecho dictada por un Juez o Tribunal, esto es, el derecho a que su caso sea resuelto por un Juez-persona” (nº 164, Conclusión 68).  El tiempo, el legislador y la jurisprudencia dirán hasta dónde llega este presunto derecho y el alcance de la IA en el ámbito de la justicia.

Además, sostengo que solo el Consejo General del Poder Judicial (CGPJ) puede ser la autoridad supervisora de los sistemas de IA jurisdiccionales de alto riesgo en España, debido a su independencia y la separación de poderes, según doctrina del TS y regulación legal en el caso de protección de datos. Ni la Autoridad Española de Supervisión de la Inteligencia Artificial (AESIA) ni la Agencia Española de Protección de Datos (AEPD) cumplen con los requisitos para esta función en el ámbito jurisdiccional.
Espero que te resulte sugerente.

justo sobre el tema de mi última publicación en la que apuesto por la IA en justicia, con garantías, aquí va una descripción rápida -y con mano de Chatgpt- sobre el uso de Chatgpt en la justicia y los lineamientos básicos que deben presidirlo, según la Corte Constitucional Colombiana.

la nota de prensa y resumen de la Corte puede seguirse aquí:

y el acceso a la sentencia, aquí:

a falta de entrar en pormenores, lo más relevante sería este resumen y el texto de los fundamentos clave, 423 y- 424.

Se lo han pasado bien escribiendo la decisión, sin duda. Es como un libro sobre el tema .

La referencia es SENTENCIA T-323 de 2024, CORTE CONSTITUCIONAL -Sala Segunda de Revisión-. Referencia: expediente T-9.301.656. Magistrado sustanciador: Juan Carlos Cortés González

Acción de tutela promovida por Blanca, en nombre y representación de su hijo menor de edad, en contra de la EPS.

Introducción

La decisión examina la integración de la inteligencia artificial, específicamente el uso de ChatGPT 3.5, en el proceso judicial colombiano. Fue algo muy sonado a inicios de 2023

https://www.elcolombiano.com/colombia/juez-de-cartagena-uso-chatgpt-inteligencia-artificial-para-sentencia-AG20262310

Se resuelve ahora la acción de tutela promovida por Blanca en representación de su hijo menor, diagnosticado con Trastorno del Espectro Autista, contra una EPS que se negó a exonerar el cobro de copagos y cuotas moderadoras para los tratamientos necesarios del niño. La controversia se agrava por el uso de IA en la emisión de la sentencia de segunda instancia, lo que plantea preocupaciones sobre la validez del debido proceso y la autonomía judicial.

El juez de segunda instancia utilizó ChatGPT 3.5 para complementar su decisión, generando un debate sobre la potencial vulneración del derecho al debido proceso. La Corte Constitucional analizó si el uso de IA en la motivación judicial podría reemplazar indebidamente la función del juez y si las respuestas generadas por IA podrían estar sesgadas o ser producto de «alucinaciones» propias de estos sistemas.

Consideraciones de la Corte

La Corte determina que, en este caso, no se violó el debido proceso porque la decisión judicial fue tomada antes de la consulta con ChatGPT 3.5, utilizando la IA únicamente como una herramienta complementaria. Sin embargo, la Corte reconoce que el uso de IA en el proceso judicial requiere un marco regulatorio claro para evitar posibles violaciones a los derechos fundamentales.

La Corte subraya la necesidad de desarrollar guías y lineamientos específicos para el uso de herramientas de IA en la administración de justicia. Se subraya también la necesaria capacitación continua para los operadores judiciales en cuanto al uso ético y responsable de estas tecnologías.

La Corte confirma parcialmente la sentencia de segunda instancia, subrayando que, aunque no se encontró una vulneración del debido proceso en este caso específico, el uso de IA en la justicia debe regularse cuidadosamente para garantizar que se respeten los derechos fundamentales de todas las partes involucradas.

Como recuerda un buen colega, entre otras lindezas se afirma que

148. Por último, cabe señalar que, si el sistema judicial colombiano tuviera su propio sistema de IA generativa especializado en jurisprudencia y normativa colombiana e internacional, este podría tener implicaciones positivas para la eficiencia de la labor de los jueces y ayudaría, especialmente, en la materialización del derecho de acceso a la administración de justicia. Ello, en el sentido en que las personas y operadores podrían acceder a la información de forma fácil, ágil y especializada. Por ejemplo, se podría tener acceso a líneas jurisprudenciales actualizadas, compararse casos similares, solicitarse un resumen fácil y comprensible de la normativa que interesa al caso concreto y hacerse análisis de problemas jurídicos y afectaciones a derechos. Todo ello dentro del ámbito propio de estas herramientas, como mecanismos que apoyan y que nunca pueden sustituir la labor humana en el servicio de justicia. Adicionalmente, la transparencia, la protección de datos, el conocimiento de los sesgos por conocer el origen de los datos con los cuales sea entrenada la IA, entre otros conceptos, no se verían afectados o, por lo menos, se reducirían en una gran parte los riesgos, puesto que se trataría de una IA controlada y en funcionamiento por y para la Rama Judicial.

Fundamentos esenciales: 423-424

El fundamento jurídico 423 es relevante en la sentencia, ya que establece los principios que deben guiar el uso de IA en el ámbito judicial y de respeto a los mandatos superiores, en orden a garantizar los derechos fundamentales, en especial el debido proceso, cuando hagan uso de aquellas, y asegurar la independencia y autonomía judiciales, como garantías insustituibles para la vigencia del Estado Social de Derecho y la democracia.

423. De manera particular, la Sala Segunda de Revisión considera esenciales la apropiación y aplicación de los siguientes criterios orientadores en cuanto al uso de herramientas de IA como ChatGPT por parte de los despachos judiciales en el país:

a. Transparencia, entendida como la obligación de evidenciar con claridad y precisión el uso, alcances y ubicación en las actuaciones o decisiones de los resultados obtenidos por la utilización de tales herramientas, que permita a los usuarios e interesados su pleno conocimiento y la posibilidad efectiva de contradicción.

b. Responsabilidad, comprendida como aquella obligación que existe de que el usuario de la herramienta de IA se encuentre capacitado y comprenda los impactos del uso de estas tecnologías, para a su vez dar cuenta del origen, idoneidad y necesidad del uso de la IA y la información suministrada por la misma, la cual debe ser verificada.

c. Privacidad, es aquel deber de custodiar y proteger la reserva de los datos personales y sensibles que se ponen en conocimiento de la administración de justicia para cumplir con los fines propios de la Rama Judicial.

d. No sustitución de la racionalidad humana, como expresión de la imposibilidad ética y jurídica de sustituir la acción y la responsabilidad del individuo de la especie humana en la gestión de las actuaciones y decisiones judiciales.

e. Seriedad y verificación, que implica la obligación de realizar un estricto escrutinio sobre las fuentes, alcances, restricciones, posibilidades, falencias y riesgos que presente la herramienta de cara a la actuación en curso o a la solución del problema jurídico correspondiente.

f. Prevención de riesgos, como mandato en cuanto aplicar los estándares adecuados de control sobre situaciones que generen riesgo por la aplicación de tecnologías tales, en aspectos como imprecisiones, desactualizaciones, alucinaciones, sesgos, inconsistencias y demás.

g. Igualdad y equidad, en cuanto se erradiquen todas las formas de discriminación relacionadas con la aplicación de sesgos derivada del uso de tales tecnologías y su impacto negativo en la eficacia de los derechos humanos.

h. Control humano, en tanto considerando los anteriores criterios, siempre se permita la realización efectiva de escrutinios sobre las actuaciones y decisiones en que se usen herramientas de IA, mediante el acceso a la debida información y el uso de recursos que deban ser resueltos por autoridades humanas.

i. Regulación ética, que implica el desarrollo de estándares de comportamiento individual que se adecúen a los mandatos superiores y legales y a las pautas razonables para el uso de tales tecnologías por parte de los funcionarios y servidores de la Rama Judicial.

j. Adecuación a buenas prácticas y estándares colectivos, en tanto se apliquen los esquemas razonables que se definan para el funcionamiento de la Rama Judicial, desde su autonomía e independencia, a partir de las definiciones que adopten sus autoridades, tanto en sede de administración como de orientación jurisprudencial.

k. Seguimiento continuo y adaptación, a efecto que el uso de tales tecnologías consulte los avances jurídicos, sociológicos y tecnológicos que se vayan implementando, así como los esquemas de mejora y control que se construyan en forma progresiva.

l. Idoneidad. El uso de las tecnologías de la información y de las comunicaciones en la gestión y trámite de los procesos judiciales y asuntos en curso debe ser adecuado para facilitar y agilizar el acceso a la justicia.

424. También se ordenará al Consejo Superior de la Judicatura que fije unos lineamientos sobre el uso de IA en la Rama Judicial, en los que, como mínimo, tenga en cuenta los puntos que se exponen a continuación:

(i) Las IA no pueden ser usada para sustituir el razonamiento lógico y humano que le compete realizar a cada juez a efectos de interpretar los hechos, valorar las pruebas, motivar y adoptar la decisión, pues ello conllevaría una violación de la garantía del juez natural y al debido proceso probatorio. En las instancias y en sede de revision de tutelas se deberán aplicar controles que eviten la violación del derecho al debido proceso por uso indebido de IA, entre los que se destaca la autrorregulación ética.

(ii) La IA se podrá utilizar en el sistema judicial para los ámbitos de gestión administrativa y documental, así como el de apoyo a la gestión judicial y la corrección y síntesis de textos; en tales eventos, la utilización de estas tecnologías no remplaza la labor esencial que se le ha atribuido al funcionario judicial, sin embargo, en estos casos, se deberán tener las cautelas necesarias para evitar la transgresión de derechos, tales como el habeas data o la intimidad, o que el funcionario judicial pierda la independencia o imparcialidad debido a los sesgos y alucinaciones de la IA.

(iii) Para efecto de lo anterior, se deberán garantizar los principios de transparencia, responsabilidad y privacidad respecto al uso de la IA, conforme a los parámetros ya establecidos con anterioridad.

(iv) Identificar a un humano responsable, es decir, que haya una persona individualizable e identificable a quien se le pueda plantear las preocupaciones relacionadas con las decisiones tomadas y que pueda evaluar las intervenciones realizadas por la IA.

(v) Materializarse un lenguaje claro y comprensible para los seres humanos, sobre las respuestas que genera la IA.

(vi) Lo anterior implica que los jueces, magistrados y demás funcionarios y servidores de la Rama Judicial empleen la autorregulación ética y los autocontroles al momento de apoyarse en IA para la gestión judicial.

(vii) En cualquier caso, es necesario resaltar que el proceso de digitalización de la justicia en Colombia, sean cuales sean los lineamientos que se adopten por el Consejo Superior de la Judicatura, debe hacerse dentro del marco de respeto por los derechos fundamentales y con las garantías para el acceso efectivo y la no vulneración de tales, especialmente el debido proceso, los cuales se sopesen con los riesgos potenciales de cada nueva tecnología en este ámbito y los nuevos usos que se les pueda dar a estas.

(viii) Se adelanten las gestiones necesarias de coordinación con las diferentes autoridades concernidas con el tema de tecnología en el Estado, con el Congreso de la República, el Gobierno nacional, los funcionarios y empleados de la Rama Judicial y las diferentes autoridades públicas, así como agencias internacionales u organismos especializados en herramientas de IA como ChatGPT, para informar y coordinar sobre los requerimientos que demande específicamente la Rama Judicial.

(ix) Se establezca un adecuado sistema de control, seguimiento, alerta, evaluación y mejora en cuanto a las prácticas que impliquen el uso de herramientas de IA como ChatGPT por los despachos judiciales del país y se divulguen sus resultados, como parte de las rendiciones de cuentas a cargo de la Rama Judicial. Se insta al Consejo Superior de la Judicatura para que adopte medidas que le permitan identificar los casos en los que funcionarios judiciales hayan hecho uso de IA en sus decisiones, para que tome las medidas judiciales y administrativas pertinentes.

(x) Igualmente se ordena al Consejo Superior de la Judicatura que, como lo viene haciendo, a través de la Escuela Judicial Rodrigo Lara Bonilla, desarrolle habilidades digitales en los operadores jurídicos (a) desde un enfoque interseccional e interdisciplinario, a través de cursos que permitan comprender y discutir sobre las nuevas tecnologías, en especial sobre las IA; que los temarios (b) sean producto de una construcción colectiva en que se tenga en cuenta a todos los servidores de la Rama Judicial, y (c) que los de formación jurídica sobre IA sean incluidos en el curso concurso para ingresar en la Rama Judicial, así como (d) que se desarrollen proyectos de extensión de despliegue de sistemas de IA de acuerdo con los lineamientos propuestos.

colombIA

un gusto compartir  mi última aportación titulada «Caso Bosco, a la tercera tampoco va la vencida. Mal camino en el acceso los algoritmos públicos» en el Diario La Ley, mayo de 2024. Puedes leerlo completo aquí.
https://ir.uv.es/bLgBg0x
y gracias por retuitear un tuit como éste
A propósito de la tercera denegación de acceso al código fuente de la aplicación BOSCO, solicitada por CIVIO, intento dar respuesta a las siguientes cuestiones:

  • ¿Por qué es fundamental la transparencia en los algoritmos utilizados por la administración pública?
  • ¿Qué implicaciones tiene la sentencia del caso Bosco para la transparencia y la seguridad informática?
  • ¿Por qué motivos esta sentencia deniega el acceso acceso al código fuente de BOSCO?
  • ¿Qué pasos se deben tomar para mejorar la regulación de la transparencia algorítmica en España?

En el comentario señalo la desigual suerte al solicitar información sobre algoritmos públicos en España, con experiencias tanto positivas como negativas. Ya en particular se aborda el caso Bosco, con tres denegaciones de acceso al código fuente del bono social eléctrico, justificadas esencialmente por seguridad informática “travestida” de  propiedad intelectual. Así, efectúo una valoración y crítica a la sentencia del 30 de abril de 2024, de mejorable calidad técnica, aunque con apoyo pericial

Tras esta valoración, vuelvo a la carga respecto de la necesidad de una regulación más robusta y concreta que asegure la transparencia algorítmica y la creación de registros públicos de algoritmos.

La sentencia, y espero que esta aportación, sirva para el necesario debate constructivo sobre la importancia de la transparencia en el uso de algoritmos por parte de la administración pública y la necesidad de mejorarla.

 

Me complace anunciar la publicación del artículo «Criterios éticos de derecho internacional humanitario en el uso de sistemas militares dotados de inteligencia artificial» en la prestigiosa revista Novum Jus, la segunda mejor indexada en Iberoamérica. Este trabajo, en coautoría con  Ángel Gómez de Ágreda, aborda cuestiones cruciales en la intersección de la tecnología, la ética y el derecho internacional.

Esperamos que te interese. No hay prácticamente nada en español sobre el tema y se recoge la mejor documentación y bibliografía internacional existente.
gracias por redifundir un tuit como éste: https://twitter.com/cotino/status/1782372367131357220

En el mismo podrás encontrar algunas respuestas a preguntas como éstas:

  • ¿Cómo pueden los sistemas militares dotados de IA cumplir con el Derecho internacional humanitario?
  • ¿Qué medidas éticas son cruciales al diseñar sistemas militares autónomos?
  • ¿De qué manera afecta la autonomía de las armas letales a la responsabilidad humana en conflictos armados?
  • ¿Cuáles son los desafíos clave para integrar el control humano significativo en los sistemas autónomos militares?
  • ¿Cómo pueden los principios de la IA ética traducirse en protocolos operativos para el uso militar?
  • ¿Qué implicaciones tiene el uso de sistemas autónomos en la doctrina del doble efecto bajo el Derecho Internacional Humanitario?
  • ¿De qué manera pueden los desarrollos recientes en IA militar servir como precedente para futuras regulaciones internacionales?

El estudio profundiza en cómo los sistemas de inteligencia artificial (IA) utilizados en el ámbito militar deben integrarse con los principios de Derecho internacional humanitario. A medida que los sistemas autónomos se vuelven más prevalentes en la defensa, su regulación y ética se torna imperativa. La ética sí que tiene un particular papel en este ámbito, que tan habitualmente escapa al Derecho pro la vía de exclusiones como sucede en el Reglamento de IA de la UE o en el reciente Convenio de IA del Consejo de Europa. En todo caso, el Derecho Internacional Humanitario es preceptivo, pese a que no haya acuerdos para su actualización. En el trabajo proponemos principios éticos específicos para la IA en defensa, subrayando la necesidad de un control humano significativo y el cumplimiento del IDH.

Leer el artículo completo

Un gusto trabajar con Ángel, aunque fuera en agosto ;))

El documento “A pro-innovation approach to AI regulation: government response”, de 6 de febrero  del Gobierno del Reino Unido se produce en el marco de un proceso en primavera y verano de 2023, con los documentos previos de propuestas y estudios regulatorios desde Parlamento UK, presentados. Ahora en febrero de 2024 se da la posición del Gobierno. Esta posición ha estado precedida de una consulta de 33 preguntas al sector interesado y más de 400 respuestas.

Presenta un enfoque pro-innovación para la regulación de la Inteligencia Artificial (IA), destacando la inversión de más de £100 millones para innovaciones en IA y capacidades técnicas regulatorias. Mientras el Reino Unido aplica un enfoque pro-innovación, el Reglamento de la UE busca establecer reglas claras para el uso de la IA en el mercado europeo. El Reino Unido apuesta por un marco regulatorio que fortalezca y se adapte a la industria de IA y el ecosistema regulatorio ya existente. Se proponen cinco principios transversales (Seguridad, transparencia, equidad, responsabilidad y contestabilidad  ) para que los reguladores los interpreten y apliquen por mecanismos de regulación menos estrictos. En todo caso, se propone una entidad central (“New Central Function”) para la coherencia del régimen y abordar brechas regulatorias. Por otro lado, una regulación “fuerte” vendría por la nueva regulación de protección de datos (Data Protection and Digital Information Bill, DPDI) que sustituya al RGPD después del Brexit.

Me permito señalar los elementos más relevantes

  • Enfoque Pro-Innovación y Pro-Seguridad: La se centra en fomentar la innovación garantizando la seguridad y la confianza pública.
  • Inversión y Apoyo: Más de £100 millones destinados a la innovación en IA y el fortalecimiento de las capacidades técnicas de los reguladores.
  • Marco Regulatorio: cinco principios transversales para la interpretación y aplicación por parte de los reguladores existentes en el Reino Unido. Seguridad, transparencia, equidad, responsabilidad y contestabilidad.
  • “New Central Function”: Para traer coherencia al régimen regulatorio y abordar las brechas. Supone la creación de un ente dentro del gobierno destinada a garantizar una aplicación coherente y efectiva de la regulación en materia de inteligencia artificial (IA) a través de diferentes sectores. Esta entidad tendría la tarea de cerrar brechas regulatorias existentes, facilitar la coordinación entre diferentes organismos reguladores, y garantizar que el enfoque hacia la IA en el país sea uniforme y propicie tanto la innovación como la protección de los ciudadanos.
  • Consultas y Coordinación: Las propuestas se dan en buena medida a raíz de las respuestas al proceso de consultas con reguladores, industria, y la sociedad civil, para un enfoque coherente y efectivo.
  • Pasos siguientes: Se afirma que en los próximos meses se realizarán actividades de apoyo de capacidades y coordinación de los reguladores, incluido un nuevo comité directivo con representantes de los gobiernos y los reguladores para coordinar la gobernanza de la IA. Se afirman consultas específicas para evaluar un marco regulador y riesgos específicos sobre interferencia electoral, discriminación, propiedad intelectual o riesgos futuros como la bioseguridad y la alineación de la IA (“AI alignment”). También conversaciones internacionales en próximas Cumbres sobre Seguridad de la IA en la República de Corea y Francia.

Sin duda un tema para seguir.

En entradas anteriores he ido comunicando los textos filtrados y pasos de aprobación del Reglamento IA. Entre estos textos me permito destacar una muy útil versión a tres columnas de las versiones del AIA Act de Comisión, Consejo, Parlamento y la de 2024. También ofrecí una visión rápida de los cambios más relevantes en la versión definitiva acordada.

No obstante, ahora ya tenemos algo público y oficial.

El viernes 9 de febrero el COREPER aprobó el texto del Reglamento UE. El texto había sido filtrado previamente, pero no había una versión oficial y pública.

El martes 13 de febrero y en votación única, las comisiones de Mercado Interior y Libertades Civiles del Parlamento de la UE, votaron favorablemente 71-8 (7 abstenciones) el texto del Reglamento.

Ahora, el texto debe traducirse oficialmente a todos los idiomas de la UE. Asímismo, y esto es importante, será necesaria la renumeración de todos los considerandos y artículos. Igualmente, procederá una aprobación formal por el Parlamento en una sesión plenaria, que se prevé días 10 y 11 de abril. Después, un respaldo final ministerial por el Consejo UE.

El texto de los artículos no puede variar, me comenta un amigo experto que cabría la posibilidad de algún cambio en algún considerando.

Además de estos pasos, hay que subrayar que ya tenemos el último texto público y oficial -no filtrado- del Reglamento IA. A falta del número definitivo de considerandos y artículos, será el texto definitivo del Reglamento.

De postre, me permito disponer una traducción automatizada al español con versión pro AQUÍ, que puede ser bien útil.

un dolçet, que decimos por Valencia ;))

Enlace a la aprobación por el Parlamento 13 de febrero AQUÍ.

Enlace al texto en inglés publicado por el Parlamento AQUÍ.