El pasado martes 12 de noviembre, 16-18 h en la Universidad Complutense, Ciencias de la información tuvo lugar el acto, «Luz, cámara… ¡regulación! El Reglamento de IA en escena.” Presentación de la obra de 35 autores Tratado del Reglamento inteligencia artificial de la Unión Europea, Aranzadi La Ley, 2024. https://www.cotino.es/tratadoria/

Acogidos como en casa en la Complutense, intervinieron (acceso al audio y descarga con botón derecho) :

Simón Casal, Director de la película Justicia artificial +info tráiler (película disponible en Prime)

Lorenzo Cotino, Catedrático de Derecho constitucional Universidad de Valencia, Valgrai, Odiseia, coordinador del tratado.

Pére Simón, Profesor titular de Derecho constitucional UNIR, Odiseia, coordinador del tratado.

Estrella Gutiérrez, Profesora Contratada Dra. Derecho  constitucional Universidad Complutense.

Moderó el interesande DEBATE : Loreto Corredoira, Profesora titular de Derecho constitucional Universidad Complutense.

Con el apoyo de: Proyecto de excelencia Generalitat Valenciana “Algoritmic law” (Prometeo/2021/009, 2021-24 y Proyecto de I+D+i Retos MICINN: PID2019-108710RB-I00, 2020-2022 “Derechos y garantías frente a las decisiones automatizadas en entornos de inteligencia artificial, IoT, big data y robótica”

Tras la presentación de cine de esta obra, ya dispones de esta obra de 38 capítulos por 35 de los máximos expertos en España y también en Europa e Iberoamérica, 29 doctores y profesores que han sido seleccionados para abordar sistemática y exhaustivamente el Reglamento de Inteligencia Artificial (RIA). La IA ha emergido como una tecnología transformadora, con aplicaciones que van desde la medicina hasta la seguridad pública y la Unión Europea ha tomado la delantera en regular su desarrollo y uso a través del RIA, con el objetivo de garantizar tanto la seguridad como el respeto a los derechos de los ciudadanos. En este contexto, hemos publicado el «Tratado del Reglamento de inteligencia artificial de la Unión Europea», que he dirigido en su versión española Pere Simón, con una próxima edición en inglés.

Este tratado se presenta no solo como un análisis profundo del RIA, sino también como un compendio de respuestas a las complejidades legales, éticas y técnicas que plantea la IA. Con 38 capítulos, este libro se estructura en bloques temáticos, lo que facilita al lector comprender tanto la visión europea como el contexto internacional de la normativa.

Entre otras muchas se pretende dar respuesta a algunas preguntas clave

¿Por qué regula la UE la IA y en qué se diferencia el Reglamento de IA europeo de otros marcos legales internacionales?

¿Qué tipos de sistemas de IA están prohibidos o restringidos en la normativa europea?

¿Qué convierte a un sistema de IA en “alto riesgo” según el Reglamento?

¿Cuáles son las principales obligaciones de los proveedores y desarrolladores de IA para cumplir con el Reglamento?

¿Cómo interfiere o complementa el Reglamento de IA con la protección de datos personales?

¿Qué derechos tienen los ciudadanos frente a la IA según el Reglamento?

¿Qué obligaciones de documentación técnica y actualización deben cumplir los proveedores de IA? ¿Cómo se asegura la trazabilidad y los registros?

¿Cómo se garantiza la transparencia y supervisión en los sistemas de IA de alto riesgo? ¿Qué papel juega la vigilancia humana en estos sistemas?

¿Qué criterios establece el Reglamento para la evaluación de conformidad y la vigilancia poscomercialización? ¿Qué deben hacer los proveedores ante incidentes graves?

Esta publicación se distingue por un enfoque estructural claro y temático que permite al lector una comprensión integral del Reglamento. Para quienes deseen profundizar en el índice y presentación del libro, pueden acceder a ellos en el siguiente enlace: https://links.uv.es/207Yo7O.

Además hicimos una presentación de cine el 12 de noviembre, en la Universidad Complutense, Ciencias de la información va a tener lugar el acto, «Luz, cámara… ¡regulación! El Reglamento de IA en escena.” Presentación de la obra de 35 autores Tratado del Reglamento inteligencia artificial de la Unión Europea, Aranzadi La Ley, 2024. Contamos ni más ni menos con :

Simón Casal, Director de la película Justicia artificial +info tráiler, película en Prime

Lorenzo Cotino, Catedrático de Derecho constitucional Universidad de Valencia, Valgrai, Odiseia, coordinador del tratado.

Pére Simón, Profesor titular de Derecho constitucional UNIR, Odiseia, coordinador del tratado.

Estrella Gutiérrez, Profesora Contratada Dra. Derecho  constitucional Universidad Complutense.

Modera: Loreto Corredoira, Profesora titular de Derecho constitucional Universidad Complutense.

Facultad Ciencias de la Información Edificio Principal Sala Francisco Umbral. 3a. Planta (Hasta completar aforo)

Gracias por su interés y si es el caso, por difundir con este tuit
https://x.com/cotino/status/1856576485336756325

Es un gusto volver al cole con la publicación del primer estudio que hay sobre el más que reciente Convenio del Consejo de Europa sobre inteligencia artificial, derechos humanos, democracia y Estado de Derecho, adoptado en mayo y puesto a la firma estos días de septiembre. La primera revista jurídica Scopus en Italia lo ha publicado en inglés y es posible acceder también en SSRN a una versión actualizada en español.

El trabajo ofrece una revisión exhaustiva del Convenio y su interacción con el Reglamento de IA de la Unión Europea. Se brindan respuestas a las preguntas clave sobre el Convenio:

¿Cuál es el propósito del Convenio del Consejo de Europa sobre inteligencia artificial?

¿En qué aspectos se diferencia el Convenio del Consejo de Europa respecto al Reglamento de IA de la Unión Europea? ¿Cómo se relaciona el Convenio con el Reglamento?

¿Qué principios jurídicos establece el Convenio para el diseño y aplicación de la IA en sectores públicos y privados?  ¿Qué especialimportancia pueden cobrar estos principios?

¿Qué innovaciones jurídicas propone el Convenio respecto a los sistemas de IA?

¿Se aplican estas regulaciones a sistemas de IA en investigación y defensa?

¿Cuáles son los derechos y garantías que establece el Convenio para las personas afectadas por la IA?

¿Qué garantías de independencia exige para las autoridades de supervisión? ¿Se cumplen en España?

¿Qué valor simbólico tiene el Convenio más allá de su aplicación normativa?

Considero que este artículo -cuya primera versión fue de febrero pero lamentablemente ha tardado en ver la luz- ha de ser una inicial referencia esencial para cualquier académico, profesional o responsable político interesado en la regulación de la IA. A través de un análisis detallado del Convenio, expone cómo este instrumento legal complementa al Reglamento de IA de la UE, y refuerza la protección de los derechos humanos bajo el enfoque de evaluación y mitigación de riesgos. Tiene algunas potencialidades que el tiempo y dirá, así como la capacidad para integrar principios éticos dentro del marco jurídico, el Convenio destaca por su importancia tanto simbólica como normativa.

Puedes leer el artículo completo en inglés AQUÍ

Acceso en español AQUÍ

Muchas gracias por tu interés. Y gracias por difundir un tuit como éste

https://twitter.com/cotino/status/1834561177310888083

Recuerda que tienes acceso a casi doscientas de mis publicaciones en www.cotino.es

Me complace anunciar la publicación de mi artículo «El uso jurisdiccional de la inteligencia artificial: habilitación legal, garantías necesarias y la supervisión por el CGPJ», en la revista Actualidad Jurídica Iberoamericana, nº 21, 2024

Puedes acceder a mi estudio AQUÍ. Se incluye en un excelente monográfico sobre JusticIA digital que reúne ni más ni menos que 22 estudios sobre estos temas, todo muy bien coordinado por Ana Montesinos y Diana Marcos, a quienes agradezco su empeño.

En este estudio quizá obtengas respuestas o al menos te puedes plantear cuestiones como:

  • ¿En qué funciones jurisdiccionales -y no meramente administrativas o procesales- puede utilizarse la IA? ¿De verdad que hay una «reserva de humanidad» que limite el uso de la IA en justicia?
  • ¿Cuáles son las principales carencias de Real Decreto-ley 6/2023 sobre el uso de IA y sistemas automatizados en Justicia, y cómo podrían subsanarse?
  • ¿En qué medida el Reglamento de Inteligencia Artificial de la UE (RIA) es suficiente regulación legal y con garantías para el uso de IA en justicia?
  • ¿Qué papel debería jugar el Consejo General del Poder Judicial (CGPJ) en la supervisión de sistemas de inteligencia artificial de alto riesgo? ¿por qué otras instituciones como la AESIA o la AEPD no son adecuadas para esta función?

Vengo sosteniendo un derecho a la inteligencia artificial (IA) y una consiguiente obligación de implantación por los poderes públicos, también en la Justicia.

Este estudio pretende allanar el camino para la integración de la IA en la función jurisdiccional. También busca asegurar que esta integración se realice respetando y fortaleciendo los derechos fundamentales. Creo firmemente que, aunque es necesario exigir garantías, debemos evitar una resistencia exagerada al uso público de la IA, en este caso en la Justicia. Estoy convencido de que los discursos actuales que cierran la puerta a estas innovaciones serán vistos con nostalgia en el futuro, cuando la tecnología sea una parte integral y confiable del proceso judicial.

En este estudio, defiendo el uso jurisdiccional -no meramente procesal o accesorio- de la IA en el sistema legal español, pero siempre bajo la premisa de que debe estar respaldado por suficientes garantías legales.

El análisis lo centro en la cobertura legal necesaria y variable en razón de los diferentes derechos y exigencias constitucionales concurrentes. Se subraya que el Reglamento de IA (RIA) de la UE, que sí que regula el uso jurisdiccional de la IA, no sirve como una habilitación legal por sí solo. Ahora bien, sin duda que el RIA implica garantías que deben superponerse con las garantías que obligatoriamente deben ser reguladas por ley, según jurisprudencia como la española (20219) o alemana (2022).

Desde una perspectiva constitucional, analizo y critico la regulación actual de los sistemas automatizados y de IA bajo el Real Decreto-ley 6/2023, que considero insuficiente.

No me entrometo en la robotización judicial y la sustitución del juez humano.   Obvimente nuestras constituciones analógicas parten de la premisa de que son humanos quienes realizan tales funciones jurisdiccionales. El CGPJ español afirma que la potestad jurisdiccional es una función “consustancial y ontológicamente anudada a la naturaleza humana, con independencia, imparcialidad, exclusividad y con exclusivo sometimiento al imperio de la ley” (nº 51)  . El CGPJ afirma una reserva de humanidad y “el derecho a una resolución fundada en Derecho dictada por un Juez o Tribunal, esto es, el derecho a que su caso sea resuelto por un Juez-persona” (nº 164, Conclusión 68).  El tiempo, el legislador y la jurisprudencia dirán hasta dónde llega este presunto derecho y el alcance de la IA en el ámbito de la justicia.

Además, sostengo que solo el Consejo General del Poder Judicial (CGPJ) puede ser la autoridad supervisora de los sistemas de IA jurisdiccionales de alto riesgo en España, debido a su independencia y la separación de poderes, según doctrina del TS y regulación legal en el caso de protección de datos. Ni la Autoridad Española de Supervisión de la Inteligencia Artificial (AESIA) ni la Agencia Española de Protección de Datos (AEPD) cumplen con los requisitos para esta función en el ámbito jurisdiccional.
Espero que te resulte sugerente.

justo sobre el tema de mi última publicación en la que apuesto por la IA en justicia, con garantías, aquí va una descripción rápida -y con mano de Chatgpt- sobre el uso de Chatgpt en la justicia y los lineamientos básicos que deben presidirlo, según la Corte Constitucional Colombiana.

la nota de prensa y resumen de la Corte puede seguirse aquí:

y el acceso a la sentencia, aquí:

a falta de entrar en pormenores, lo más relevante sería este resumen y el texto de los fundamentos clave, 423 y- 424.

Se lo han pasado bien escribiendo la decisión, sin duda. Es como un libro sobre el tema .

La referencia es SENTENCIA T-323 de 2024, CORTE CONSTITUCIONAL -Sala Segunda de Revisión-. Referencia: expediente T-9.301.656. Magistrado sustanciador: Juan Carlos Cortés González

Acción de tutela promovida por Blanca, en nombre y representación de su hijo menor de edad, en contra de la EPS.

Introducción

La decisión examina la integración de la inteligencia artificial, específicamente el uso de ChatGPT 3.5, en el proceso judicial colombiano. Fue algo muy sonado a inicios de 2023

https://www.elcolombiano.com/colombia/juez-de-cartagena-uso-chatgpt-inteligencia-artificial-para-sentencia-AG20262310

Se resuelve ahora la acción de tutela promovida por Blanca en representación de su hijo menor, diagnosticado con Trastorno del Espectro Autista, contra una EPS que se negó a exonerar el cobro de copagos y cuotas moderadoras para los tratamientos necesarios del niño. La controversia se agrava por el uso de IA en la emisión de la sentencia de segunda instancia, lo que plantea preocupaciones sobre la validez del debido proceso y la autonomía judicial.

El juez de segunda instancia utilizó ChatGPT 3.5 para complementar su decisión, generando un debate sobre la potencial vulneración del derecho al debido proceso. La Corte Constitucional analizó si el uso de IA en la motivación judicial podría reemplazar indebidamente la función del juez y si las respuestas generadas por IA podrían estar sesgadas o ser producto de «alucinaciones» propias de estos sistemas.

Consideraciones de la Corte

La Corte determina que, en este caso, no se violó el debido proceso porque la decisión judicial fue tomada antes de la consulta con ChatGPT 3.5, utilizando la IA únicamente como una herramienta complementaria. Sin embargo, la Corte reconoce que el uso de IA en el proceso judicial requiere un marco regulatorio claro para evitar posibles violaciones a los derechos fundamentales.

La Corte subraya la necesidad de desarrollar guías y lineamientos específicos para el uso de herramientas de IA en la administración de justicia. Se subraya también la necesaria capacitación continua para los operadores judiciales en cuanto al uso ético y responsable de estas tecnologías.

La Corte confirma parcialmente la sentencia de segunda instancia, subrayando que, aunque no se encontró una vulneración del debido proceso en este caso específico, el uso de IA en la justicia debe regularse cuidadosamente para garantizar que se respeten los derechos fundamentales de todas las partes involucradas.

Como recuerda un buen colega, entre otras lindezas se afirma que

148. Por último, cabe señalar que, si el sistema judicial colombiano tuviera su propio sistema de IA generativa especializado en jurisprudencia y normativa colombiana e internacional, este podría tener implicaciones positivas para la eficiencia de la labor de los jueces y ayudaría, especialmente, en la materialización del derecho de acceso a la administración de justicia. Ello, en el sentido en que las personas y operadores podrían acceder a la información de forma fácil, ágil y especializada. Por ejemplo, se podría tener acceso a líneas jurisprudenciales actualizadas, compararse casos similares, solicitarse un resumen fácil y comprensible de la normativa que interesa al caso concreto y hacerse análisis de problemas jurídicos y afectaciones a derechos. Todo ello dentro del ámbito propio de estas herramientas, como mecanismos que apoyan y que nunca pueden sustituir la labor humana en el servicio de justicia. Adicionalmente, la transparencia, la protección de datos, el conocimiento de los sesgos por conocer el origen de los datos con los cuales sea entrenada la IA, entre otros conceptos, no se verían afectados o, por lo menos, se reducirían en una gran parte los riesgos, puesto que se trataría de una IA controlada y en funcionamiento por y para la Rama Judicial.

Fundamentos esenciales: 423-424

El fundamento jurídico 423 es relevante en la sentencia, ya que establece los principios que deben guiar el uso de IA en el ámbito judicial y de respeto a los mandatos superiores, en orden a garantizar los derechos fundamentales, en especial el debido proceso, cuando hagan uso de aquellas, y asegurar la independencia y autonomía judiciales, como garantías insustituibles para la vigencia del Estado Social de Derecho y la democracia.

423. De manera particular, la Sala Segunda de Revisión considera esenciales la apropiación y aplicación de los siguientes criterios orientadores en cuanto al uso de herramientas de IA como ChatGPT por parte de los despachos judiciales en el país:

a. Transparencia, entendida como la obligación de evidenciar con claridad y precisión el uso, alcances y ubicación en las actuaciones o decisiones de los resultados obtenidos por la utilización de tales herramientas, que permita a los usuarios e interesados su pleno conocimiento y la posibilidad efectiva de contradicción.

b. Responsabilidad, comprendida como aquella obligación que existe de que el usuario de la herramienta de IA se encuentre capacitado y comprenda los impactos del uso de estas tecnologías, para a su vez dar cuenta del origen, idoneidad y necesidad del uso de la IA y la información suministrada por la misma, la cual debe ser verificada.

c. Privacidad, es aquel deber de custodiar y proteger la reserva de los datos personales y sensibles que se ponen en conocimiento de la administración de justicia para cumplir con los fines propios de la Rama Judicial.

d. No sustitución de la racionalidad humana, como expresión de la imposibilidad ética y jurídica de sustituir la acción y la responsabilidad del individuo de la especie humana en la gestión de las actuaciones y decisiones judiciales.

e. Seriedad y verificación, que implica la obligación de realizar un estricto escrutinio sobre las fuentes, alcances, restricciones, posibilidades, falencias y riesgos que presente la herramienta de cara a la actuación en curso o a la solución del problema jurídico correspondiente.

f. Prevención de riesgos, como mandato en cuanto aplicar los estándares adecuados de control sobre situaciones que generen riesgo por la aplicación de tecnologías tales, en aspectos como imprecisiones, desactualizaciones, alucinaciones, sesgos, inconsistencias y demás.

g. Igualdad y equidad, en cuanto se erradiquen todas las formas de discriminación relacionadas con la aplicación de sesgos derivada del uso de tales tecnologías y su impacto negativo en la eficacia de los derechos humanos.

h. Control humano, en tanto considerando los anteriores criterios, siempre se permita la realización efectiva de escrutinios sobre las actuaciones y decisiones en que se usen herramientas de IA, mediante el acceso a la debida información y el uso de recursos que deban ser resueltos por autoridades humanas.

i. Regulación ética, que implica el desarrollo de estándares de comportamiento individual que se adecúen a los mandatos superiores y legales y a las pautas razonables para el uso de tales tecnologías por parte de los funcionarios y servidores de la Rama Judicial.

j. Adecuación a buenas prácticas y estándares colectivos, en tanto se apliquen los esquemas razonables que se definan para el funcionamiento de la Rama Judicial, desde su autonomía e independencia, a partir de las definiciones que adopten sus autoridades, tanto en sede de administración como de orientación jurisprudencial.

k. Seguimiento continuo y adaptación, a efecto que el uso de tales tecnologías consulte los avances jurídicos, sociológicos y tecnológicos que se vayan implementando, así como los esquemas de mejora y control que se construyan en forma progresiva.

l. Idoneidad. El uso de las tecnologías de la información y de las comunicaciones en la gestión y trámite de los procesos judiciales y asuntos en curso debe ser adecuado para facilitar y agilizar el acceso a la justicia.

424. También se ordenará al Consejo Superior de la Judicatura que fije unos lineamientos sobre el uso de IA en la Rama Judicial, en los que, como mínimo, tenga en cuenta los puntos que se exponen a continuación:

(i) Las IA no pueden ser usada para sustituir el razonamiento lógico y humano que le compete realizar a cada juez a efectos de interpretar los hechos, valorar las pruebas, motivar y adoptar la decisión, pues ello conllevaría una violación de la garantía del juez natural y al debido proceso probatorio. En las instancias y en sede de revision de tutelas se deberán aplicar controles que eviten la violación del derecho al debido proceso por uso indebido de IA, entre los que se destaca la autrorregulación ética.

(ii) La IA se podrá utilizar en el sistema judicial para los ámbitos de gestión administrativa y documental, así como el de apoyo a la gestión judicial y la corrección y síntesis de textos; en tales eventos, la utilización de estas tecnologías no remplaza la labor esencial que se le ha atribuido al funcionario judicial, sin embargo, en estos casos, se deberán tener las cautelas necesarias para evitar la transgresión de derechos, tales como el habeas data o la intimidad, o que el funcionario judicial pierda la independencia o imparcialidad debido a los sesgos y alucinaciones de la IA.

(iii) Para efecto de lo anterior, se deberán garantizar los principios de transparencia, responsabilidad y privacidad respecto al uso de la IA, conforme a los parámetros ya establecidos con anterioridad.

(iv) Identificar a un humano responsable, es decir, que haya una persona individualizable e identificable a quien se le pueda plantear las preocupaciones relacionadas con las decisiones tomadas y que pueda evaluar las intervenciones realizadas por la IA.

(v) Materializarse un lenguaje claro y comprensible para los seres humanos, sobre las respuestas que genera la IA.

(vi) Lo anterior implica que los jueces, magistrados y demás funcionarios y servidores de la Rama Judicial empleen la autorregulación ética y los autocontroles al momento de apoyarse en IA para la gestión judicial.

(vii) En cualquier caso, es necesario resaltar que el proceso de digitalización de la justicia en Colombia, sean cuales sean los lineamientos que se adopten por el Consejo Superior de la Judicatura, debe hacerse dentro del marco de respeto por los derechos fundamentales y con las garantías para el acceso efectivo y la no vulneración de tales, especialmente el debido proceso, los cuales se sopesen con los riesgos potenciales de cada nueva tecnología en este ámbito y los nuevos usos que se les pueda dar a estas.

(viii) Se adelanten las gestiones necesarias de coordinación con las diferentes autoridades concernidas con el tema de tecnología en el Estado, con el Congreso de la República, el Gobierno nacional, los funcionarios y empleados de la Rama Judicial y las diferentes autoridades públicas, así como agencias internacionales u organismos especializados en herramientas de IA como ChatGPT, para informar y coordinar sobre los requerimientos que demande específicamente la Rama Judicial.

(ix) Se establezca un adecuado sistema de control, seguimiento, alerta, evaluación y mejora en cuanto a las prácticas que impliquen el uso de herramientas de IA como ChatGPT por los despachos judiciales del país y se divulguen sus resultados, como parte de las rendiciones de cuentas a cargo de la Rama Judicial. Se insta al Consejo Superior de la Judicatura para que adopte medidas que le permitan identificar los casos en los que funcionarios judiciales hayan hecho uso de IA en sus decisiones, para que tome las medidas judiciales y administrativas pertinentes.

(x) Igualmente se ordena al Consejo Superior de la Judicatura que, como lo viene haciendo, a través de la Escuela Judicial Rodrigo Lara Bonilla, desarrolle habilidades digitales en los operadores jurídicos (a) desde un enfoque interseccional e interdisciplinario, a través de cursos que permitan comprender y discutir sobre las nuevas tecnologías, en especial sobre las IA; que los temarios (b) sean producto de una construcción colectiva en que se tenga en cuenta a todos los servidores de la Rama Judicial, y (c) que los de formación jurídica sobre IA sean incluidos en el curso concurso para ingresar en la Rama Judicial, así como (d) que se desarrollen proyectos de extensión de despliegue de sistemas de IA de acuerdo con los lineamientos propuestos.

colombIA

un gusto compartir  mi última aportación titulada «Caso Bosco, a la tercera tampoco va la vencida. Mal camino en el acceso los algoritmos públicos» en el Diario La Ley, mayo de 2024. Puedes leerlo completo aquí.
https://ir.uv.es/bLgBg0x
y gracias por retuitear un tuit como éste
A propósito de la tercera denegación de acceso al código fuente de la aplicación BOSCO, solicitada por CIVIO, intento dar respuesta a las siguientes cuestiones:

  • ¿Por qué es fundamental la transparencia en los algoritmos utilizados por la administración pública?
  • ¿Qué implicaciones tiene la sentencia del caso Bosco para la transparencia y la seguridad informática?
  • ¿Por qué motivos esta sentencia deniega el acceso acceso al código fuente de BOSCO?
  • ¿Qué pasos se deben tomar para mejorar la regulación de la transparencia algorítmica en España?

En el comentario señalo la desigual suerte al solicitar información sobre algoritmos públicos en España, con experiencias tanto positivas como negativas. Ya en particular se aborda el caso Bosco, con tres denegaciones de acceso al código fuente del bono social eléctrico, justificadas esencialmente por seguridad informática “travestida” de  propiedad intelectual. Así, efectúo una valoración y crítica a la sentencia del 30 de abril de 2024, de mejorable calidad técnica, aunque con apoyo pericial

Tras esta valoración, vuelvo a la carga respecto de la necesidad de una regulación más robusta y concreta que asegure la transparencia algorítmica y la creación de registros públicos de algoritmos.

La sentencia, y espero que esta aportación, sirva para el necesario debate constructivo sobre la importancia de la transparencia en el uso de algoritmos por parte de la administración pública y la necesidad de mejorarla.

 

Me complace anunciar la publicación del artículo «Criterios éticos de derecho internacional humanitario en el uso de sistemas militares dotados de inteligencia artificial» en la prestigiosa revista Novum Jus, la segunda mejor indexada en Iberoamérica. Este trabajo, en coautoría con  Ángel Gómez de Ágreda, aborda cuestiones cruciales en la intersección de la tecnología, la ética y el derecho internacional.

Esperamos que te interese. No hay prácticamente nada en español sobre el tema y se recoge la mejor documentación y bibliografía internacional existente.
gracias por redifundir un tuit como éste: https://twitter.com/cotino/status/1782372367131357220

En el mismo podrás encontrar algunas respuestas a preguntas como éstas:

  • ¿Cómo pueden los sistemas militares dotados de IA cumplir con el Derecho internacional humanitario?
  • ¿Qué medidas éticas son cruciales al diseñar sistemas militares autónomos?
  • ¿De qué manera afecta la autonomía de las armas letales a la responsabilidad humana en conflictos armados?
  • ¿Cuáles son los desafíos clave para integrar el control humano significativo en los sistemas autónomos militares?
  • ¿Cómo pueden los principios de la IA ética traducirse en protocolos operativos para el uso militar?
  • ¿Qué implicaciones tiene el uso de sistemas autónomos en la doctrina del doble efecto bajo el Derecho Internacional Humanitario?
  • ¿De qué manera pueden los desarrollos recientes en IA militar servir como precedente para futuras regulaciones internacionales?

El estudio profundiza en cómo los sistemas de inteligencia artificial (IA) utilizados en el ámbito militar deben integrarse con los principios de Derecho internacional humanitario. A medida que los sistemas autónomos se vuelven más prevalentes en la defensa, su regulación y ética se torna imperativa. La ética sí que tiene un particular papel en este ámbito, que tan habitualmente escapa al Derecho pro la vía de exclusiones como sucede en el Reglamento de IA de la UE o en el reciente Convenio de IA del Consejo de Europa. En todo caso, el Derecho Internacional Humanitario es preceptivo, pese a que no haya acuerdos para su actualización. En el trabajo proponemos principios éticos específicos para la IA en defensa, subrayando la necesidad de un control humano significativo y el cumplimiento del IDH.

Leer el artículo completo

Un gusto trabajar con Ángel, aunque fuera en agosto ;))

El Diario la Ley publica mi estudio «La primera sentencia del Tribunal de Justicia de la Unión Europea sobre decisiones automatizadas y sus implicaciones para la protección de datos y el Reglamento de inteligencia artificial»

La sentencia TJUE del 7 de diciembre de 2023 es la primera que aborda centralmente el artículo 22 RGPD relativo a las decisiones automatizadas. En el estudio se analizan los elementos básicos de la misma:  descripción del supuesto; dudas que eleva el órgano jurisdiccional alemán al TJUE; doctrina general y particular que se establecen, en particular sobre lo que es una “decisión individual” y el alcance de la garantía en el supuesto y respecto del margen de regulación nacional sobre el artículo 22. Asimismo, se brinda una valoración general y reflexión sobre las proyecciones que puede tener para el futuro. En este punto, yendo más allá de lo afirmado por la sentencia se aboga por un claro criterio interpretativo que dote de protección a las decisiones parcialmente automatizadas. Igualmente se explica por qué esta cuestión pasa a ser esencial respecto de la aplicación misma del futuro Reglamento del IA de la UE por ser decisivo para considerar si un sistema de IA es o no de alto riesgo.

Espero que te interese. Gracias por redifundir un tuit como éste.

https://twitter.com/cotino/status/1747533167060300038

Queridas-os, (feliz 2024 y demás) es una alegría señalar que acaba de salir el libro que he coordinado con J. Castellanos Algoritmos abiertos y que no discriminen en el sector público, Tirant lo Blanch, con estudios fantásticos de teoría y práctica.

Tienes disponible el Índice y presentación en https://links.uv.es/p29lR70

bajo pongo el listado de autoras-es de renombre.

si te interesa el tema, una versión que condensa algunos de los contenidos del libro, puede verse en los dos trabajos que he publicado también este mes:

Artículo “Transparencia de la inteligencia artificial pública: marco legal, desafíos y propuestas”, en Actualidad Administrativa nº 12, 2023, La Ley, 15 diciembre de 2023.

Artículo “Implantando la transparencia y los registros públicos de algoritmos. La experiencia pionera en la Comunidad Valenciana” en L. Cotino Hueso y J. Castellanos (coords.), Revista Valenciana d’Estudis

y en concreto sobre discriminación, este año salió publicado el trabajo que más me ha costado en los útimos años, «Discriminación, sesgos e igualdad de la inteligencia artificial en el sector público«, en Gamero Casado, Eduardo, (Dir.), Inteligencia artificial y sector público: retos, límites y medios, Tirant lo Blanch, Valencia, 2023, acceso capítulo. Acceso obra

a todo puede accederse en www.cotino.es

gracias por tu interés y por difundir un tuit como éste:

https://twitter.com/cotino/status/1744263665186975820

autoras y autores:

  • Pere Simón Castellano, Profesor Titular de Derecho Constitucional UNIR
  • Marco Emilio Sánchez Acevedo, Docente e investigador de la Universidad Católica de Colombia
  • Rubén Martínez Gutiérrez, Profesor Titular de Derecho Administrativo Universidad de Alicante
  • Michael Donaldson Carbón Comisionado de Innovación Digital. Ayuntamiento de Barcelona
  • Paula Boet Serrano Responsable de derechos digitales. Ayuntamiento de Barcelona
  • Lorenzo Cotino Hueso, Alba Soriano Arnanz, Jorge Castellanos, Raquel Valle Escolano y Adrián Palma Ortigosa, de la Universitat de València
  • Rosa Cernada Badía Profesora de Derecho Administrativo Universidad Católica de Valencia
  • Joan Guanyabens Director Fundació TIC Salut i Social

la cosa no para, ya con unos 400 inscritos online y presencial, el Jueves 2 de junio he organizado en Zaragoza el siguiente evento

Congreso presencial u online “Derechos digitales e inteligencia artificial”, @Fundacion_MGA,  @cortes_aragon, con ocho ponentes de máximo nivel. + programa  e inscripción gratuita en https://ir.uv.es/M8Q01Z4

vaya programa¡ y además surgirá un estupendo libro de la Fundación.

9,45 h.: Legislar y constitucionalizar los derechos digitales

Dr. Artemi Rallo Lombarte

Senador, exDiputado y Catedrático de Derecho Constitucional de la Universidad Jaume I de Castellón

 

10,25 h.: El diseño ético de la inteligencia artificial para no discriminar ni lesionar derechos

Dra. Idoia Salazar

Presidenta de OdiseIA, Profesora de Periodismo CEU-Madrid

12,00 h.: La privacidad y los derechos digitales

Dra. Mónica Arenas Ramiro

Profesora Contratada Doctora Derecho Constitucional y Delegada de Protección de datos, Universidad de Alcalá

 

12,40 h.: Derechos y garantías ante la automatización policial y de la justicia

Dr. Pere Simó Castellano

Profesor Titular de Derecho Constitucional  de la UNIR. Premio AEPD

16,15 h.: Libertades digitales, plataformas e inteligencia artificial

Dr. Germán Teruel Lozano

Profesor contratado Doctor Derecho Constitucional, responsable Cátedra de Buen Gobierno e Integridad Pública, Universidad de Murcia

 

16,55 h.: Derechos digitales de acceso a la información

Dra. Loreto Corredoira Alfonso

Profesora Titular de Derecho Constitucional, Facultad de Ciencias de la Información Universidad Complutense

18,15 h.: Cómo redefinir los derechos y las garantías ante la disrupción digital

Dr. Lorenzo Cotino Hueso

Catedrático de Derecho Constitucional, Universidad de Valencia, Director de Regulación y Derechos de OdiseIA

 

18,55 h.: El uso público de la inteligencia artificial y la garantía de nuestros derechos

Dr. Juan Gustavo Corvalán

Cofundador y Co-Director del IALAB, Laboratorio de Innovación e Inteligencia Artificial de la Facultad de Derecho de la Universidad de Buenos Aires