¿Quién paga los platos rotos de la IA? El reto de la responsabilidad legal
Organizar un debate en el espacio NUGA (un ecosistema que respira innovación y diseño en pleno Madrid) sobre la responsabilidad legal de la IA no es solo oportuno, es una necesidad estratégica.
Estamos en plena transición hacia la implementación real del Reglamento de IA de la UE. Las empresas ya no preguntan "¿qué puede hacer la IA?", sino "¿qué pasa si la IA se equivoca?". Madrid, como hub tecnológico europeo, necesita un foro donde juristas, ingenieros y directivos hablen el mismo idioma antes de que los conflictos lleguen masivamente a los juzgados.
El debate se justifica por la opacidad de los sistemas actuales. Si una IA en una empresa madrileña toma una decisión sesgada (como los casos de Uber o Deliveroo), existe un vacío de comprensión sobre quién debe dar la cara:
- El Desarrollador: ¿Es un fallo de programación?
- El Empresario: ¿Es una falta de supervisión?
- El Algoritmo: ¿Debemos dotarlo de personalidad jurídica propia?
NUGA no es un auditorio tradicional; es un espacio que conecta el estilo de vida con la innovación.
- Networking de Alto Nivel: El perfil de usuario de NUGA (profesionales disruptivos, creativos y techies) es el público ideal para un debate que cruza la ética, el derecho y el código.
- Ambiente de Co-creación: La estructura del espacio facilita que el debate no sea una lección magistral, sino una mesa redonda dinámica donde surjan soluciones prácticas a problemas legales complejos.
DESARROLLO DEL ENCUENTRO
¿Quién paga los platos rotos de la IA? El reto de la responsabilidad legal
Cuando un algoritmo decide el futuro laboral de alguien, el Derecho entra en un terreno pantanoso. Ya no hablamos de ciencia ficción, sino de quién responde ante un juez cuando el código se equivoca.
Los puntos críticos del debate
· La trampa de la "Caja Negra": Es casi imposible saber por qué una IA descartó un CV o decidió un despido. Si el trabajador no entiende la lógica del programa, ¿cómo puede defenderse? Aquí la gran duda es si la empresa debe ser quien demuestre que el algoritmo es "limpio", y no el empleado quien busque la aguja en el pajar.
· ¿Culpable o simplemente código?: No podemos meter a un software en la cárcel, ni acusarlo de tener "mala intención". Esto ha revivido la propuesta de crear una Personalidad Jurídica Electrónica, algo así como tratar a la IA como una entidad independiente para que responda por sus propios daños.
· El dilema del supervisor: El jefe dice: "Yo solo apreté el botón, no sé cómo funciona por dentro". ¿Es una excusa válida o el humano siempre debe ser el responsable final, aunque no entienda el 100% de la lógica de la máquina?
Escenarios de Riesgo y Responsabilidad
¿Cómo se traducen estos conceptos teóricos en problemas del mundo real?
La pregunta del millón
¿Cómo protegemos los derechos de un trabajador cuando su "jefe" es un sistema opaco que no rinde cuentas? El reto actual es garantizar que la tecnología no se convierta en un escudo para evadir la justicia laboral.
Para entender hacia dónde va el Derecho, lo mejor es mirar lo que ya está pasando en los tribunales. Estos casos han marcado un antes y un después, especialmente en Europa, donde la justicia está siendo muy estricta con la "dictadura del algoritmo".
Veamos tres casos emblemáticos que aterrizan toda esa teoría a la realidad:
1. El algoritmo "Frank" (Deliveroo - Italia)
Este es el caso de referencia sobre discriminación algorítmica.
· El conflicto: Deliveroo usaba un algoritmo llamado "Frank" para asignar turnos. Si un repartidor no cancelaba su turno con mucha antelación, su puntuación bajaba y el sistema dejaba de darle trabajo.
· El problema: El algoritmo no distinguía si el repartidor faltaba por una fiesta o por una huelga o una enfermedad.
· La sentencia: Un tribunal de Bolonia dictaminó que el algoritmo era discriminatorio. No importaba que no hubiera "intención" humana de discriminar; el resultado era ilegal. Deliveroo tuvo que pagar 50,000 € y cambiar el sistema.
Tribunal: Tribunal Ordinario de Bolonia (Sección Laboral), Sentencia n.º 2949/2020.
Legislación Citada:
· Decreto Legislativo n.º 216/2003 (Italia): Que transpone la Directiva 2000/78/CE de la Unión Europea sobre la igualdad de trato en el empleo y la ocupación.
· Código de Oportunidades Iguales (Italia): Artículos 25 y siguientes, que prohíben la discriminación indirecta (cuando una regla aparentemente neutra perjudica a un grupo específico, como quienes ejercen su derecho a huelga).
2. El caso de los "Uber Drivers" (Reino Unido / Países Bajos)
Aquí el debate fue la transparencia y el derecho a saber por qué te despiden.
· El conflicto: Varios conductores fueron expulsados de la plataforma automáticamente por supuestas "actividades fraudulentas" detectadas por la IA (como rutas sospechosas).
· El problema: Uber se negaba a explicar detalladamente qué datos usó la IA para tomar esa decisión, escudándose en el secreto comercial.
· La sentencia: Los tribunales recordaron que, bajo el RGPD (Reglamento General de Protección de Datos), cualquier persona tiene derecho a una explicación significativa sobre decisiones automatizadas que le afecten gravemente. No basta con decir "lo decidió la máquina".
Tribunal: Tribunal de Apelación de Ámsterdam (Países Bajos), 2021/2023.
Legislación Citada:
· RGPD (Reglamento General de Protección de Datos - UE 2016/679): * Artículo 13(2)(f) y 15(1)(h): Derecho del interesado a recibir "información significativa sobre la lógica aplicada" en decisiones automatizadas.
o Artículo 22: El derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado que produzca efectos jurídicos o le afecte significativamente.
· Código Civil Neerlandés: En lo relativo a la ejecución de buena fe de los contratos de prestación de servicios.
3. El algoritmo de Amazon (EE. UU. - Sesgo de Género)
Aunque no llegó a una sentencia judicial porque Amazon lo retiró a tiempo, es el ejemplo perfecto de responsabilidad preventiva.
· El escenario: Amazon creó una herramienta de IA para puntuar CVs del 1 al 5.
· El error: El sistema se entrenó con currículums recibidos durante 10 años, la mayoría de hombres. La IA aprendió que "ser hombre" era un factor de éxito y penalizaba CVs que incluían la palabra "mujeres" (ej. "club de ajedrez de mujeres").
· La lección: Demostró que la opacidad de la IA puede crear una discriminación estructural masiva antes de que un humano se dé cuenta.
Contexto: No llegó a tribunales porque fue una auditoría interna en EE. UU. (Seattle). Sin embargo, si hubiera avanzado, se habría juzgado bajo:
Legislación Aplicable:
· Título VII de la Ley de Derechos Civiles de 1964 (EE. UU.): Que prohíbe la discriminación en el empleo por razón de raza, color, religión, sexo o procedencia nacional.
· Directrices de la EEOC (Equal Employment Opportunity Commission): Que establecen que los empleadores son responsables de las herramientas de selección que utilizan, aunque sean de terceros.
Un paso más allá: La Directiva de Trabajo en Plataformas
Actualmente, la Unión Europea está aprobando leyes que establecen que siempre debe haber supervisión humana. Es decir, una IA no puede despedir a nadie sin que un humano revise el caso y firme la decisión.
A partir de 2024-2026, estos casos ya no se juzgarán solo con leyes antiguas. El Reglamento de Inteligencia Artificial de la UE clasifica los sistemas de IA en el empleo como "de Alto Riesgo".
Nota: En España, además, contamos con la "Ley Rider" (Ley 12/2021), que modificó el Estatuto de los Trabajadores para obligar a las empresas a informar a los sindicatos sobre los parámetros y reglas de los algoritmos que afectan las condiciones laborales.
