¿Quién
paga los platos rotos de la IA? El reto de la responsabilidad legal
Organizar
un debate en el espacio NUGA (un ecosistema que respira innovación y
diseño en pleno Madrid) sobre la responsabilidad legal de la IA no es solo
oportuno, es una necesidad estratégica.
Estamos
en plena transición hacia la implementación real del Reglamento de IA de la
UE. Las empresas ya no preguntan "¿qué puede hacer la IA?", sino
"¿qué pasa si la IA se equivoca?". Madrid, como hub tecnológico
europeo, necesita un foro donde juristas, ingenieros y directivos hablen el
mismo idioma antes de que los conflictos lleguen masivamente a los juzgados.
El
debate se justifica por la opacidad de los sistemas actuales. Si una IA en una
empresa madrileña toma una decisión sesgada (como los casos de Uber o
Deliveroo), existe un vacío de comprensión sobre quién debe dar la cara:
- El Desarrollador:
¿Es un fallo de programación?
- El Empresario:
¿Es una falta de supervisión?
- El Algoritmo:
¿Debemos dotarlo de personalidad jurídica propia?
NUGA
no es un auditorio tradicional; es un espacio que conecta el estilo de vida con
la innovación.
- Networking de Alto Nivel:
El perfil de usuario de NUGA (profesionales disruptivos, creativos y
techies) es el público ideal para un debate que cruza la ética, el derecho
y el código.
- Ambiente de Co-creación:
La estructura del espacio facilita que el debate no sea una lección magistral,
sino una mesa redonda dinámica donde surjan soluciones prácticas a
problemas legales complejos.

DESARROLLO
DEL ENCUENTRO
¿Quién
paga los platos rotos de la IA? El reto de la responsabilidad legal
Cuando
un algoritmo decide el futuro laboral de alguien, el Derecho entra en un
terreno pantanoso. Ya no hablamos de ciencia ficción, sino de quién responde
ante un juez cuando el código se equivoca.
Los
puntos críticos del debate
·
La trampa de la "Caja
Negra": Es casi imposible saber por qué una IA
descartó un CV o decidió un despido. Si el trabajador no entiende la lógica del
programa, ¿cómo puede defenderse? Aquí la gran duda es si la empresa debe ser
quien demuestre que el algoritmo es "limpio", y no el empleado quien
busque la aguja en el pajar.
·
¿Culpable o simplemente código?:
No podemos meter a un software en la cárcel, ni acusarlo de tener "mala
intención". Esto ha revivido la propuesta de crear una Personalidad
Jurídica Electrónica, algo así como tratar a la IA como una entidad
independiente para que responda por sus propios daños.
·
El dilema del supervisor:
El jefe dice: "Yo solo apreté el botón, no sé cómo funciona por
dentro". ¿Es una excusa válida o el humano siempre debe ser el responsable
final, aunque no entienda el 100% de la lógica de la máquina?
Escenarios
de Riesgo y Responsabilidad
¿Cómo
se traducen estos conceptos teóricos en problemas del mundo real?

La
pregunta del millón
¿Cómo
protegemos los derechos de un trabajador cuando su "jefe" es un
sistema opaco que no rinde cuentas? El reto actual es garantizar que la
tecnología no se convierta en un escudo para evadir la justicia laboral.
Para
entender hacia dónde va el Derecho, lo mejor es mirar lo que ya está pasando en
los tribunales. Estos casos han marcado un antes y un después, especialmente en
Europa, donde la justicia está siendo muy estricta con la "dictadura del
algoritmo".
Veamos
tres casos emblemáticos que aterrizan toda esa teoría a la realidad:
1.
El algoritmo "Frank" (Deliveroo - Italia)
Este
es el caso de referencia sobre discriminación algorítmica.
·
El conflicto:
Deliveroo usaba un algoritmo llamado "Frank" para asignar turnos. Si
un repartidor no cancelaba su turno con mucha antelación, su puntuación bajaba
y el sistema dejaba de darle trabajo.
·
El problema:
El algoritmo no distinguía si el repartidor faltaba por una fiesta o por una huelga
o una enfermedad.
·
La sentencia:
Un tribunal de Bolonia dictaminó que el algoritmo era discriminatorio. No
importaba que no hubiera "intención" humana de discriminar; el resultado
era ilegal. Deliveroo tuvo que pagar 50,000 € y cambiar el sistema.
Tribunal:
Tribunal Ordinario de Bolonia (Sección Laboral), Sentencia n.º 2949/2020.
Legislación
Citada:
·
Decreto Legislativo n.º 216/2003
(Italia): Que transpone la Directiva 2000/78/CE de la Unión Europea sobre la
igualdad de trato en el empleo y la ocupación.
·
Código de Oportunidades Iguales
(Italia): Artículos 25 y siguientes, que prohíben la discriminación indirecta
(cuando una regla aparentemente neutra perjudica a un grupo específico, como
quienes ejercen su derecho a huelga).
2.
El caso de los "Uber Drivers" (Reino Unido / Países Bajos)
Aquí
el debate fue la transparencia y el derecho a saber por qué te despiden.
·
El conflicto:
Varios conductores fueron expulsados de la plataforma automáticamente por
supuestas "actividades fraudulentas" detectadas por la IA (como rutas
sospechosas).
·
El problema:
Uber se negaba a explicar detalladamente qué datos usó la IA para tomar esa
decisión, escudándose en el secreto comercial.
·
La sentencia:
Los tribunales recordaron que, bajo el RGPD (Reglamento General de Protección
de Datos), cualquier persona tiene derecho a una explicación significativa
sobre decisiones automatizadas que le afecten gravemente. No basta con decir
"lo decidió la máquina".
Tribunal:
Tribunal de Apelación de Ámsterdam (Países Bajos), 2021/2023.
Legislación
Citada:
·
RGPD (Reglamento General de
Protección de Datos - UE 2016/679): * Artículo 13(2)(f) y
15(1)(h): Derecho del interesado a recibir "información significativa
sobre la lógica aplicada" en decisiones automatizadas.
o Artículo
22:
El derecho a no ser objeto de una decisión basada únicamente en el tratamiento
automatizado que produzca efectos jurídicos o le afecte significativamente.
·
Código Civil Neerlandés:
En lo relativo a la ejecución de buena fe de los contratos de prestación de
servicios.
3.
El algoritmo de Amazon (EE. UU. - Sesgo de Género)
Aunque
no llegó a una sentencia judicial porque Amazon lo retiró a tiempo, es el
ejemplo perfecto de responsabilidad preventiva.
·
El escenario:
Amazon creó una herramienta de IA para puntuar CVs del 1 al 5.
·
El error:
El sistema se entrenó con currículums recibidos durante 10 años, la mayoría de
hombres. La IA aprendió que "ser hombre" era un factor de éxito y
penalizaba CVs que incluían la palabra "mujeres" (ej. "club de
ajedrez de mujeres").
·
La lección:
Demostró que la opacidad de la IA puede crear una discriminación
estructural masiva antes de que un humano se dé cuenta.
Contexto:
No llegó a tribunales porque fue una auditoría interna en EE. UU. (Seattle).
Sin embargo, si hubiera avanzado, se habría juzgado bajo:
Legislación
Aplicable:
·
Título VII de la Ley de Derechos
Civiles de 1964 (EE. UU.): Que prohíbe la discriminación en el
empleo por razón de raza, color, religión, sexo o procedencia nacional.
·
Directrices de la EEOC (Equal
Employment Opportunity Commission): Que establecen que los
empleadores son responsables de las herramientas de selección que utilizan,
aunque sean de terceros.

Un
paso más allá: La Directiva de Trabajo en Plataformas
Actualmente,
la Unión Europea está aprobando leyes que establecen que siempre debe haber
supervisión humana. Es decir, una IA no puede despedir a nadie sin que un
humano revise el caso y firme la decisión.
A
partir de 2024-2026, estos casos ya no se juzgarán solo con leyes antiguas. El Reglamento
de Inteligencia Artificial de la UE clasifica los sistemas de IA en el
empleo como "de Alto Riesgo".

Nota:
En España, además, contamos con la "Ley Rider" (Ley 12/2021),
que modificó el Estatuto de los Trabajadores para obligar a las empresas a
informar a los sindicatos sobre los parámetros y reglas de los algoritmos que
afectan las condiciones laborales.