Stay up to date with notifications from The Independent

Notifications can be managed in browser preferences.

Lo que el fallo histórico contra Meta y Google significa para España

El veredicto es un espejo en el que Europa y, concretamente España, podrían seguir

Esta sentencia abre la puerta a la exigencia de responsabilidades en España, que ya cuenta con un arsenal jurídico preparado para proteger a los usuarios de algoritmos manipuladores
Esta sentencia abre la puerta a la exigencia de responsabilidades en España, que ya cuenta con un arsenal jurídico preparado para proteger a los usuarios de algoritmos manipuladores (Drew ANGERER / AFP via Getty Images)

Un jurado de Los Ángeles ha marcado un antes y un después. Una histórica sentencia del pasado 25 de marzo de 2026 condena a a Google –propietaria de YouTube– y a Meta –matriz de Instagram, Facebook y WhatsApp– a indemnizar con tres millones de dólares a una joven por los daños causados por el “diseño adictivo” de sus plataformas. No es solo una noticia de alcance internacional; es un espejo en el que Europa y, concretamente España, podrían seguir su ejemplo.

El diseño, encontrado “culpable”

El veredicto es revolucionario por su enfoque: no juzga el contenido, sino la arquitectura misma de la adicción. Y ante esta nueva frontera de la responsabilidad digital, la pregunta es ineludible: ¿contamos en nuestro ordenamiento con las herramientas para seguir ese camino? La respuesta es un sí rotundo.

Esta sentencia abre la puerta a la exigencia de responsabilidades en España, que ya cuenta con un arsenal jurídico preparado para proteger a los usuarios de algoritmos manipuladores.

El caso de Los Ángeles se centró en los daños sufridos por una joven que se volvió adicta durante su infancia
El caso de Los Ángeles se centró en los daños sufridos por una joven que se volvió adicta durante su infancia (Wally Skalij/Getty Images)

En Europa, la IA bajo sospecha

El primer gran pilar para construir un caso similar en Europa ya está en pie. El reciente Reglamento de Inteligencia Artificial de la UE, una normativa pionera a nivel mundial, establece líneas rojas muy claras. Tal y como se ha debatido en el seno del Parlamento europeo, la ley prohíbe explícitamente aquellos sistemas de IA que utilicen técnicas subliminales que trascienden la conciencia humana para alterar el comportamiento de una persona de manera que le cause un perjuicio.

Su artículo 5 establece las “prácticas de inteligencia artificial prohibidas”, y ahí se incluyen los sistemas de IA que:

  • Tengan como objetivo o efecto alterar de manera sustancial el comportamiento humano con la probabilidad de causar perjuicios considerables.
  • Utilicen componentes subliminales (estímulos que trascienden la percepción humana) u otras técnicas manipulativas o engañosas que perjudiquen la autonomía y la capacidad de elección de las personas.

¿Acaso no es esta una descripción precisa de los algoritmos de diseño adictivo?

Mecanismos como el scroll infinito, la reproducción automática por defecto o el sistema de notificaciones constantes no son meras funcionalidades; son técnicas de ingeniería conductual diseñadas para capturar y retener nuestra atención, a menudo, explotando vulnerabilidades psicológicas que se acentúan cuando los usuarios, además, son menores de edad.

Actúan en un plano que escapa al control consciente del usuario, generando patrones de uso compulsivo. La nueva normativa europea, por tanto, no solo los regula, sino que los podría considerar directamente ilegales, abriendo una vía directa para reclamar contra quienes los diseñan y despliegan.

Arsenal jurídico español: un abordaje integral

Más allá de la normativa europea de futuro, la legislación española vigente ofrece un completo abanico de instrumentos para hacer frente a este desafío.

De forma sorprendentemente premonitoria, nuestro ordenamiento ya reconoce las adicciones “sin sustancia”. El artículo 2 de la Ley 1/2016, de atención integral de adicciones y drogodependencias, considera como adicciones comportamentales “las conductas excesivas en el uso de las tecnologías digitales y sus nuevas aplicaciones y, en particular, las relacionadas con el uso de las redes sociales y los videojuegos”.

La ley no solo lo reconoce, sino que en su artículo 51 insta a las administraciones a desarrollar medidas para prevenir los riesgos de su uso excesivo. Esto proporciona una base legal sólida para argumentar que el diseño que fomenta activamente estas conductas es, en sí mismo, una práctica ilícita.

Protección reforzada de los menores

El caso de Los Ángeles se centró en los daños sufridos por una joven que se volvió adicta durante su infancia. En España, la Ley Orgánica 8/2021, de protección integral a la infancia y la adolescencia frente a la violencia, establece, en su artículo 46, el deber de las administraciones de fomentar “entornos digitales seguros” y de colaborar con el sector privado para proteger a los menores de contenidos y contactos nocivos. Un diseño que genera adicción es, por definición, un entorno digital inseguro para un menor.

Por otra parte, la Ley Orgánica 3/2018, de Protección de Datos Personales y garantía de los derechos digitales, es otra pieza clave, ya que los algoritmos adictivos se nutren de la ingente cantidad de datos personales que recopilan para crear perfiles conductuales ultrapersonalizados. Esta práctica choca frontalmente con la exigencia de un consentimiento libre e informado.

¿Puede considerarse “libre” un consentimiento prestado en una interfaz diseñada para manipular la voluntad del usuario? La respuesta “parece” negativa.

Acerca del autor

Francesc Feliu Pamplona es profesor experto en litigación administrativa y responsabilidad sanitaria en la Universitat de Barcelona.

Este artículo se publicó por primera vez en The Conversation y se publica bajo licencia Creative Commons. Puedes leer el artículo original aquí.

La responsabilidad de las plataformas: del diseño defectuoso al delito

El argumento central en el caso estadounidense –la responsabilidad por el diseño y no por el contenido– es la llave maestra que también podría abrir las puertas de los tribunales en España, pues es un precedente de suma importancia.

En este país y en Europa también tenemos normativa encamina a la protección de los usuarios frente a esas empresas multinacionales.

La Ley de servicios digitales (DSA) europea impone a las plataformas de muy gran tamaño la obligación de evaluar y mitigar los “riesgos sistémicos”, entre los que se incluyen los efectos negativos para la salud mental.

Esto va más allá de la mera moderación de contenidos. Un diseño adictivo es un riesgo sistémico inherente a la propia estructura del servicio. Esto permite superar el tradicional “puerto seguro” del artículo 16 de la Ley 34/2002, de 11 de julio, ya que la plataforma no actúa como un mero intermediario, sino como el arquitecto activo de un entorno perjudicial.

En la misma línea, la reciente Directiva 2024/2853 del Parlamento Europeo y del Consejo, de 23 de octubre de 2024, sobre responsabilidad por productos defectuosos, que incluye el software y la IA, ofrece otra vía prometedora. Un algoritmo o una plataforma digital pueden ser considerados un “producto”. Si su diseño intrínseco causa un daño demostrado (como la adicción y los problemas de salud mental derivados), podría ser calificado como “defectuoso”, generando una responsabilidad civil directa para su desarrollador.

La vía penal, en los casos más graves

Un diseño algorítmico que, de forma deliberada y con conocimiento de sus efectos, cause un deterioro grave de la salud psíquica de una persona, especialmente si es vulnerable como un menor, podría ser analizado bajo el prisma de los delitos que atentan contra la integridad moral (art. 173 a 177 del Código Penal español).

Ahora bien, hace falta voluntad política y también valentía para enfrentarse judicialmente a estas empresas multinacionales. España y Europa no solo pueden, sino que deben tomar nota de que sí se puede.

Thank you for registering

Please refresh the page or navigate to another page on the site to be automatically logged inPlease refresh your browser to be logged in