Logotipo de Yo También
Una mano robotica sosteniendo entre sus dedos unas banderas de la Unión EuropeaUna mano robotica sosteniendo entre sus dedos unas banderas de la Unión Europea

Salud mental, objetivo detrás de la nueva ley europea sobre servicios digitales

TikTok, X, Google y Facebook deben moderar sus contenidos para cumplir las nuevas disposiciones legislativas vigentes para la Unión Europea.

Ícono de calendario

29 de agosto de 2023

Ícono de autor

Redacción Yo También

BRUSELAS – Hasta 19 grandes plataformas o buscadores digitales, entre ellas TikTok, X (antes Twitter), Google y Facebook, deben moderar sus contenidos al empezar a aplicarse la Ley de Servicios Digitales de la Unión Europea (UE), que preservar la salud mental de las y los usuarios.

Conocida como DSA, “la ley está aquí para proteger la libertad de expresión frente a decisiones arbitrarias y, al mismo tiempo, proteger a nuestros ciudadanos y democracias”, cita el comisario europeo de Mercado Interior, Thierry Breton.

Lejos de ser una herramienta de censura busca proteger la libertad de expresión y a los ciudadanos, los sistemas de inteligencia artificial tendrán que especificar si el contenido que muestran son videos o imágenes falsas, que supongan un riesgo para la salud, tanto física como mental.

En qué consiste la nueva legislación

Aunque está en vigor desde el pasado 16 de noviembre, fue apenas el 25 de agosto cuando ya debieron acatarla las 19 grandes compañías de servicios digitales, es decir, aquellas que cumplen el requisito de contar con al menos 45 millones de usuarios activos mensuales.

Se trata de X, TikTok, Instagram, Wikipedia, Zalando, AliExpress, Amazon, la AppStore de Apple, Bing, Booking, Facebook, Google Search, Google Play, Google Maps, Google Shopping, LinkedIn, Pinterest, Snapchat y YouTube.

En concreto, todas deben cumplir los nuevos requisitos de transparencia sobre el contenido en internet y protección de los menores.

“La moderación del contenido no significa censura. En Europa no habrá un Ministerio de la Verdad. Lo que habrá será transparencia. En procesos algorítmicos, bots y anuncios personalizados”, según Breton.

Esta legislación se extenderá a otras plataformas de menor tamaño en febrero y antes, en dos meses, las 19 grandes deberán publicar sus primeros informes de transparencia.

“Han tenido tiempo suficiente para adaptar sus sistemas a sus nuevas obligaciones: en materia de transparencia, privacidad, retirada de contenidos y productos ilegales, protección de los usuarios vulnerables, lucha contra la desinformación”, indicó el comisario francés en unas declaraciones enviadas a la prensa.

La Comisión ofreció realizar pruebas de estrés a las compañías para “ayudarles a entender bien lo que tenían que hacer”, y “ahora empieza la verdadera prueba”, recalcó Breton, que en los últimos meses ha visitado las sedes de las principales plataformas para abordar la aplicación de las nuevas normas.

Protección a menores y la salud mental

La ley de servicios digitales obliga a las plataformas a eliminar rápidamente el contenido ilegal que exista en sus páginas web, siempre y cuando tengan conocimiento de ellos.

La protección de la infancia será una prioridad, así como todo lo que implique riesgos a la salud, en general, y la salud mental en particular, al igual que la lucha contra la desinformación, incluida la propaganda prorrusa y, en particular, de cara a las elecciones europeas del año próximo.

Si un contenido resulta moderado, el autor recibe información detallada sobre ello y también sobre cómo apelar. La plataforma tiene que poner en marcha un sistema de apelaciones y el regulador nacional, si es necesario, se pronunciará en última instancia: si da la razón al usuario, la plataforma deberá restaurar el contenido y pagar por los costes.

Las empresas tendrán además que explicar a los usuarios por qué les recomiendan contenido en función de su perfil (deberán ofrecer la posibilidad de que la información que ven no esté basada en sus datos personales) y estarán obligadas a especificar claramente si una información tiene carácter publicitario, así como quién es su promotor.

También les prohibirá mostrar publicidad personalizada a los menores de edad.

En la misma línea, la norma prohíbe el uso de «patrones oscuros», trucos diseñados para engañar y manipular a los consumidores para que tomen decisiones probablemente contrarias a sus intereses.

Las compañías tendrán que hacer informes anuales para comprobar que cumplen con estos requisitos y tanto las autoridades como investigadores externos podrán tener acceso al diseño de sus algoritmos, que determinan el contenido que los usuarios ven en internet.

Una ley con dientes afilados

Si las plataformas incurren en incumplimientos de estos requisitos, la ley contempla la posibilidad de introducir multas de hasta el 6 por ciento de su facturación anual a nivel global.

La Comisión Europea ha puesto en marcha en Sevilla el nuevo Centro Europeo por la Transparencia Algorítmica (ECAT, por sus siglas en inglés) integrado en la infraestructura del Centro Conjunto de Investigación, que aportará análisis técnicos y evaluaciones de algoritmos para comprobar si las plataformas cumplen con los requisitos.

La ley también confiere a la Comisión nuevos poderes para hacer cumplir la DSA, investigar y sancionar a las plataformas cuando esté justificado.

“Ahora son entidades reguladas del mismo modo que las instituciones financieras”, apuntó Breton.

La Organización Europea de Consumidores (BEUC) recalcó en un comunicado que esta ley es “imprescindible” para que las plataformas no se sigan “haciendo la vista gorda” ante contenidos ilegales y lamentó que empresas como Amazon o Zalando estén combatiendo su designación como grandes plataformas.

Desde Google, aseguran que han realizado adaptaciones y que se han “adelantado al entorno normativo actual”.

“Cumplir con la DSA no es un castigo, es una oportunidad para que estas plataformas de internet refuercen su valor de marca y reputación como un sitio de confianza”, resumió el comisario francés.

Te interesa: Apps de salud mental, el riesgo para la privacidad de sus usuarios En riesgo, la salud mental de los adolescentes por uso de redes sociales Ponen bajo la lupa al acoso contra personas con discapacidad La razón por la que el boom de las Apps de salud mental puede ser riesgoso