El Digital Services Act (“DSA”), aprobado mediante el Reglamento (UE) 2022/2065 del Parlamento Europeo y del Consejo, de 19 de octubre de 2022, marcó un cambio estructural en la forma en que los servicios digitales operan en la Unión Europea. Más allá de un ejercicio normativo abstracto, el DSA ha comenzado a producir efectos visibles en la arquitectura de las plataformas, en sus interfaces y en los procesos de moderación de contenidos, alterando de forma concreta la experiencia de usuarios, creadores de contenido y operadores económicos.
El Reglamento se aplica a un amplio conjunto de servicios intermediarios y plataformas en línea, incluidos marketplaces, redes sociales, plataformas de intercambio de contenidos, tiendas de aplicaciones y plataformas de viajes y alojamiento, con independencia de su dimensión o del lugar de establecimiento del prestador, siempre que ofrezcan servicios a destinatarios situados en la Unión Europea.
Durante años, la gobernanza del espacio digital se basó en un modelo predominantemente autorregulatorio, caracterizado por decisiones técnicas poco transparentes, criterios de moderación opacos y escasas posibilidades de reacción por parte de los usuarios.
Conviene destacar que el DSA no pretende eliminar la autonomía de las plataformas, sino transformar dicho modelo en un proceso jurídicamente encuadrado.
Uno de los cambios más relevantes introducidos por el DSA se refiere a la exigencia de mecanismos accesibles y eficaces para la denuncia de contenidos ilegales. Las plataformas pasan a estar obligadas a proporcionar instrumentos simples e intuitivos que permitan a los usuarios señalar bienes, servicios o contenidos ilícitos, así como a cooperar con entidades cualificadas (“trusted flaggers”).
Esta exigencia ya se traduce en cambios visibles en las principales plataformas. Hoy, por ejemplo, en la plataforma X, la denuncia de contenidos ilegales puede realizarse directamente a través del menú asociado a cada publicación, solución similar a las actualmente disponibles en Facebook, Instagram, TikTok y Pinterest. También servicios de Apple han incorporado mecanismos más claros e intuitivos para la notificación de contenidos ilícitos. La denuncia de contenidos ilegales ha dejado así de ser un procedimiento técnico residual y ha pasado a formar parte de la experiencia normal de uso de las plataformas digitales.
Paralelamente, el DSA refuerza de forma significativa la transparencia de las decisiones de moderación. Siempre que se eliminen contenidos, se suspendan cuentas o se limite la visibilidad, las plataformas pasan a tener la obligación legal de explicar de manera clara, específica y fundamentada las razones de dichas decisiones. La moderación deja de ser definitiva e inatacable, integrándose ahora en un verdadero circuito de control, que incluye mecanismos internos de reclamación y vías de resolución extrajudicial de litigios.
El impacto del DSA también es visible en los sistemas de recomendación y en la forma en que los contenidos se presentan a los usuarios. Las plataformas están ahora obligadas a proporcionar información sobre los principales criterios de ordenación de los feeds y, en el caso de las plataformas de muy gran tamaño, a ofrecer opciones que permitan desactivar la personalización basada en perfiles. La lógica algorítmica deja de ser una regla impuesta y pasa a constituir una elección informada.
En el ámbito de la publicidad digital, el Reglamento impone reglas claras de identificación de los anuncios, refuerza la transparencia sobre los motivos por los cuales se muestra determinado contenido publicitario y prohíbe el uso de datos sensibles con fines de segmentación.
La publicidad dirigida a menores está expresamente prohibida, lo que refleja un cambio de paradigma en la protección de públicos vulnerables. La protección de los menores adquiere, de hecho, una centralidad inédita en el DSA, exigiendo a las plataformas medidas concretas para salvaguardar la privacidad, la seguridad y el bienestar físico y mental. Estas exigencias ya se reflejan en cambios de diseño, restricciones funcionales y nuevos modelos de verificación de edad, orientados por criterios de proporcionalidad y protección de datos personales.
En el plano institucional, el DSA se basa en un modelo de supervisión compartida entre la Comisión Europea y las autoridades nacionales designadas como Digital Services Coordinators.
La Comisión asume un papel particularmente activo en relación con las plataformas y motores de búsqueda de muy gran tamaño, con poderes de investigación, solicitudes de información y seguimiento continuo. El enforcement ha dejado de ser teórico y ha pasado a integrarse en la práctica regulatoria europea.
Podemos concluir, por lo tanto, que en este nuevo marco la autorregulación no desaparece, pero deja de ser suficiente. El ejercicio del poder tecnológico pasa a implicar transparencia procedimental, posibilidad de impugnación y responsabilidad jurídica efectiva.
El Digital Services Act no redefine únicamente normas, redefine comportamientos.
El incumplimiento de las obligaciones previstas en el DSA puede dar lugar a la imposición de sanciones pecuniarias significativas, calculadas en función del volumen de negocios anual mundial del prestador.
Belzuz Abogados, S.L.P. cuenta con abogados con amplia experiencia en Derecho Digital y Regulación, que pueden prestar asesoramiento jurídico en esta materia.