Apoyar la regulación de plataformas digitales

La regulación del espacio digital en temas como desinformación, discursos de odio y censura es una de las más complejas, en primer lugar por el debate que suscita sobre la libertad de expresión. 

Si bien la libertad de expresión no es un derecho absoluto, y la misma Convención Americana sobre Derechos Humanos establece límites a su ejercicio en su artículo 13, cuando configura “toda apología del odio nacional, racial o religioso que constituyan incitaciones a la violencia o cualquier otra acción ilegal similar contra cualquier persona o grupo de personas, por ningún motivo, inclusive los de raza, color, religión, idioma u origen nacional”, las posibilidades de regulación entran en debate con ese derecho. Además hay amplio consenso en el sentido de que estas limitaciones no implican que un Estado pueda ejercer censura previa.

En segundo lugar la complejidad radica en que la innovación tecnológica avanza a un ritmo acelerado, mientras que las regulaciones son rígidas, lentas y toman un tiempo considerable en consolidarse. Esto provoca un círculo vicioso en el que la legislación, cuando finalmente llega, está desactualizada frente a nuevos avances tecnológicos. 

Ambos debates pueden ser sorteados de manera más o menos exitosa. Hasta ahora solo la Unión Europea ha dado pasos en esa dirección, con las novedoras legislaciones sobre Servicios Digitales y Mercados Digitales que en 2024 entrarán en vigencia. Estás normas en enfocan en transparentar el funcionamiento de las plataformas digitales y las redes sociales, así como garantizar una competencia justa entre los distintos actores de la economía digital. Europa también ha sido pionera también en la propuesta de Ley de Inteligencia Artificial.

El Reglamento de Servicios Digitales es la primera norma del mundo en el ámbito digital que obliga a las empresas de servicios digitales de toda la UE a rendir cuentas por los contenidos publicados en sus plataformas.

Se enfoca en la creación de un entorno en línea más seguro y en la protección de los derechos fundamentales en el entorno digital mediante el establecimiento de nuevas normas sobre:

  • la lucha contra los contenidos ilícitos en línea, incluidos bienes, servicios e información, respetando plenamente la Carta de los Derechos Fundamentales;
  • la lucha contra los riesgos en línea para la sociedad;
  • la trazabilidad de los comerciantes en los mercados en línea;
  • las medidas de transparencia para las plataformas en línea;
  • la supervisión reforzada.

Entre otras novedades, el Reglamento establece la obligación de las plataformas en línea y los motores de búsqueda de evaluar y mitigar los riesgos derivados del diseño y el funcionamiento de sus servicios, realizando evaluaciones de riesgos supervisadas por auditorías independientes. En concreto establece como uno de los riesgos a evaluar “cualquier efecto negativo real o previsible en relación con la violencia de género, la protección de la salud pública y los menores y las consecuencias negativas graves para el bienestar físico y mental de la persona”. Según el Reglamento, estos riesgos también pueden surgir de campañas coordinadas de desinformación relacionadas con temas de salud.