Online Safety Bill: la lucha contra el terrorismo en la era digital
En mayo de 2021 el gobierno del Reino Unido elaboró un proyecto de ley cuyo fin es la protección de los usuarios en línea. Se deduce que comenzará a regir en 2023 o 2024. Sin embargo, eso no impidió que hayan comenzado las especulaciones y los debates debido a su carácter controvertido. Dicho proyecto, busca resolver los conflictos que surgen a partir de la rápida difusión de información en línea cuyo contenido puede introducir grandes daños en la sociedad a escala global.
Dentro de sus objetivos, este proyecto enumera la protección de niños y adolescentes en línea de contenido dañino, la defensa de información “democráticamente relevante”, la lucha contra la actividad terrorista en línea y el control de servidores de internet. Ahora bien, ¿qué medios propone para dichos fines en un ámbito donde la autorregulación ocurre dentro de servidores privados?
La Online Safety Bill designa a Ofcom, el ente regulador de las comunicaciones del Reino Unido, como organismo de control de los lineamientos establecidos que abarcan los deberes, funciones y definiciones en la materia de servidores de internet. Dentro de las definiciones, establece conceptos acerca del terrorismo en línea y las actividades consideradas peligrosas que los servidores deben moderar bajo pena de sanciones multimillonarias. Esta situación plantea lo siguiente: qué tan posible es para un servidor con un algoritmo casi autónomo, en conjunto con moderadores humanos, regular sitio por sitio, publicación por publicación en el gran flujo diario de contenido de las redes qué puede considerarse dañino o qué puede ser información esencial.
Para referirnos al mecanismo de sanción contra los proveedores de redes sociales, es importante considerar en un principio cuáles son los medios que les impone para la defensa de los usuarios y, específicamente, contra el terrorismo en línea. Dentro de las exigencias, establece el uso de tecnologías certificadas para la verificación de actividad terrorista en línea junto con un control por parte de un moderador humano.
En el caso de que un servidor en línea no cumpla con dichos requerimientos, estos pueden ser multados lo cual genera un gran conflicto: sin lugar a dudas sería imposible evitar miles de errores diarios por parte de los algoritmos autónomos, afectando a los proveedores de menor escala quienes se verían impactados por los grandes montos de las sanciones. De esta forma, tal como advierte Dom Hallas, miembro del Consejo de Economía Digital del Reino Unido, se correría el peligro de perjudicar a los proveedores de servicios a menor escala en comparación a aquellos con mayor poder económico para sostener las multas establecidas. Sin embargo, esto también significa un perjuicio para grandes empresas como Facebook, ya que dichas multas podrían alcanzar hasta 18 mil millones de libras o un 10% de las ganancias anuales de las compañías.
Dentro de los puntos novedosos de la Online Safety Bill, se introduce un nuevo concepto en el delicado debate entre libertad de expresión y la censura, denominado “información democráticamente relevante”. Indudablemente, uno de los mayores desafíos de los servidores será lograr identificar el contenido dañino (harmful), del cual la ley habla, sin dejar de preservar el contenido democráticamente relevante y establecer, a su vez, un control equitativo ante las múltiples posturas políticas e ideológicas que se encuentran en las redes sociales. La definición que brinda tanto de terrorismo como de contenido dañino es tan amplia que los proveedores parecerían estar obligados a lanzarse a una apuesta a ciegas, bajo riesgo de perder miles de millones, intentando deducir cuál es el contenido que podría considerarse una ofensa terrorista. Se puede tomar como ejemplo concreto los tweets escritos por el expresidente de Estados Unidos, los cuales fueron censurados por Twitter por ser vistos como una inducción a la violenta entrada al Capitolio en 2020. Entonces, dicho material ¿sería considerado una incitación o contenido democráticamente relevante? ¿Hacia dónde deben inclinarse los servidores? Asimismo, otro de los requerimientos que podría generar conflicto es el pedido de quitar información no ilegal pero sí dañina, tales como información falsa que podría llevar a las personas a autodañarse o los famosos challenges para niños, que consisten en realizar actos riesgosos. Estos planteos son algunos de los enumerados por Tech Against Terrorism.
Nos encontramos en un mundo interconectado donde el flujo de información crece exponencialmente junto con sus eventuales riesgos. El contenido que recibimos depende de algoritmos a cargo de empresas privadas, a las cuales es muy peligroso otorgar tanto el poder como la responsabilidad de proveer información libre de riesgos a los ciudadanos. Ahora bien, aunque parezca imposible, es necesario lograr establecer un control de dicho contenido en línea y así evitar la propagación de publicaciones que pudieran impulsar ataques terroristas a partir de una acción tan simple como la redacción de un tweet o una publicación en Instagram.
La necesidad de una regulación es innegable e inminente y sin lugar a dudas el proyecto es necesario. Ahora bien, es menester reconsiderar la iniciativa desde un punto de vista práctico para las empresas, quienes deben lidiar con información nueva cada día y a su vez generar un beneficio económico que les permita continuar aportando sus servicios. Los gobiernos deben otorgar directivas más claras que permitan una regulación más efectiva y a su vez menos lesiva de la libertad de expresión y los servidores que regulan el contenido. Las empresas no pueden ser obligadas a convertirse en jueces de lo que es potencialmente peligroso o democráticamente relevante. Es necesaria una colaboración conjunta a través de políticas públicas más claras que permitan la colaboración de los servidores privados en la prevención de los peligros en línea.