En tan solo unos días, Bluesky ha pasado de tener entre 14 y 15 millones de usuarios a alcanzar los 19 millones. Este crecimiento representa un desafío técnico, no solo para mantener la plataforma en funcionamiento, sino también para gestionar un aspecto clave: la moderación.
El auge de Bluesky
Aunque Threads, la propuesta de Instagram, cuenta con más usuarios, Bluesky parece consolidarse como la principal alternativa a X. Los recientes eventos ocurridos en Estados Unidos, sumados a las decisiones tomadas en la plataforma de Elon Musk, han llevado a muchos usuarios a abandonar X, lo que ha impulsado un crecimiento acelerado en Bluesky. Sin embargo, este aumento masivo de usuarios viene acompañado de un gran desafío: cómo moderar una comunidad en rápido crecimiento.
El impacto del crecimiento
Bluesky ha experimentado un crecimiento notable en los últimos días, alcanzando los 19 millones de usuarios a un ritmo aproximado de un millón de registros diarios. Esta cifra refleja el interés genuino por encontrar una alternativa sólida a X, pero también plantea problemas inevitables: a más usuarios, más conflictos que resolver.
Los reportes y su impacto
En Bluesky, cualquier usuario puede reportar contenido que considere peligroso, ilegal o que incumpla las normas de la comunidad. En un solo día, la plataforma recibió 42.000 reportes, lo que equivale a 3.000 denuncias por hora. Aunque esta cifra puede parecer baja en comparación con los 19 millones de usuarios, representa un 11,6% de todos los reportes que la plataforma recibió en 2023, año en el que se registraron un total de 360.000 reportes. Este aumento exponencial evidencia un desafío técnico significativo.
Las medidas necesarias
Bluesky cuenta con un equipo reducido de 20 empleados a tiempo completo, lo que complica aún más la gestión de este volumen de reportes. Según indican desde la plataforma, han observado un aumento en el spam, las estafas y el comportamiento de trolls. Para enfrentarlo, están priorizando la eliminación rápida de contenido especialmente dañino, como casos relacionados con abuso infantil.
Primera medida: verificación de correo
Una de las primeras acciones implementadas ha sido obligar a que los nuevos usuarios verifiquen su correo antes de publicar. Esta medida, aunque sencilla, busca dificultar el registro masivo de cuentas con correos temporales, una táctica común entre quienes quieren abusar de la plataforma. Si bien no elimina el problema por completo, sí complica la tarea a quienes intentan crear múltiples cuentas con malas intenciones.
Evitando otro «X»
Las redes sociales no son intrínsecamente dañinas, pero pueden generar problemas graves si no se gestionan adecuadamente ciertos comportamientos o si se descuida la moderación. En 2022, Elon Musk recortó el 80% de la plantilla de Twitter, y desde octubre de 2023, X redujo sus recursos de moderación en un 20%. Actualmente, la plataforma cuenta con 1.849 moderadores para gestionar una base de usuarios de cientos de millones, lo que equivale a un moderador por cada 60.200 usuarios. En contraste, Meta tiene un ratio mucho menor: un moderador por cada 17.600 usuarios.
A esto se suman decisiones polémicas de su CEO, quien ha priorizado su concepto de «libertad de expresión» por encima de los controles, eliminando herramientas como los bloqueos y tomando medidas contra bots que no han sido eficaces. Bluesky quiere evitar caer en los mismos errores y ya ofrece herramientas diseñadas para combatir los trolls y el contenido dañino.
Las herramientas de Bluesky contra los trolls
Entre las herramientas destacadas está la posibilidad de desetiquetar citas. Si alguien cita uno de nuestros posts con intenciones maliciosas, podemos deshacer esa cita para que nuestra publicación no aparezca vinculada al comentario. Aunque esto no evita que otros puedan tomar capturas de pantalla, al menos ofrece una opción útil para reducir la visibilidad no deseada.
Otra herramienta interesante es la creación de listas de usuarios para bloqueos masivos. Estas listas permiten agrupar cuentas que comparten ciertos comportamientos o difunden contenido indeseado, como teorías conspirativas, pseudociencia o desinformación. Una vez creada, podemos bloquear o silenciar todas las cuentas de la lista al mismo tiempo, y además, estas listas pueden compartirse públicamente para que otros usuarios las utilicen.
Manteniendo el feed limpio
Con estas herramientas, los usuarios pueden mantener su feed libre de perfiles dañinos o tóxicos. Los bloqueos, por su parte, restringen cualquier tipo de interacción: los usuarios bloqueados no podrán dar «me gusta», responder, mencionar ni seguir a la cuenta que los ha bloqueado. Además, sus publicaciones no aparecerán en los feeds de quienes los hayan bloqueado. Estas medidas, aunque no perfectas, son un paso importante para mantener un entorno más saludable en la plataforma.