Steam, la plataforma de Valve, es el rey indiscutible de la distribución de juegos digitales para PC. Nadie plantea ninguna duda al respecto en esa cuestión. Pero detrás de sus constantes ofertas y de un catálogo prácticamente infinito, muchos desarrolladores están comenzando a bautizarlo abiertamente como una plataforma «tóxica».
Un artículo en The Guardian recoge el testimonio de varios estudios independientes que denuncian que las reseñas, foros y listas se han convertido en focos de racismo, misoginia, acoso y discursos de odio organizado. Algo que Valve parece que apenas modera de forma eficaz.
El patrón es el mismo para muchos casos. En caso de que el juego o el desarrollador se aleje de ciertos marcos ideológicos dominantes, o si el estudio expresa posturas públicas, el perfil de reseñas y comentarios se inunda de ataques personales, campañas de bombardeo y lenguaje soez. Todo ello, normalmente vinculado a la identidad, género o afiliación política. Un problema que apunta directamente a Valve: no es solo que la comunidad tenga vía libre para hacer este tipo de comentarios, sino que la estructura de moderación no responde a esta escalada tóxica.
La toxicidad que encontramos en Steam
La pregunta de fondo no es solo si Steam «permite» la maldad, sino si su diseño y su política de moderación permiten que el acoso, y todo tipo de ataques éticos se conviertan en la norma en lugar de la excepción. La denuncia de los desarrolladores gira precisamente en torno a ello. Existe un marco de libertad de expresión poco filtrada. Algo que, aplicado a una comunidad de más de 40 millones de usuarios online simultáneos, se traduce en una experiencia infernal para muchos creadores. Sobre todo si son independientes, trans o con posturas políticamente visibles.
Desde Valve, hay un equilibrio casi inevitable entre permitir la opinión y evitar el abuso flagrante. Pero las quejas de desarrolladores como Nathalie Lawhead o Ethan (desarrollador de Coven) apuntan a que el sistema de filtrado y la moderación son excesivamente laxos o lentos. Muchos comentarios violan sus propias normas sobre el lenguaje abusivo y siguen activos durante días, semanas o incluso meses. Y ello influye en la opinión del resto de usuarios. Incluso cuando se eliminan algunas reseñas o mensajes, sigue quedando el eco del mismo. Y el desarrollador tiene que luchar individualmente por cada comentario nocivo. Algo que se paliaría si Steam contase con un filtro preventivo o un equipo de soporte más rápido. En este siguiente caso, el usuario «CharlieTweetsDetected» de Steam se dedica a juzgar a ciertos juegos por su reacción a la muerte de Charlie Kirk:
¿Es realmente tóxico? Nuestra opinión
Tras las alegaciones de los desarrolladores y las pruebas tangibles observadas, podemos decir que Steam se ha convertido, en la práctica, en una plataforma tóxica. Para ello, nos basamos en las evidencias que os hemos traído y en los argumentos de los propios desarrolladores. Todo apunta a que no se trata de una mala racha de comentarios, sino de un patrón consolidado en que el racismo y el acoso son parte cotidiana del entorno de reseñas y foros.
Los casos que hoy hemos compartido no son excepciones aisladas, sino un ejemplo de cómo algunos colectivos y comunidades utilizan Steam como una herramienta para atacar y desacreditar a creadores por su identidad o sus posturas. Steam es la principal fuente de ingresos de Valve, y la mayor plataforma de videojuegos del mundo. Por lo que parece más que razonable exigirle una respuesta más ágil, y no dejarse amparar en una libertad de expresión camuflada en un acoso estructural.
| Plataforma | Moderación de Contenido | Respuesta a Reportes (Estimada) | Transparencia en Políticas |
|---|---|---|---|
| Steam (Valve) | Principalmente reactiva; sistema que marca reseñas "fuera de tema" a posteriori. | Variable, puede tardar días o semanas según denuncias de desarrolladores. | Guías comunitarias públicas, pero sin informes de transparencia detallados. |
| Epic Games Store | Filtros automáticos de lenguaje, moderación proactiva y sistema de reputación en desarrollo. | Generalmente por debajo de 48h según su documentación de soporte. | Publica informes de seguridad y comunidad periódicamente. |
| Xbox (PC Game Pass) | Moderación humana 24/7, IA para detectar lenguaje y comportamiento tóxico en tiempo real. | Respuesta rápida, a menudo en pocas horas, con un sistema de penalización por strikes. | Panel de transparencia con informes detallados sobre acciones de moderación. |
