En la era digital, las redes sociales han transformado la manera en que las personas se comunican, comparten ideas y participan en discusiones públicas. Plataformas como Reddit permiten la creación de comunidades temáticas denominadas subreddits, donde usuarios pueden interactuar en torno a diversos temas, desde intereses comunes hasta debates más controversiales. Sin embargo, esta libertad y anonimato también ha fomentado la proliferación de discursos tóxicos y extremistas, que en ocasiones se manifiestan a través del odio de género. Para comprender mejor este fenómeno, se realizó un exhaustivo análisis comparativo de cuatro comunidades extremistas en Reddit, dos caracterizadas por posturas misóginas y otras dos por discursos misándricos, evaluando desde el lenguaje empleado hasta las emociones predominantes y la estructura de su interacción social. En este contexto, vale la pena aclarar que la misoginia es el odio o prejuicio hacia las mujeres, mientras que la misandria es el rechazo o desprecio hacia los hombres.
Aunque la misoginia ha sido objeto de numerosos estudios y reconocimientos, la misandria ha recibido menos atención en la investigación académica, a pesar de ser también una expresión dañina de discriminación de género. Las comunidades estudiadas fueron seleccionadas por su visibilidad y carácter declarado en Reddit. Representando la misandria, se analizaron los subreddits r/Feminism y r/GenderCritical, comunidades feministas con posturas que en determinados contextos expresan rechazo hacia los hombres, especialmente desde una perspectiva radical en el caso de GenderCritical. Por otro lado, abordando posturas misóginas, se exploraron r/Incels y r/MensRights, grupos que manifiestan opiniones antifeministas y actitudes de odio contra las mujeres. Para ofrecer una investigación rigurosa y completa, el análisis incluyó un proceso de filtrado previo que retuvo solamente aquellos mensajes y comentarios centrados en el género opuesto al de la comunidad: por ejemplo, en los subreddits misándricos se conservaron solo los textos que mencionaban términos relacionados con hombres como “hombre”, “niño” o “esposo”, y en los misóginos, aquellos referidos a mujeres como “mujer”, “niña” o “esposa”.
Esto permitió acotar el estudio al lenguaje dirigido explícitamente hacia el género objetivo del odio en cada caso. Desde un enfoque lingüístico, se observó que la mayoría de las palabras más comunes en estas comunidades eran compartidas o similares, con pocas que fuesen exclusivas de una sola comunidad. Por ejemplo, términos como "mujer" y "hombre" aparecían con frecuencia en comunidades tanto misándricas como misóginas, sugiriendo que, en cuanto a léxico básico, no existían divergencias significativas que permitieran distinguir radicalmente entre ellas. Sin embargo, algunas palabras eran representativas de un grupo particular, como el uso del término "violación" en r/MensRights o "trans" en r/GenderCritical, lo que refleja intereses o discusiones propias de cada foro. La toxicidad del contenido, un aspecto relevante en la valoración del discurso de odio, fue evaluada mediante un modelo avanzado de inteligencia artificial especializado en detección de lenguaje ofensivo.
Los resultados indicaron que, aunque en todos los subreddits existía una clara distribución bimodal, con contenidos mayormente no tóxicos o altamente tóxicos, las comunidades misóginas demostraron niveles más altos de toxicidad en general, destacando especialmente r/Incels. Esto evidencia que dichas comunidades manejan más contenido considerado extremadamente agresivo o dañino, aunque la estructura de la distribución era similar en todo el espectro estudiado. Por otra parte, el análisis emocional enriqueció la perspectiva sobre el tono y la intención subliminal del discurso en estas comunidades. Se enfocó en emociones negativas clave como odio, ira, miedo y tristeza, identificadas con técnicas que combinan redes neuronales y análisis semántico avanzado. A nivel de contenido, todas las comunidades tendían a expresar en mayor medida emociones de odio y ira, sin que existieran diferencias notables entre los grupos misóginos y misándricos.
No obstante, al cambiar el enfoque a nivel de usuario, observando la emoción predominante en la mayoría de sus publicaciones, aparecieron diferencias más claras. Por ejemplo, la comunidad r/Feminism mostró una prevalencia más marcada de odio entre sus participantes, mientras que r/GenderCritical manifestaba asimismo sentimientos de ira y miedo, y las comunidades misóginas exhibían emociones que tendían más hacia la tristeza o frustración. Estos matices demuestran la importancia de analizar tanto el contenido individual como el colectivo para entender la dinámica emocional. Finalmente, la estructura de las interacciones sociales dentro de los subreddits fue analizada a través de la elaboración de grafos que mapean las respuestas entre usuarios. Este nivel de análisis permite discernir si existen diferencias en la manera en que las comunidades se forman, se comunican y mantienen relaciones internas.
Los resultados revelaron que la topología de las redes sociales generadas por las comunidades misóginas y misándricas eran sorprendentemente parecidas. Ambas exhibían características típicas de redes sociales como distribuciones de grado con patrones de ley de potencia, distancia media entre nodos similar y niveles comparables de modularidad, que reflejan la existencia de grupos cohesivos dentro de las comunidades. Curiosamente, algunos subreddits misóginos y misándricos compartían más similitudes estructurales entre sí que con sus homólogos ideológicos. Por ejemplo, r/Feminism, aunque misándrico, tenía un perfil de interacción social muy parecido a r/MensRights, considerado misógino, lo que sugiere que el factor ideológico no necesariamente determina el patrón de comunicación dentro de estas comunidades extremas. Este estudio además puso en evidencia que la manifestación del discurso de odio de género no está condicionada de forma significativa por el género de los perpetradores, sino que es un fenómeno común en entornos tóxicos y extremistas en línea.
Por ello, es fundamental abordar tanto la misoginia como la misandria con igual seriedad y atención en la monitorización y moderación de contenido en plataformas digitales. Es importante destacar también las limitaciones que presenta la investigación. Por un lado, la dependencia de datos abiertos y públicos implica la presencia inevitable de ruido, mensajes inconsistentes o irrelevantes, que requieren filtros y preprocesamientos para reducir su impacto. Por otro lado, la clasificación automática de emociones y toxicidad, aunque apoyada en modelos sofisticados, no está exenta de errores o sesgos, lo que obliga a interpretar con cautela los hallazgos. Por último, los resultados son específicos a Reddit y a las comunidades analizadas, por lo que no deben generalizarse sin un análisis adaptado a otros espacios digitales como Facebook o Twitter, cuyos mecanismos de interacción y dinámicas sociales son distintas.