Este ex hacker de la NSA está construyendo una IA para encontrar símbolos de odio en Twitter

Este ex hacker de la NSA está construyendo una IA para encontrar símbolos de odio en Twitter

NEMESIS, desarrollado por Emily Crose, es un programa para identificar automáticamente los símbolos de odio en Internet.

En agosto de este año, un supremacista blanco atravesó una multitud de manifestantes reunidos en el centro de Charlottesville, Virginia. El ataque hirió a unas 20 personas y mató a Heather Heyer, de 32 años . Los violentos enfrentamientos de ese fin de semana sorprendieron a los estadounidenses, entre ellos Emily Crose, que quería estar allí para protestar contra los supremacistas blancos, pero no pudo hacerlo. Un amigo suyo estaba allí, y fue atacado y herido por neonazis.

Crose es un ex analista de la NSA y ex moderador de Reddit que ahora trabaja en una startup de seguridad cibernética. Inspirado por el coraje de su amiga y horrorizado por los eventos en Charlottesville, Crose ahora pasa su tiempo libre enseñando a una IA cómo detectar automáticamente símbolos nazis en imágenes difundidas en línea, ya sea en Twitter, Reddit o Facebook.

Queriendo usar su experiencia para ayudar a exponer ideologías como las que se ven en Charlottesville, comenzó este proyecto, que ella llama NEMESIS.

La motivación de Crose es exponer a los nacionalistas blancos que usan símbolos más o menos oscuros, mundanos o abstractos, o los llamados silbatos de perro, en sus publicaciones, como el Sol Negro y ciertos memes de la rana Pepe . El objetivo de Crose no es solo exponer a las personas que usan estos símbolos en línea, sino también presionar a las compañías de medios sociales para que repriman la retórica odiosa en línea.

"El verdadero objetivo es educar a la gente", me dijo Crose en una llamada telefónica. "Y un objetivo secundario: me gustaría que las plataformas de las redes sociales empiecen a pensar cómo pueden imponer cierta decencia en sus propias plataformas, un cierto nivel de decoro".

"No soy una de esas personas que van a estar bien sin esperar y viendo a la gente recurrir a una ideología que probablemente sea peligrosa", agregó.

NEMESIS, según Crose, puede ayudar a identificar los símbolos que han sido cooptados por los grupos de odio para señalarse entre sí a plena vista. A simple vista, la forma en que funciona NEMESIS es relativamente simple. Hay un "gráfico de inferencia", que es una representación matemática de imágenes entrenadas, clasificadas como símbolos supremacistas nazis o blancos. Este gráfico de inferencia entrena el sistema con aprendizaje automático para identificar los símbolos en la naturaleza, ya sea en imágenes o videos.

En cierto modo, NEMESIS es tonto, según Crose, porque todavía hay humanos involucrados, al menos al principio. NEMESIS necesita un ser humano para seleccionar las imágenes de los símbolos en el gráfico de inferencia y asegurarse de que se utilizan en un contexto de supremacía blanca. Para Crose, esa es la clave de todo el proyecto -ella no quiere que NEMESIS señale a los usuarios que publican esvásticas hindúes, por ejemplo-, así que NEMESIS necesita comprender el contexto.

"Se requieren miles y miles de imágenes para que funcione correctamente", dijo.

NEMESIS ya es una prueba de concepto que funciona, pero Crose no dejará de trabajar en él hasta que pueda refinarse y desplegarse ampliamente. Idealmente, plataformas como Twitter y Facebook lo implementarán para filtrar y detectar la propaganda de la supremacía nazi o blanca, pero el sistema puede vivir sin las compañías de medios sociales, dijo Crose.

"El hecho de que exista un micrófono no significa que se deba otorgar a personas que inciten a la violencia y perjudiquen a otras personas, y aboguen por la eliminación de los derechos civiles de ciertos grupos de personas", me dijo Crose. "No hay ninguna responsabilidad por parte de Twitter para garantizar que todos tengan la misma voz".[full-post]