Logo oe

El algoritmo contra el odio

Larger sr
Arrow red
El presidente de Alphabet plantea introducir en redes sociales una suerte de corrector de discursos de odio, con el fin de evitar que estos influyan en ciertos grupos de activistas.
14 de diciembre de 2015
Red star
Por qué es importante
Si bien el mundo quiere encontrar antídotos frente a los discursos de odio, un algoritmo que bloquee medios que influyan en ciertos grupos de personas podría sobrepasar el límite y convertirse en una forma de censura.

A raíz de los recientes hechos de violencia en París, Estados Unidos y Londres, así como los continuos ataques en el Medio Oriente, África y otras partes del mundo, los gobiernos se están empeñando en buscar formas para mantener a su población segura de posibles ataques. Esto es evidente en Estados Unidos, donde el discurso legislativo y electoral incluye solicitudes de medios más radicales para mantener las fronteras seguras y prevenir el ingreso de la amenaza terrorista. Sin embargo, no todas las propuestas siguen esta línea, y algunas personalidades como el presidente de Alphabet tienen una posición distinta.

Eric Schmidt, ingeniero eléctrico de la Universidad de Princeton y M.S. y Ph.D. por la Universidad de California en Berkeley, es el presidente ejecutivo de Alphabet, empresa matriz de Google. En un artículo anterior dimos a conocer cómo el entonces presidente de Google colaboró con la decisión de la Raspberry Pi Foundation de descartar un modelo más potente y caro de su computadora completa en una sola placa a favor de un modelo más económico e igual de potente. En un artículo publicado en The New York Times, el empresario estadounidense describe su plan para combatir el terrorismo en línea.

Su propuesta consiste en lo que él denomina la implementación de herramientas para desescalar tensiones en las redes sociales, o, dicho de otra forma, una especie de auto corrector para los discursos de odio y el acoso en Internet. En lugar de prevenir el ingreso de etnias enteras al país, la propuesta de Schmidt considera bloquear los medios que pudieran influir sobre aquellos que podrían simpatizar con grupos terroristas, quienes, como ya hemos visto, no necesariamente son practicantes del Islam.

El enfoque de Schmidt debe ser tomado con cuidado, tal como advierte un artículo publicado en Geek.com. Al tratarse de un tema subjetivo, es difícil identificar cuándo estamos ante un discurso de odio. Para diferentes personas, discursos de odio podrían ser los argumentos de un candidato presidencial, de los activistas contra el cambio climático o incluso tus comentarios en Facebook. Un algoritmo que realice lo propuesto por el presidente de Alphabet tendría la titánica tarea de recoger, reconocer y conectar textos e imágenes para diferenciar entre discursos de odio, comentarios, ficción e incluso bromas. También está el problema de quién determinaría los parámetros para identificar discursos de odio. Una implementación de ese tipo sería similar a la censura china, donde hasta la versión local de Tinder lanza advertencias al intentar escribir términos prohibidos, como hemos visto en un artículo anterior.