De momento solo funciona para los comentario en inglés. Supongo que los trolls encontrarán tarde o temprano la forma de saltarse este algoritmo de clasificación, pero al menos supondrá un avance momentáneo para los moderadores en el futuro y puede que si un colaborador percibe que su comentario es considerado tóxico se lo piense dos veces antes de terminar de redactarlo.
IMDB, una de las páginas más longevas de Internet, anunciaba el cierre de sus foros recientemente. Durante los últimos años han sido numerosas las publicaciones que han seguido una estrategia similar y han cerrado sus comentarios. El motivo suele ser siempre el mismo: el ambiente en algunos casos es muy "tóxico" y el arreglarlo significa estar pendientes e invertir recursos. Y, aun así, a veces no es suficiente.
Conscientes de este problema, desde Google han anunciado hoy una posible solución: Perspective. Con ese nombre han bautizado a una tecnología, todavía en fase de desarrollo, que utiliza machine learning para procesar los comentarios de forma automática y les otorga una puntuación de 0 a 100 en función de su grado de "toxicidad". Perspective forma parte del proyecto Jigsaw de Google, es totalmente gratis y cualquiera que lo desee podrá implementarlo vía API en su web.
Después de que Perspective haga esa primera clasificación de cada comentario, queda en manos de cada editor el qué hacer con ellos: algunos pueden elegir una aproximación más estricta y sólo permitir que se publiquen los comentarios con mejores puntuaciones; otros pueden optar por dejar fuera sólo aquellos que tengan una puntuación muy muy baja. Incluso alguien podría optar por avisar al comentarista de que su comentario es ofensivo antes de publicarlo. En definitiva: el algoritmo sólo clasifica, lo que luego haga cada uno con ese ranking es cosa suya.