Lucila Paturzo, Head of Product Marketing de Taringa! nos cuenta cómo la red social garantiza la experiencia del usuario y la seguridad de moderación a sus partners de publicidad.
La rapidez con la que nos comunicamos es innegable. Las redes sociales nos ofrecen un nivel de inmediatez singular tanto para informarnos, enviar mensajes, publicar contenido o realizar una búsqueda vinculada a nuestros intereses. Dentro de este deseo de inmediatez constante que buscan usuarios, lectores, consumidores y publicistas, en un contexto global abanderado por la libertad de expresión, el Brand Safety queda en una zona gris que nadie se anima a tocar.
Con más de 30 millones de usuarios y 15 años de historia, Taringa! puede hablar con propiedad de un tema al que le da pelea constantemente. “Es cierto que todo lo referente a Brand Safety se presta un poco a arbitrariedades. Mucho más para nosotros que, al ser una red social de contenidos libres, tenemos un desafío aún más grande. Si bien se está más expuesto al momento de pautar en redes sociales y sitios de contenido libre como el nuestro, trabajamos constantemente para asegurar calidad en nuestra segmentación por Brand Safety y nos apegamos a normas de calidad de los principales players de la industria”, afirma Lucila Paturzo, Head of Product Marketing de la plataforma que después de haber sido absuelta de una causa por derechos de autor busca convertirse en 5 años en la primera red social del mundo basada en el “Blockchain”..
“En términos de moderación, tenemos la misión de que Taringa! sea un espacio apto para todos y un lugar donde los usuarios puedan expresarse de forma segura. Es por eso que manejamos nuestro sistema de moderación como un complejo entramado de capas donde utilizamos inteligencia artificial, moderación manual y estamos en fase beta con una tecnología de Jigsaw, una startup de Alphabet, para controlar la toxicidad de las conversaciones. Automatizar procesos nos permitió poder optimizar tiempos de respuesta y poder dejar la moderación manual atenta a los casos más graves.” explica Paturzo.
En relación a esto, Paturzo detalla que la moderación de contenido, dentro de la red social se desarrolla en tres capas. Primero, la moderación automática que analiza en tiempo real imágenes, con Google Vision, y textos con Perspective API. Luego existen mecanismos de moderación manual y finalmente la moderación comunitaria, con la colaboración de los reportes de los usuarios, según las normas de la comunidad. “Lo que tuvo mayor impacto en nuestra moderación es el análisis de sentimiento sobre los comentarios que realiza Perspective, que nos permitió analizar la toxicidad de las interacciones en su totalidad y poder accionar objetivamente sobre ellas, en tiempo real” agrega.
Sobre el sistema de moderación de imágenes, el mismo clasifica las fotos como ‘Aptas para todos’, ‘Sensibles’ o ‘Prohibidas’. Lo mismo con los comentarios tóxicos o negativos: si el sistema identifica un comentario agresivo no lo elimina: solo puede verlo quien lo publicó y el destinatario, que –a su vez– puede borrarlo, dejarlo o abrirlo a todos. “De esa manera logramos desalentar las peleas y acusaciones típicas de los foros de opinión sin moderación, y a la vez, evitamos la censura previa”
“Con todas estas herramientas, logramos que nuestro espacio digital fuera tranquilo y apto para todos. Nuestra alianza con Google permitió que los algoritmos de Inteligencia Artificial sean capaces de moderar, en forma automática, tanto las nuevas imágenes como los comentarios que se publican, cuidando, todo el tiempo, la libertad de expresión y asegurando la seguridad de contenido. “De esta manera, pese que el contenido publicado no está generado directamente por Taringa!, el usuario y nuestros partners de publicidad, siempre se encontrarán dentro de una plataforma segura” finaliza Paturzo.
