Para hacer la detección y análisis utiliza una API ya “aprobada” y utilizada en Estados Unidos, que fue tomada y readaptada para México.
Israel Morales Trigueros.
.
Paola Cortés Pérez.
Israel Morales Trigueros, estudiante de la Licenciatura en Sistemas Computacionales Administrativos de la Facultad de Contaduría y Administración (FCA) de la Universidad Veracruzana (UV), desarrolla su tesis en torno al tema del análisis y detección de bots o cuentas automatizadas en redes sociales.
Hace un año se integró al Laboratorio para el Análisis de Información Generada a través de las Redes Sociales en Internet (LARSI) de esta casa de estudios para realizar su servicio social, esto le permitió participar en el proyecto “Observatorio Electoral 2.0: elecciones presidenciales Panamá” en mayo pasado.
Dentro de su proyecto de investigación propone nuevas técnicas y un nuevo algoritmo para la detección de bots en el contexto mexicano, ya que se ha vuelto una necesidad el saber qué tipos de usuarios o grupos detonan los hashtag (#).
Explicó que para hacer la detección de las cuentas automatizadas utiliza una Interfaz de Programación de Aplicaciones (API, por sus siglas en inglés) ya “aprobada”, porque la ciencia de la detección de bots está lejos de ser una ciencia exacta, “necesitamos más gente que empiece a investigar sobre este tema”.
Una API, de acuerdo con la página TICbeat (www.ticbeat.com), es un conjunto de reglas (códigos) y especificaciones que las aplicaciones pueden seguir para comunicarse entre ellas: sirviendo de interfaz entre programas diferentes de la misma manera en que la interfaz de usuario facilita la interacción humano-software.
Explica además que las API pueden servir para comunicarse con el sistema operativo, con bases de datos o con protocolos de comunicaciones.
Israel Morales comentó que el modelo propuesto se utiliza mucho en Estados Unidos de Norteamérica para detectar bots, él lo readaptó a la simétrica utilizada en el país.
Dijo que anteriormente era muy fácil identificar quién era un bot y quién no, todos repetían lo mismo. En la actualidad, explicó, los automatismos son más complejos y sofisticados, incluso algunos pueden detectar el lenguaje natural, lo que hace que puedan responder algo más o menos coherente.
“Hay ciertas características que se repiten en ellos: tienen nombre, tienen muchos números, su nombre de usuario contiene números, casi toda su actividad son retweets, esto en el caso de los bots viejos.”
Por otra parte, están los ciborgs, cuentas que funcionan automatizadas por la noche y son operadas por humanos durante el día, y se rigen por una determinada agenda política.
El joven universitario dijo que es necesario desarrollar investigación sobre esta temática, ya que conforme a los términos legales de Twitter las cuentas automatizadas son admitidas, es decir, no es ilegal tener un bot, por lo tanto la responsabilidad recae en las personas.
“En investigaciones recientes, en Estados Unidos han propuesto la elaboración de leyes cívicas para bots, para especificar qué puedes o no hacer con una cuenta automatizada; además, en ella hacen una taxonomía de cómo estos bots han causado daño a nivel económico a las personas.”
Por ello, instituciones como el LARSI ofrecen al público herramientas o metodologías para que entiendan lo que sucede con respecto a la dinámica en Twitter y en las nuevas tecnologías de la comunicación.
“Los bots son posibles y legales, pero el asunto de cómo se manejan es una decisión individual, porque no hay legislaciones que establezcan cómo manejar estos automatismos”, concluyó.