Ciberalarma ha presentado un servicio de monitorización de redes sociales y mensajería instantánea que, a través de la interpretación del lenguaje natural y las imágenes utilizando Inteligencia Artificial, detecta situaciones de ciberacoso en las redes sociales o la mensajería instantánea de los menores.
El servicio, que ha sido presentado este martes 5 de febrero con motivo del Día de Internet Segura, es monitorizado en remoto por vigilantes de seguridad que filtran los «falsos positivos en una Central de Alarmas, salvaguardando en todo momento la privacidad del menor», según ha asegurado la compañía.
«Esta monitorización debe contar con el consentimiento previo del menor y, cada vez que este reciba una nueva conversación, saltará un aviso a la persona que haya contactado con él indicándole que el chat está siendo monitorizado por el servicio de Ciberalarma», ha explicado Miguel Ángel González Losada, sonsejero delegado de la empresa de soluciones para el mundo digital Virtual Care, que ha diseñado el servicio.
En este sentido, ha indicado que «si detecta que una situación es de riesgo para el menor, el padre/tutor recibirá una notificación por e-mail o notificaciones push en el móvil que incluirá la información referente a la situación, es decir, el texto y/o fotos de una conversación que tenga lugar en la mensajería o red social».
El servicio, que inicialmente estará disponible para WhatsApp y que irá incorporando redes sociales como Instagram o Facebook, permitirá detectar delitos de Ciberacoso; Sexting (el menor comparte fotos comprometidas de contenido sexual con otros); Grooming (un adulto se hace pasar por un menor para extorsionarle); Juegos de autolesión y comportamientos depresivos como la ‘ballena azu'»; situaciones de bulimia, anorexia, adicción a drogas o pornografía; y comportamientos violentos, racistas, xenófobos, violencia de género, etc.