10 de diciembre 2020    /   DIGITAL
por
 

¿Ofendidito por todo? ¡No te cortes, insulta al bot!

10 de diciembre 2020    /   DIGITAL     por          
Compártelo twitter facebook whatsapp
thumb image

Estamos todos taaaaaaaaaaan hartos y taaaaaaaaan enfadados con este maldito 2020 que nos ha traído tanta mierda que necesitamos desahogarnos. Echar bilis por la boca, soltar todo nuestro repertorio de insultos y crear otros nuevos para expresar esa indignación y ese hartazgo. Pero en lugar de soltarle el improperio en la cara a tu vecino cuando llegue antes que tú al ascensor y te toque esperar al siguiente, díselo al bot. No solo no se enfadará por tu insulto, sino que, además, te lo agradecerá y estarás haciendo el bien. Y eso, en tiempos navideños, es un plus.

FIERO es el nombre de esta aplicación que forma parte del proyecto estatal de investigación LIVING-LANG. Se trata de un trabajo coordinado por el SINAI (Grupo de Sistemas Inteligentes de Acceso a la Información) de la Universidad de Jaén en el que participa también el GPLSI (Grupo de Procesamiento del Lenguaje y Sistemas de Información) de la Universidad de Alicante. Esta herramienta se enmarca en el ámbito del procesamiento del lenguaje natural y de las tecnologías del lenguaje humano, una de las ramas de la inteligencia artificial.

La mecánica es sencilla: tú insultas y amenazas al bot con el estilo más barriobajero que puedas sacar, y todos los improperios que salgan de tu boca, cuanto más elaborados, mejor, quedan registrados para entrenar a los algoritmos de inteligencias artificiales a identificar problemas tan graves como las fake news, el acoso, la propagación del discurso del odio, o enfermedades como la anorexia, la depresión; e incluso ayudaría a prevenir el suicidio.

«En algunos casos, como la anorexia, hay insultos o palabras malsonantes que están muy asociados al vocabulario que se suele emplear. Por ejemplo, insultos que se refieran al físico de una persona como gorda, fea, escuchumizada, entre otros», aclara el coordinador del proyecto, L. Alfonso Ureña, de la Universidad de Jaén. «De esta forma, podríamos tener una base de datos de insultos clasificada por la tarea que nos interasara detectar».

La mecánica de FIERO es sencilla. Se trata de un bot simple, un asistente conversacional, según lo define Ureña, desarrollado para recoger insultos e improperios en español. Sin embargo, explica el coordinador del proyecto, es fácilmente adaptable a otros idiomas y a eso aspira, a ser multilingüe. Los recursos compilados y generados se utilizarán en sistemas muy novedosos dentro del ámbito de las TLH (tecnologías del lenguaje humano) que se están desarrollando en el proyecto.

«El objetivo no es el sistema de recogida de insultos en sí mismo, sino que este es una herramienta que nos permite generar recursos lingüísticos, ante la falta de estos, para construir sistemas en el ámbito de la detección de violencia, ciberbullying, etc.», explica Ureña. «Efectivamente, luego hay que realizar un preprocesamiento semiautomático para construir los diferentes recursos lingüísticos». Cuando estén procesados y adaptados a los sistemas pertinentes, todos esos recursos se pondrán a disposición de la comunidad investigadora.

«El proyecto, finalmente, tiene también una vertiente de transferencia tecnológica con el objetivo de trasladar estas investigaciones a la industria», comenta el coordinador del proyecto LIVING-LANG. «Tenemos colaboraciones con varias entidades con el objeto de poder transferirlas. Por ejemplo, en el ámbito policial, disponer de un sistema de alerta temprano para detectar discurso de odio, ciberbullying, etc.».

Para acceder a FIERO y empezar a colaborar en la recopilación de insultos, amenazas y otras lindezas es necesario tener instalada la aplicación de Telegram en el móvil. Una vez dentro, hay que seguir el enlace que te lleva al bot, proporcionar datos sobre tu edad y sexo y empezar a insultar. Si no tienes el ánimo acosador, tranquilo, FIERO te lo va a poner fácil con sus provocaciones.

«Nuestro objetivo es obtener una base de datos extensa de insultos en español, lo más variada posible, por lo que se recolectarán hasta que detectemos que la actividad del bot es baja», concluye L. Alfonso Ureña.

¿QUÉ ES LIVING-LANG Y PARA QUÉ SIRVE?

LIVING-LANG responde a las siglas de Living Digital Entities by Human Language Technologies (Tecnologías del lenguaje humano para entidades digitales vivas). Su finalidad principal es el estudio y desarrollo de diferentes técnicas, recursos y herramientas de tecnologías del lenguaje humano (TLH) dirigidos al modelado de entidades digitales, sus relaciones en las redes sociales y su evolución en el tiempo.

Estas herramientas, explica el investigador Ureña, se integrarán en una plataforma tecnológica que permitirá la detección y extracción de relaciones semánticas entre entidades digitales, obteniendo así información de diferentes tipos de fuentes (datos no estructurados, estructurados y enlazados abiertos), así como determinar la calidad, coherencia y veracidad de estas relaciones.

El objetivo final de la plataforma es predecir comportamientos futuros de las entidades digitales, así como prevenir situaciones de alto riesgo (ciberacoso, terrorismo, suicidio, repercusión en campañas de marketing, difusión de noticias falsas…) antes de que ocurran.

Estamos todos taaaaaaaaaaan hartos y taaaaaaaaan enfadados con este maldito 2020 que nos ha traído tanta mierda que necesitamos desahogarnos. Echar bilis por la boca, soltar todo nuestro repertorio de insultos y crear otros nuevos para expresar esa indignación y ese hartazgo. Pero en lugar de soltarle el improperio en la cara a tu vecino cuando llegue antes que tú al ascensor y te toque esperar al siguiente, díselo al bot. No solo no se enfadará por tu insulto, sino que, además, te lo agradecerá y estarás haciendo el bien. Y eso, en tiempos navideños, es un plus.

FIERO es el nombre de esta aplicación que forma parte del proyecto estatal de investigación LIVING-LANG. Se trata de un trabajo coordinado por el SINAI (Grupo de Sistemas Inteligentes de Acceso a la Información) de la Universidad de Jaén en el que participa también el GPLSI (Grupo de Procesamiento del Lenguaje y Sistemas de Información) de la Universidad de Alicante. Esta herramienta se enmarca en el ámbito del procesamiento del lenguaje natural y de las tecnologías del lenguaje humano, una de las ramas de la inteligencia artificial.

La mecánica es sencilla: tú insultas y amenazas al bot con el estilo más barriobajero que puedas sacar, y todos los improperios que salgan de tu boca, cuanto más elaborados, mejor, quedan registrados para entrenar a los algoritmos de inteligencias artificiales a identificar problemas tan graves como las fake news, el acoso, la propagación del discurso del odio, o enfermedades como la anorexia, la depresión; e incluso ayudaría a prevenir el suicidio.

«En algunos casos, como la anorexia, hay insultos o palabras malsonantes que están muy asociados al vocabulario que se suele emplear. Por ejemplo, insultos que se refieran al físico de una persona como gorda, fea, escuchumizada, entre otros», aclara el coordinador del proyecto, L. Alfonso Ureña, de la Universidad de Jaén. «De esta forma, podríamos tener una base de datos de insultos clasificada por la tarea que nos interasara detectar».

La mecánica de FIERO es sencilla. Se trata de un bot simple, un asistente conversacional, según lo define Ureña, desarrollado para recoger insultos e improperios en español. Sin embargo, explica el coordinador del proyecto, es fácilmente adaptable a otros idiomas y a eso aspira, a ser multilingüe. Los recursos compilados y generados se utilizarán en sistemas muy novedosos dentro del ámbito de las TLH (tecnologías del lenguaje humano) que se están desarrollando en el proyecto.

«El objetivo no es el sistema de recogida de insultos en sí mismo, sino que este es una herramienta que nos permite generar recursos lingüísticos, ante la falta de estos, para construir sistemas en el ámbito de la detección de violencia, ciberbullying, etc.», explica Ureña. «Efectivamente, luego hay que realizar un preprocesamiento semiautomático para construir los diferentes recursos lingüísticos». Cuando estén procesados y adaptados a los sistemas pertinentes, todos esos recursos se pondrán a disposición de la comunidad investigadora.

«El proyecto, finalmente, tiene también una vertiente de transferencia tecnológica con el objetivo de trasladar estas investigaciones a la industria», comenta el coordinador del proyecto LIVING-LANG. «Tenemos colaboraciones con varias entidades con el objeto de poder transferirlas. Por ejemplo, en el ámbito policial, disponer de un sistema de alerta temprano para detectar discurso de odio, ciberbullying, etc.».

Para acceder a FIERO y empezar a colaborar en la recopilación de insultos, amenazas y otras lindezas es necesario tener instalada la aplicación de Telegram en el móvil. Una vez dentro, hay que seguir el enlace que te lleva al bot, proporcionar datos sobre tu edad y sexo y empezar a insultar. Si no tienes el ánimo acosador, tranquilo, FIERO te lo va a poner fácil con sus provocaciones.

«Nuestro objetivo es obtener una base de datos extensa de insultos en español, lo más variada posible, por lo que se recolectarán hasta que detectemos que la actividad del bot es baja», concluye L. Alfonso Ureña.

¿QUÉ ES LIVING-LANG Y PARA QUÉ SIRVE?

LIVING-LANG responde a las siglas de Living Digital Entities by Human Language Technologies (Tecnologías del lenguaje humano para entidades digitales vivas). Su finalidad principal es el estudio y desarrollo de diferentes técnicas, recursos y herramientas de tecnologías del lenguaje humano (TLH) dirigidos al modelado de entidades digitales, sus relaciones en las redes sociales y su evolución en el tiempo.

Estas herramientas, explica el investigador Ureña, se integrarán en una plataforma tecnológica que permitirá la detección y extracción de relaciones semánticas entre entidades digitales, obteniendo así información de diferentes tipos de fuentes (datos no estructurados, estructurados y enlazados abiertos), así como determinar la calidad, coherencia y veracidad de estas relaciones.

El objetivo final de la plataforma es predecir comportamientos futuros de las entidades digitales, así como prevenir situaciones de alto riesgo (ciberacoso, terrorismo, suicidio, repercusión en campañas de marketing, difusión de noticias falsas…) antes de que ocurran.

Compártelo twitter facebook whatsapp
La creación de Apps y la mágica teoría del ¡WOW!
El negocio del futuro: conseguir hacer buena publicidad para el móvil
Una llave universal para cerrojos on y offline
El siglo XIX visto desde Google Street View
 
Especiales
 
facebook twitter whatsapp
Publicidad