Un ‘chatbot’ capaz de engañar a estafadores telefónicos

Share

Expertos en seguridad cibernética de la Universidad Macquarie (Australia) han desarrollado un ‘chatbot’ multilingüe entrenado para embaucar a estafadores telefónicos y así reducir sustancialmente las llamadas fraudulentas.

Llamado Apate —en honor a la diosa griega que personificaba el engaño—, esta herramienta impulsada por inteligencia artificial (IA) y entrenada con modelos de procesamiento de lenguaje natural es capaz de hacerse pasar por un humano y sostener una conversación telefónica muy convincente.

Su objetivo es mantener a sus interlocutores —timadores— lo suficientemente entretenidos, hacerles creer que están hablando con víctimas de estafa viables y que pierdan su tiempo. De este modo se evita que puedan robar a personas reales, lo que eventualmente podría destruir el modelo de negocio de los estafadores. Según sus creadores, esta actividad delictiva les cuesta miles de millones a los ciudadanos y “la creatividad y amenaza de los estafadores sigue creciendo”.

A Dali Kaafar, líder del proyecto, se le ocurrió la idea durante un almuerzo familiar. Lo llamó uno de esos estafadores y Kaafar lo mantuvo en la línea durante 40 minutos simulando una actitud entretenedora, para hacer reír a sus hijos. “Comencé a pensar en cómo podríamos automatizar todo el proceso y utilizar el procesamiento de lenguaje natural para desarrollar un ‘chatbot’ computarizado que pudiera tener una conversación creíble con el estafador”, dijo.

Entonces, Kaafar, director ejecutivo del centro de seguridad cibernética de la Universidad de Macquarie, y su equipo, analizaron llamadas telefónicas fraudulentas e identificaron las técnicas de ingeniería social de los delincuentes. Luego entrenaron a su modelo de lenguaje con grabaciones reales de estafadores, transcripciones de correos electrónicos engañosos y registros de chats de plataformas de redes sociales. Posteriormente, el ‘chatbot’ pudo generar conversaciones similares propias.

Los avances en el procesamiento del lenguaje natural y la clonación de la voz humana por IA han permitido desarrollar sistemas capaces de hablar con fluidez y adoptar una personalidad particular. “Los bots de IA conversacionales que hemos desarrollado pueden engañar a los estafadores haciéndoles creer que están hablando con víctimas de estafa viables, por lo que dedican tiempo a intentar estafar a los bots”, señaló Kaafar.

Apate se puede entrenar en cualquier idioma o acento. Actualmente sus creadores están probándolo en llamadas reales y por el momento es capaz de distraer a sus víctimas un promedio de cinco minutos, pero el objetivo es llegar a los 40. Dadas sus características y al hecho de que las estafas telefónicas son un desafío global, esta tecnología podrían llegar a implementarla operadores y proveedores de telefonía.

“Esto tiene un enorme potencial a nivel mundial; si podemos redirigir muchas de esas llamadas de ‘spam’ que los proveedores están bloqueando actualmente y enviar a los estafadores a los bots de Apate, ocupando su tiempo tanto como podamos, toda esa industria ya no será viable”, concluye Kaafar.

 


PrisioneroEnArgentina.com

Junio 30, 2023


 

0 0 votes
Article Rating
Subscribe
Notify of
guest
3 Comments
Newest
Oldest Most Voted
Inline Feedbacks
View all comments
3
0
Would love your thoughts, please comment.x
()
x