Desde simular un secuestro hasta robar datos bancarios: los peligros de clonar la voz por inteligencia artificial

El avance de la tecnología permite muchos pasos adelantes para la humanidad. Pero algunas herramientas de IA posibilitaron la expansión del ciberdelito.

Por Canal26

Sábado 14 de Octubre de 2023 - 11:31

Ciberdelito. Foto: Unsplash. Ciberdelito. Foto: Unsplash.

Uno de los miedos más espeluznantes que traen los avances de la Inteligencia Artificial (IA) es que se usen para el crimen y así toquen nuestras fibras más sensibles. En este sentido, la clonación de voz por IA puede simular cualquier mensaje en voz de Lionel Messi, Mick Jagger, pero también de un hijo o cualquier familiar a quien le hagan decir, desesperadamente, que está secuestrado. 

En América Latina y Estados Unidos se estudia qué hacer con este problema y qué posibles regulaciones digitales se pueden implementar. En el país norteamericano este ciberdelito se extendió llegando a los 5000 casos en 2022, cuando se pagaron 8,8 millones de dólares en promedio, según la Comisión Federal de Comercio (FTC) de ese país.

Ciberdelito. Foto: Unsplash. Ciberdelito. Foto: Unsplash.

Además, como aún no está muy desarrollada la legislación para delitos digitales, como mucho se contempla el robo de identidad para poder denunciar estos casos además de la misma estafa.

Uno de los mayores blancos de los ataques, además de los padres y madres son los bancos. En diferentes casos, inclusive, los estafadores poseen información confidencial por lo que quienes atienden los teléfonos en los call centers terminan accediendo a las operaciones solicitadas por la voz clonada.

ChatGPT. Foto: Unsplash.

Te puede interesar:

La aplicación de ChatGPT para celulares incorporará una nueva y esperada función: de qué se trata

Las riesgosas herramientas de clonación de voz

La herramienta VALL-E, producida por Microsoft, es de las más populares. Se fabricó con 60 mil horas de audios en inglés guardados en Meta, la empresa de Mark Zuckerberg y por eso está prohibida al público. Es una de las maneras más fácil a las que un Hacker puede llegar a la clonación de voz.  Parrot es otra de las herramientas que pueden hacer esta clonación. La aplicación estaba pensada para la transcripción de texto a audio. 

Hacker. Foto: Unsplash. Hacker. Foto: Unsplash.

Ya existe software para reconocer las voces generadas por IA. Los expertos, sin embargo, recomiendan que mientras este sistema avance se desconfíe de los llamados y siempre se confirme con un llamado a la persona antes de proceder.

Notas relacionadas