La IA permite imitar voces de famosos y clonar la de cualquier persona
La IA permite imitar voces de famosos y clonar la de cualquier persona | Twitter

La inteligencia artificial es una rama de la computación que busca simular la inteligencia humana en una máquina. Se expande y penetra prácticamente en todos los ámbitos de la vida humana. Hasta en la tecnología de la ‘deep fake’. Si cualquier persona ya puede intercambiar su rostro por el de un famoso, ahora también ya se puede imitar a la perfección la voz de políticos y famosos.

Respecto a esto último, una nueva herramienta de Inteligencia Artificial llamada ‘D-ID’ permite convertir cualquier texto a la voz de personajes famosos e incluir sus rostros: Shakira, Mark Zuckerberg, Bob Esponja o Homer Simpson pueden decir lo que sea con un guion escrito. El contenido, además, se puede descargar y compartir en redes sociales.

La herramienta se puede encontrar en la web y es de acceso libre, con un período gratuito de 14 días en el que se pueden generar hasta 20 vídeos cortos.

Pero, esta no es la única página que imita la voz de ‘celebrities’. Existen varias que ofrecen diferentes voces que pueden usarse para generar cualquier mensaje. Algunas de ellas permiten enviar los mensajes como audios de WhatsApp con voces de personajes famosos españoles, como Alberto Chicote o Lola Flores.

Estas páginas web reciben diariamente millones de solicitudes y es sumamente sencillo hacer que ciertos personajes mediáticos digan las frases que se desee, algo que puede ser realmente divertido.

El lado oscuro de la clonación de voz por IA

No obstante, no todo es bueno y divertido. Hay otras tecnologías como Vall-E, de Microsoft, que son capaces de clonar la voz de cualquier persona escuchándola unos segundos. Los algoritmos son tan potentes que pueden imitar a la perfección cualquier voz, en cuanto a timbre y tono.

En muchas cuestiones, esta técnica mal usada puede servir para cometer delitos. Ya hay quien está usando estas nuevas tecnologías de imitación de voz para obtener provecho ilícito.

En Estados Unidos están empezando a contabilizarse casos de personas que han sido estafadas por el uso indebido de esta IA. Una de las que ya se están dando a conocer es la ‘estafa de los abuelos‘, en la que éstos el blanco de los delincuentes, quienes se hacen pasar por los nietos, cuya voz pueden clonar perfectamente por medio de un video de TikTok o Instagram.