por: Yorman Sarmiento
29/01/2024 | 5:00 pm
IProfesional
De acuerdo con un nuevo estudio, se determinó que las personas no detectan con fiabilidad las voces falsas de la verdaderas en audios generados por Inteligencia Artificial (IA), a pesar que los participantes de la investigación estaban entrenados para ello.
En este sentido, los expertos consideran que es posible mejorar los detectores automáticos para sobrellevar la situación, no obstante, «en el futuro será peor».
Cabe destacar que, hace algunos meses, en medio de una sesión, el DJ David Guetta realizó una colaboración inesperada para los presentes, puesto que comenzó a sonar la voz de Eminem junto con su melodía; por lo que daba la impresión que el artista estaba en carne y hueso, sin embargo, solo que era una trampa, no era Eminem, sino un «deepfake» generado a través de una inteligencia artificial (IA).
Pero este fenómeno no solo se hace con audios, sino también con video e imágenes, tal es el caso de las gráficas virales en las que se veía a Donald Trump siendo arrestado o las del Papa Francisco en las que se mostraba con un abrigo acolchado.
No obstante, los llamados “deepfakes” están pasando desapercibidos entre la gente y se están usando para destruir reputaciones, provocar ciberataques o vulnerar los derechos de autor.
Las falsificaciones de audio se producen a través de muestra de audio que se filtran por modelos de aprendizaje automáticos y pueden imitar el habla de una persona real o, incluso, generar voces que parecen únicas.
Al respecto, David Sancho, jefe de análisis de amenazas de la firma de ciberseguridad Trend Micro, comentó que “antes los engaños se hacían por correo, pero era mucho más sencillo descubrir la trampa y ahora esta técnica está en desuso. Para los ciberdelincuentes las IA de audio son un regalo caído del cielo”.
Finalmente, los expertos aseguran que el mayor riesgo está relacionado con el ataque a las figuras públicas, debido a que se dispone de gran cantidad de registros de voz, gracias a entrevistas conferencias o películas, por lo que los ataques van dirigidos a ellos.
Aun así, es recomendable que el ciudadano común sea precavido y consientes de falsificaciones auditivas existen y están al alcance de todos.