top of page
  • Writer's picturecriptodiadia

Los científicos han aprendido a reconocer audios falsos profundos (Deepfake)

Investigadores de la Universidad de Florida han desarrollado un método de detección de audio falso que mide las diferencias entre muestras de voz orgánicas y sintéticas.

Foto: softeq.


Según los científicos, hoy en día existen formas de restaurar la voz de acuerdo con la estructura anatómica del sistema respiratorio. Gracias a tales métodos, puedes escuchar cómo sonaban incluso los dinosaurios.


Para reconocer los deepfakes, los investigadores realizaron el procedimiento inverso. Modelaron el tracto vocal para voz orgánica y sintética utilizando grabaciones de audio. Esto les permitió recrear la anatomía de los órganos respiratorios del orador a partir de un segmento del pasaje de audio.


Como resultado, los científicos han descubierto que las grabaciones deepfake no se limitan a la anatomía del tracto vocal humano. En el proceso de modelado, vieron formas que las personas no tienen.


Según los investigadores, la precisión del método en el conjunto de datos de prueba ha alcanzado el 99 %.


Los científicos dijeron que el estudio no solo confirmó las hipótesis planteadas, sino que también reveló otras características. Por ejemplo, en un audio falso, el modelo a menudo creaba tractos vocales del mismo diámetro y consistencia relativos que una pajilla. De hecho, los órganos humanos son mucho más anchos y de estructura más compleja, anotaron los autores.

Órganos respiratorios reconstruidos a partir de muestras de voz orgánicas y sintéticas. Datos: Universidad de Florida.


Según los investigadores, su enfoque permitirá reconocer incluso las falsificaciones que son convincentes para el oído humano.


“Los modelos actuales no capturan los aspectos sutiles pero biológicamente limitados de la generación del habla humana […]. Por lo tanto, [anatomy] puede actuar como una herramienta poderosa para detectar falsificaciones profundas de audio”, dicen los autores.


Recordemos que en octubre de 2021 se supo que en los Emiratos Árabes Unidos, los estafadores falsificaron la voz del jefe de una gran empresa y robaron $ 35 millones.


Ese mismo mes, los investigadores anunciaron la capacidad de las falsificaciones profundas de audio para engañar tanto a los dispositivos de reconocimiento de voz como a los oyentes.


Suscríbase a las noticias de CriptoDia en Telegram: https://t.me/CriptoDiaEs

Nuestro canal de Youtube: CriptoDia


#Deepfake


bottom of page