"Estas versiones de ti se pueden usar para todo": Experto en seguridad de IA revela los peligros del 'deepfake'
Este tipo de delitos se volverán más comunes y no solo afectarán a las grandes compañías, sino a la gente común, advierte Vijay Balasubramaniyan, director de Pindrop, que analiza interacciones de voz que siembran dudas sobre su autenticidad.
Los delincuentes están aprovechando la tecnología, y principalmente aquella relacionada con la inteligencia artificial (IA), para cometer delitos que van desde la ejecución de campañas de desinformación hasta la proliferación de contenido falso con la manipulación de audios, videos e imágenes para crear representaciones convincentes, y muy engañosas, de personas y eventos.
En este contexto, son cada vez más las compañías dedicadas a ayudar a las empresas y a los consumidores a identificar este tipo de material, que cada vez es más difícil de diferenciar. Una de ellas es Pindrop, enfocada en seguridad en materia de IA, que trabaja principalmente con bancos, compañías de seguros y proveedores de atención médica del mundo, examinando los audios de sus comunicaciones.
En un dialogo con el canal FOX News, su cofundador y director ejecutivo, Vijay Balasubramaniyan, aseguró que, en la actualidad, se están viendo "ataques dirigidos muy específicos". Explica que los estafadores se enfocan en perseguir a sus víctimas por "sus cuentas bancarias" y sus "registros de atención médica" creando los llamados 'deepfake', para lograr representaciones convincentes y muy engañosas de personas y eventos.
Pindrop verifica la identidad de las personas en función de su voz, el dispositivo que utiliza y su comportamiento. De los más de 5.000 millones de archivos de voz que ha analizado, dos millones son estafadores que usan la IA para suplantación y para convencer a otros de que quien está en la línea es humano.
Toneladas de audio y video en Internet: por qué es un problema
Balasubramaniyan predice que este tipo de delitos se volverá más común y no solo afectará a las grandes compañías, sino a la gente común y podrían representar una seria amenaza para varios aspectos de la vida cotidiana si no se implementan los controles adecuados.
Los sistemas de IA y aprendizaje automático funcionan estudiando información existente, principalmente la alojada en Internet, y construyendo sobre ese conocimiento. Así, con las "toneladas de audio y toneladas de videos" de una persona en la Red, cualquier otra puede crear, "fácilmente", imágenes y versiones suyas. "Cuanto más haya de ti por ahí, más probable es que se cree una versión tuya y un humano no va a descubrir quién es", dijo.
"Esas versiones de ti se pueden usar para todo tipo de cosas, para obtener información de cuentas bancarias, obtener registros de atención médica, hablar con tus padres o con un ser querido diciendo que eres tú. Ahí es donde la tecnología como la nuestra es muy importante", recalcó.
Detecte una falsificación
De acuerdo con Vijay, existen señales reveladoras que pueden indicar si un material audiovisual es falso. Si una voz parece robótica, un video está entrecortado, hay ruido de fondo, pausas entre preguntas o la persona no parpadea, se debe tener cuidado y suponer que es un 'deepfake'.
Esto es especialmente importante, sobre todo si el video o el mensaje apela a las emociones y proviene de un ser querido, recalcó Balasubramaniyan, añadiendo que incluso hay exitosas empresas que se están beneficiando de la IA para crear parejas falsas con ciertas cualidades.