El desarrollo de amenazas como el uso de deepfakes ha crecido, por ello los fabricantes ahora quieren identificar este tipo de contenido.
Robar la identidad digital ya no es la única amenaza, ahora también es posible copiar y hacerse pasar por una persona de manera artificial, lo que ha representado un peligro para las empresas, pero también para los usuarios, quienes necesitan herramientas más sofisticadas para identificar si un contenido es un deepfake o se trata de una persona real.
Hace unos años, una de las mayores amenazas en ciberseguridad era que la identidad digital de las personas fuera robada. Esto significaba, a grandes rasgos, que los usuarios podían perder el acceso a sus credenciales de cuentas de redes sociales, o sufrir el secuestro de su información.
Pero poco a poco el mercado de deepfakes en América Latina, y en particular en México, ha crecido rápidamente, impulsado por la adopción de inteligencia artificial (IA) para diversos fines, desde entretenimiento hasta estafas.
En 2023, los incidentes de deepfakes en México aumentaron un 700%, lo que refleja el crecimiento alarmante de esta tecnología en el ámbito del fraude de identidad, especialmente en sectores como las criptomonedas y fintech, de acuerdo con Kaspersky. Por ello, saber identificar este tipo de fraude empieza a ser más relevante para las compañías.
Por ello, Honor presentó la primera IA que detecta deepfakes desde un dispositivo. Esta tecnología emplea algoritmos para analizar detalles minuciosos en el contenido audiovisual, identificando discrepancias en la coherencia de los píxeles, la composición de imágenes y la continuidad entre fotogramas.
Esta solución tiene como objetivo proteger a los usuarios de amenazas crecientes como el robo de identidad y la difusión de desinformación, de acuerdo con George Zhao, CEP de Honor.
Una de las razones principales por las que es difícil detectar deepfakes es que los detalles más reveladores, como los bordes de los rostros, la sincronización de labios o la iluminación, a menudo no son perceptibles para el ojo humano.
Dentro de las soluciones que ya existen, Microsoft ha desarrollado herramientas como Video Authenticator, que analiza videos en tiempo real y proporciona una puntuación de confianza para indicar la probabilidad de que el contenido haya sido manipulado.
Sin embargo, la propia empresa admite que la evolución de los deepfakes sigue superando las tecnologías de detección disponibles, debido a que los modelos de IA continúan aprendiendo y haciendo contenido más sofisticado.
Deloitte ha destacado que el problema de los deepfakes no solo radica en la dificultad técnica para detectarlos, sino también en la rapidez con la que la desinformación puede propagarse una vez que un contenido se vuelve viral. Esto plantea un reto adicional, ya que incluso si un deepfake es eventualmente identificado, el daño a la reputación o la confianza pública es difícil de soportar y remediar.
Durante un panel en el que participaron voceros de Microsoft, como Mark Linton -vicepresidente de ventas para partners en Microsoft- y Alex Katouzian -gerente general de la división mobile de Qualcomm-, señalaron de los retos que tiene la industria en el desarrollo de dispositivos que prevengan este tipo de fraude.
“Muchas de las innovaciones que estamos haciendo están enfocados en ayudar a las empresas a tener más seguridad en la interacción de ciertas herramientas, aunque es un reto tangible”, señaló Linton.
Intel, con su herramienta FakeCatcher, destaca que los deepfakes actuales son extremadamente difíciles de detectar porque utilizan modelos de IA avanzados que replican señales biológicas como el flujo sanguíneo en el rostro. Esto hace que el contenido manipulado sea casi indistinguible del real, incluso para expertos en tecnología.
Aunque Honor presentó su intención por tener un dispositivo enfocado en la detección de este tipo de contenido aún no tiene una fecha oficial de lanzamiento.
Artículo tomado de Expansión, lea el original aquí.