Por supuesto que la Inteligencia Artificial traerá oportunidades revolucionarias para todos los modelos de negocio, de hecho ya está dotando de herramientas a los profesionales para que cumplan con su trabajo de forma más eficiente y obligando a avanzar a quienes hacían tareas rutinarias y monótonas; sin embargo, esta tecnología también supone riesgos para la humanidad y van más allá de la suplantación del trabajo; un tema que ya habíamos abordado en el artículo Inteligencia Artificial desataría ola de desempleo mundial, esta vez, se trata de un peligro contra las bases de la democracia, la justicia y la verdad de la sociedad.
En los últimos días en Scottsdale, Arizona, Estados Unidos una mujer identificada como Jennifer DeStefano denunció que fue víctima de un intento de extorsión con Inteligencia Artificial ¿Cómo sucedió? Según contó la mujer en medios locales, los delincuentes clonaron la voz de su hija y le hicieron llamadas extorsivas.
Los sujetos le pedían la suma de un millón de dólares por la supuesta liberación de su hija que realmente se encontraba esquiando fuera de la ciudad; sin embargo, la voz era tan real que nunca imaginó que no se tratara de ella.
En la comunicación la supuesta joven decía “mamá lo arruine”, al tiempo que se escuchaba a un hombre dándole órdenes. “Escucha, aquí tengo a tu hija… Si llamas a la Policía o a cualquiera, le voy a reventar el estómago tan lleno de drogas y la dejaré en México”, le decían a la mujer, que al final logró conocer que su hija estaba bien.
Respecto a este caso que es el más reciente, pero no el único, Henry Farid, profesor de análisis forense digital en la Universidad de California en Berkeley, explicó que la gran similitud entre las voces se debe a que a la IA le basta escuchar y analizar una oración muy corta para a partir de allí clonar la misma voz.
“El software de generación de voz de IA analiza lo que hace que la voz de una persona sea única, incluida la edad, el género y el acento, y busca en una amplia base de datos de voces para encontrar voces similares y predecir patrones”, indicó.
Por otro lado, cuando pensamos que las cosas no podrían marchar peor aparece la incapacidad de la mente humana para diferenciar entre imágenes reales e imágenes creadas a partir de IA con algoritmos automáticos, y para citar un ejemplo, hablaremos de las recientes fotografías del papa vestido con ropa urbana fuera de su código de vestimenta.
Estas fotos asumidas como reales le dieron la vuelta al mundo, muchas personas las compartieron y los noticieros las transmitieron bajo la idea de que eran reales, igualmente sucedió con el falso arresto del expresidente Donal Trump en una calle de Nueva York, son casos que junto a otros más han llevado a la sociedad a la preocupación y el miedo por el peligro de caer en noticias falsas.
DALL-E 2, Lensa y Midjourney son los programas de generación de imágenes basados en IA más populares, solo basta que el usuario comparta un texto o imagen para crear una representación visual acertada y realmente sorprendente. Desafortunadamente los resultados que arrojan estas herramientas no han sido utilizados con responsabilidad y han pasado por encima de la ética y la verdad, es así que Midjourney tuvo que cerrar su versión gratuita porque su uso para generar noticias falsas se estaba saliendo de control especialmente frente al manejo de redes sociales soportado por contenido falso.
Al finalizar este artículo la pregunta es ¿Cómo podremos distinguir las imágenes y las voces reales de aquellas creadas bajo Inteligencia Artificial? Y lo más grave ¿a qué problemas podría llevarnos el hecho de que cada vez los formatos son más reales y difíciles de diferenciar? ¿Quizá el resultado sean noticias falsas, arrestos falsos, suplantación de identidad, violaciones a los derechos de autor, extorsiones, desinformación, imitaciones, etc?