Blog

Lea aquí nuestros puntos de vista y perspectivas sobre temas del sector

Póngase en contacto  

IA generativa y tecnología "Deepfake": implicaciones para los seguros

Sería difícil encontrar a alguien que no haya oído hablar del término Inteligencia Artificial (IA). La IA se define como la capacidad de un ordenador o robot controlado por ordenador para realizar tareas comúnmente asociadas a seres inteligentes.

Aunque el concepto de IA no es en absoluto nuevo, es el auge relativamente reciente de la llamada IA Generativa el que ha catapultado el tema a la corriente dominante y consolidado su lugar como tecnología disruptiva potencialmente de la misma escala que Internet.

Podría decirse que la herramienta de IA generativa más conocida, y la que dio el pistoletazo de salida al "boom de la IA", es ChatGPT. Lanzada en 2022, es una herramienta gratuita que utiliza el aprendizaje profundo para entablar conversaciones de tipo humano con los usuarios a partir de instrucciones.

Otro desarrollo de la IA emocionante y, quizás en igual medida, aterrador es la tecnología "Deepfake". Utiliza medios -fotografías, grabaciones de voz o de vídeo- que han sido manipulados digitalmente para sustituir de forma convincente la imagen de una persona por la de otra.

En lo que respecta a los fraudes de ingeniería social, que suelen consistir en comprometer las cuentas de correo electrónico de un asegurado o de sus proveedores, la incorporación de la tecnología Deepfake al arsenal de herramientas en constante evolución de los defraudadores es motivo de preocupación.

Los delincuentes utilizan esta tecnología para reforzar la apariencia de legitimidad de las solicitudes de pago fraudulentas. A medida que la tecnología se vuelve más sofisticada y realista, aumenta la probabilidad de que las víctimas potenciales sean engañadas por ella.

Ejemplo de caso:

Recientemente hemos tramitado un siniestro para una empresa multinacional, relacionado con un fraude de ingeniería social dirigido a uno de sus empleados del equipo financiero. Los estafadores, haciéndose pasar por el recién nombrado director general de la empresa, se pusieron en contacto con el empleado a través de una cuenta de correo electrónico falsa y solicitaron la transferencia de fondos, que supuestamente estaban relacionados con un acuerdo comercial altamente confidencial. Los estafadores manipularon al empleado prometiéndole un ascenso y un importante aumento de sueldo a cambio de su cooperación.

El empleado estaba preocupado y solicitó una videollamada. Los estafadores enviaron un mensaje de vídeo grabado, que se creó a partir de un vídeo auténtico del director general que se había hecho para una presentación anterior. El mensaje de vídeo era una versión falsificada de ese vídeo con un nuevo audio en el que se mencionaba al empleado por su nombre.

Engañado por el vídeo, el empleado ingresó fondos por un total de más de 2 millones de dólares en varias cuentas de distintos países controladas por los estafadores.

Análisis:

Como se desprende de nuestro ejemplo, la tecnología Deepfake ya se ha desarrollado hasta el punto de que, cada vez más, el ojo inexperto no puede detectar que los medios de comunicación han sido manipulados. Prevemos que este rápido desarrollo de la tecnología, junto con su amplia disponibilidad, contribuirá inevitablemente a un aumento de los fraudes de ingeniería social con éxito en los próximos años y, a su vez, a que se notifiquen más reclamaciones.

Merece la pena considerar las posibles implicaciones para el sector de los seguros.

¿Veremos exclusiones específicas de pólizas para fraudes cuya causa haya sido el engaño mediante la tecnología Deepfake?

¿Podrían los riesgos en cuestión estar sujetos a una franquicia más elevada, a una prima más alta o llegar a ser no asegurables?

¿Se aplicarán sublímites? Y, ¿cómo interactuarán las políticas penal y cibernética?

No cabe duda de que los aseguradores deben tomarse en serio, y en muchos casos se lo están tomando, la amenaza del fraude por ingeniería social (y otros fraudes cibernéticos). Las medidas preventivas son primordiales, incluida la formación de los empleados sobre cómo responder a las solicitudes recibidas por vídeo o voz. En nuestro trabajo con instituciones financieras, vemos que los bancos están desarrollando herramientas de detección basadas en IA, incluidas las que utilizan análisis de comportamiento.

Huelga decir que la información detallada y precisa sobre los procedimientos y controles será clave para las aseguradoras, y corresponderá a los asegurados proporcionarla. Ya hemos visto que los formularios de propuesta han ido evolucionando, y muchos hacen referencia ahora a controles informáticos específicos y a la verificación de los datos de pago.

Si desea más información, póngase en contacto con nosotros.

Julio de 2024
Últimas noticias