Elizabeth Ortiz / Directora comercial, LinZsurance contacto@linzsurance.com
Estoy sorprendida por el boom de ciertas publicaciones en redes sociales: las personas usan la inteligencia artificial (IA) para unir con una ligereza inquietante, como si se tratara de un simple juego, su imagen con la de un ser querido que ya falleció o con la de alguna celebridad. No me preocupa la creatividad técnica, sino la nula importancia que se da al hecho de que estas imágenes pueden confundirnos. Nuestra memoria, como bien advierte la psicología, es vulnerable y muchas veces no es de fiar.
La psicóloga Soledad Ballesteros Jiménez, en su libro Psicología de la memoria humana (UNED, 2017), expone que la capacidad de recordar no funciona como una grabadora que reproduce fielmente lo vivido, sino como un proceso reconstructivo: recordamos lo esencial, pero lo rellenamos con fragmentos de imaginación, influencias externas e incluso deseos. Esta idea se refuerza con los experimentos de Elizabeth Loftus, quien demostró que es posible implantar falsos recuerdos en las personas a través de sugerencias y estímulos visuales. Así es como alguien puede creer con total convicción que un evento que nunca ocurrió fue real.
En nuestra industria aseguradora, la problemática de la manipulación de imágenes con la IA es evidente. En la actualidad, cada vez más compañías implementan el ajuste exprés en percances automovilísticos: el asegurado toma fotografías del accidente y las envía directamente a la compañía de seguros para que realice la valoración de los daños. Esto agiliza los procesos, reduce los costos y mejora la experiencia del cliente; sin embargo, genera un riesgo, pues ahora el material visual es fácilmente manipulable con herramientas tecnológicas. Gracias a programas gratuitos, al alcance de cualquier usuario, es posible alterar una fotografía de un vehículo accidentado: se pueden agregar rayones y golpes, simular un daño inexistente, borrar impactos y esconder evidencia. De este modo, la veracidad del material fotográfico es cuestionable y abre un margen de vulnerabilidad que no podemos ignorar.
Pensemos en un escenario judicial: un siniestro de autos que llega a los tribunales porque las partes no se ponen de acuerdo en quién fue el responsable. Las representaciones visuales que sirven como elementos de juicio podrían alterarse y, con el paso del tiempo, los testigos e incluso los involucrados podrían construir recuerdos falsos a partir de las imágenes manipuladas, por lo que no mentirían con mala intención, sino convencidos de que su recuerdo es verdadero. Como describen Loftus y Ballesteros: la memoria no es confiable y puede llevarnos a trampas que parecen reales.
La confianza es el eje de nuestra actividad. La modalidad exprés agiliza los trámites, pero también expone a la industria a fraudes difíciles de detectar. Por tanto, se requieren protocolos más sólidos para validar la autenticidad de las pruebas y necesitamos anticiparnos al impacto potencial de la IA en la credibilidad de los recuerdos.
No se trata de rechazar la innovación ni de volver atrás, sino de reconocer que los recursos digitales que usamos para divertirnos pueden convertirse en un riesgo para nuestros procesos profesionales. La memoria y las imágenes, cuando se manipulan con la IA, dejan de ser un terreno seguro. Si no nos preparamos, podríamos enfrentar no solo fraudes más sofisticados, sino también declaraciones contradictorias, juicios prolongados y pérdida de confianza en los sistemas de ajuste.
