Unespa acaba de elaborar un documento con el objetivo de reforzar la confianza y el compromiso del sector asegurador con un uso ético de la IA basándose en las recomendaciones que instituciones nacionales e internacionales han emitido al respecto para facilitar a las entidades su propia toma de decisiones.

El informe se centra en 6 principios:

1.- Trato justo

El uso de aplicaciones basadas en IA no tendrá como consecuencia que una persona o grupo de personas reciba un trato injusto. Para ello, las entidades aseguradoras aplicarán los principios contenidos en el Reglamento general europeo de protección de datos (RGPD) respecto al tratamiento de datos personales: legitimidad, transparencia, limitación de la finalidad, minimización, limitación del plazo de conservación, exactitud, proporcionalidad del tratamiento, integridad, confidencialidad, protección de los datos desde el diseño y por defecto, y responsabilidad proactiva.

Además, siempre que sea necesario, se llevarán a cabo las evaluaciones de impacto relativas a la protección de datos analizando especialmente la proporcionalidad del tratamiento. En este sentido, las entidades aseguradoras valorarán si el fin perseguido con el uso de la IA puede ser conseguido utilizando otro tipo de soluciones que proporcionen la misma funcionalidad, con un margen de rendimiento aceptable y un nivel de riesgo menor. Las aplicaciones basadas en IA que tengan un impacto considerable en los clientes se diseñarán estableciendo un proceso de revisión para detectar y minimizar sesgos no conscientes. También se establecerán sistemas de revisión a posteriori. Ninguna persona o colectivo determinado recibirá un trato discriminatorio consciente. Los sesgos conscientes han de estar claramente acotados e identificados. Los tratamientos diferenciados solo serán posibles cuando estén amparados por la técnica aseguradora y la legislación aplicable.

2.- Responsabilidad proactiva

Las entidades aseguradoras establecerán procedimientos de control interno y de información al equipo directivo atendiendo a la materialidad e importancia de la decisión respecto al uso de aplicaciones basadas en IA. El control del uso de la IA estará incorporado en el sistema de gestión de riesgos de la entidad. Para ello, se establecerán los procedimientos y mecanismos necesarios que garanticen el uso responsable, y la gestión y auditoría de las aplicaciones basadas en IA. La responsabilidad última recaerá en el máximo órgano de gobierno de la entidad, o en el órgano en quien éste delegue, siempre y cuando, en este último caso, se garantice que dispone de suficiente capacidad de decisión y ejecución. Desde el punto de vista externo, se pondrá a disposición de la persona interesada mecanismos de consulta adecuados siguiendo los canales de comunicación existentes en la entidad.

3.- Seguridad

Las aplicaciones basadas en IA mantendrán, en todo momento de su vida útil, un nivel de robustez adecuado que garantice la máxima seguridad en su uso y de los datos que gestione. Los niveles de seguridad de dichas aplicaciones se tendrán en consideración a la hora de establecer el mapa de riesgos de la entidad, así como en el análisis de impacto en el negocio o análisis BIA (Business Impact Analysis), y deberán ser coherentes con el nivel de apetito de riesgo definido por la entidad. En el marco de la política de seguridad lógica y física, la entidad tendrá implantadas rutinas de chequeo y comprobación de vulnerabilidades. Para ello, habrán de adoptarse las medidas técnicas y organizativas apropiadas que garanticen un nivel de seguridad adecuado al riesgo que el uso de la IA pueda inferir en el respeto de los derechos y libertades de los interesados.

4.- Transparencia

Las entidades aseguradoras utilizarán la IA en el marco de la legislación vigente, especialmente aseguradora y de privacidad y protección de datos, informando sobre el uso que hacen de la misma en su página web, en sus canales habituales de información y en sus políticas escritas.

Las entidades aseguradoras garantizarán la transparencia sobre el modo en que abordan el uso de la IA y se asegurarán de que dicho uso no tenga consecuencias negativas inesperadas para ningún interesado, especialmente en los colectivos vulnerables.

5.- Formación

El personal de las entidades aseguradoras encargado de las aplicaciones basadas en IA tendrá conocimiento suficiente, específico y adaptado al perfil de sus funciones y responsabilidades. Las entidades aseguradoras proporcionarán igualmente información precisa y formación específica a su personal sobre las limitaciones de los sistemas de IA. Las entidades aseguradoras se comprometen a trasladar a dicho personal el contenido de estos principios junto a los que la entidad tenga establecidos en este ámbito

6.- Evaluación y revisión

Las entidades aseguradoras revisarán la “fiabilidad” de sus soluciones de IA. Para ello podrán utilizar la herramienta de autoevaluación creada al efecto por el Grupo de expertos de alto nivel de la Comisión Europea. Los principios previstos en este documento corresponden al nivel actual de desarrollo de la tecnología y el uso que hacen de ella las entidades aseguradoras españolas. El 31 de diciembre de 2021 a más tardar se procederá a la revisión de estos principios a la luz de los nuevos desarrollos tecnológicos y normativos relativos a esta materia.

Fuente: UNESPA