IA y protección de datos en FinTech: desafíos y preocupaciones

IA y protección de datos en FinTech: desafíos y preocupaciones

La inteligencia artificial ha sido crucial para las compañías del sector FinTech para crecer y ganar ventajas competitivas. Sin embargo, puedo tener ciertas implicaciones y riesgos desde la mira de las regulaciones en materias de protección de datos, especialmente bajo el Reglamento General de Protección de Datos (RGPD). En este post, vamos a analizar cómo la  IA y la protección de datos coexisten y trabajan juntas, especialmente desde el  punto de vista del RGPD. 

La inteligencia artificial ha cambiado como funciona prácticamente todo en nuestro entorno. Desde empresas de construcción hasta las compañías FinTech, está demostrado que la IA ayuda a las empresas a ganar ventajas competitivas y a diferenciarse del resto, y también para innovar y mejorar la atención y el servicio a los clientes. Pero no sólo es útil la IA para mejorar el soporte al cliente, sino que también contribuye a tareas tan importantes como la detección del fraude o la toma de decisiones, conduciendo por tanto a mejores resultados y beneficios para la empresa.

Por muchas razones, la AI se ha convertido en un pilar fundamental para las empresas a la hora de desarrollar nuevas estrategias, y las compañías FinTech de todo el mundo están muy concienciadas de ello, ya que muchas están implementando nuevas tecnologías basadas en inteligencia artificial. 

Por ejemplo, pueden ofrecer servicios más personalizados a sus clientes, ayudándole por tanto a tomar decisiones de carácter económico o a poder seguir y controlar sus transacciones económicas. 

Sin embargo, tenemos que entender que la  IA y la protección de datos  coexisten juntas.  La utilización de IA implica tratar datos en la mayoría de los casos, y es crucial por tanto para las compañías FinTech asegurar un adecuado nivel de protección frente a posibles riesgos, así como preservar y proteger el derecho a la privacidad y la protección de datos durante todo tipo de procesos. Por ello, vamos a explicar cuáles son las principales implicaciones y preocupaciones sobre utilizar IA en FinTech, y cómo el RGPD afecta directamente todo lo relacionado con ello.

IA en Fintech: implicaciones y preocupaciones

Como acabamos de comentar, las compañías FinTech han utilizado IA para conseguir y alcanzar hitos y metas muy variadas, lo que ha supuesto un rápido desarrollo dentro de la industria. Por muchas razones, la inteligencia artificial ha demostrado ser muy útil para diversas tareas en relación a este tipo de compañías, llevando hacia nuevas aproximaciones y soluciones. Pero para que ello sea posible, las compañías FinTech (y los sistemas de AI) necesitan tratar datos. Y es aquí donde la relación entre  IA y la protección de datos se vuelve clave. 

Por ejemplo, las tecnologías basadas en IA en compañías FinTech pueden ser muy útiles para detectar y prevenir posibles fraudes. Los fraudes se han convertido en un gran problema para las FinTech a la hora de desarrollar su actividad. Mediante el uso de IA, pueden detectar posibles maniobras fraudulentas y reaccionar a ellas, evitando no sólo costes financieros, sino también reputacionales.

Las aplicaciones de inteligencia artificial necesitan tratar datos de diversas formas, por ejemplo para decisiones automatizadas (el RGPD ya hace referencia a este punto en relación a los interesados) por ejemplo para situaciones de fraude, y sus resultados pueden llegar a ser muy precisos, ofreciendo por tanto grandes ventajas y oportunidades. Sin embargo, en otros casos, pueden resultar en decisiones discriminatorias, lo que puede conllevar serios problemas, como injusticias y discriminaciones. 

Por estas razones y por muchas más, es muy importante para las compañías FinTech (y para las compañías en general) entender las implicaciones y los riesgos que puede tener usar sistemas basados en IA, y desarrollar un conocimiento profundo de ello y estrategias que afronten las implicaciones que impone el RGPD. 

En este sentido, ¿cuál es la perspectiva del RGPD acerca de la utilización de inteligencia artificial y cuál es la relación entre  IA y la protección de datos según las regulaciones europeas?

Perspectiva de las regulaciones de protección de Datos: RGPD y el “AI Act”

Las preocupaciones acerca del uso de la inteligencia artificial no son nuevas, y han supuesto una constante desde un punto de vista de vista de la regulación europea. 

En 2018, la Comisión Europea presenta una serie de medidas en relación a la IA en la “Comunicación sobre Inteligencia Artificial para Europea”, proponiendo diferentes aproximaciones para invertir en IA y asegurar un adecuado nivel ético y legal de la misma. 

En 2020, el Parlamento Europeo pública “El impacto del Reglamento General de Protección de Datos en la IA”, analizando cuales son las implicaciones entre la protección de datos y la inteligencia artificial. 

Además de todo ello, el 21 de abril de 2021, la Comisión Europea presenta el “AI Act”, que establece reglas horizontales para el desarrollo y el uso de productos dirigidos por IA, y declara que la inteligencia artificial necesita ser acorde a la legalidad, ser ética y técnicamente robusta , mientras que a su vez respeta los valores democráticos y los derechos humanos. 

Por todo lo anterior, podemos observar que la IA y la protección de datos están muy relacionadas, y que han sido objeto de estudio y análisis por los principales reguladores europeos. 

Desde un punto de vista basado en el RGPD, debemos decir que el éste no contiene ningún término como “Inteligencia Artificial”, pero ello no significa que sus provisiones no afecten a la IA y no tengan implicaciones legales. Muchas de las provisiones contenidas en el RGPD aplican directamente a la IA, y algunas son realmente desafiantes para las nuevas formas de tratar datos que proporciona el uso de la IA. Tal y com dice el Parlamento Europeo, se puede hablar de una “tensión” entre los principios tradicionales en materia de protección de datos (limitación de la finalidad, minimización de los datos, tratamiento de categorías especiales, y especialmente, la utilización de las decisiones automatizadas). Siguiendo esta línea, la inteligencia artificial puede adoptar un enfoque que cumpla con el RGPD sin hacer grandes cambios, y podemos concluir que las tecnologías basadas en IA que traten datos de carácter personal deben estar en línea con el RGPD.

En relación a los principios básicos, es importante hacer mención a la base de legitimación al utilizar sistemas basados en IA, y el artículo 6 del RGPD establece que todo tratamiento de datos de carácter personal requiere una base de legitimación, lo cual puede ser realmente problemático en relación a los sistemas basados en tecnologías IA.

Este tipo de compañías pueden llegar a manejar y tratar una gran cantidad de datos sensibles, como por ejemplo información de pago. En este sentido, es muy importante para ellas cumplir con el RGPD, ya que éste requiere que los datos sean tratados de manera lícita y transparente, y que cumpla con el artículo 9. 

Además, la IA ha sido muy importante para desplegar nuevas oportunidades de perfilado, y las Fintech necesitan estar realmente alerta de las implicaciones que tiene esta actividad bajo el RGPD, La IA incrementa el potencial de elabora perfiles, y si bien puede tener beneficios como hemos comentado anteriormente, puede resultar en serios riesgos en relación al artículo 22 del RGPD. 

En conclusión, tenemos que decir que el uso de inteligencia artificial es un elemento disruptivo para las compañías FinTech, y que será de capital importancia para ellas reconocer que IA y la protección de datos debe ser una relación obligada. Las FinTech que reconozcan la importancia del RGPD y las implicaciones en cuanto a la privacidad en el uso de la IA, serán aquellas que desarrollen estrategias más transparentes y respetuosas en relación a los interesados, posicionándose de forma más privilegiada respecto a sus principales competidores. 

No Comments

Post a Comment

Ir al contenido