Connect with us

Hola, ¿qué estás buscando?

Jueves, 21 Noviembre 2024

Recursos

La ley de Inteligencia Artificial de la UE: oportunidades y retos para las fintech

ley de Inteligencia Artificial

No hay forma de evitar la expansión de la IA generativa, eso está claro a estas alturas. Y son sobre todo las grandes empresas de EE.UU. y China las que siguen ampliando su dominio del mercado mediante adquisiciones selectivas de nuevas empresas innovadoras. Mientras los competidores extranjeros apuestan fuerte por la innovación, Europa tiende a mostrarse escéptica y reacciona con normativas.

¿Podría el enfoque europeo en la regulación obstaculizar el progreso tecnológico y la competitividad y, en última instancia, llevar a Europa a perder terreno frente a EE.UU. y China en la carrera por la IA?

Una cosa es cierta, la ley de la UE sobre inteligencia artificialpropuesta por la Unión Europea, y adoptada finalmente el 21 de mayo de 2024, remodelará por completo la regulación de la inteligencia artificial, especialmente en el sector de las fintech. Pero, ¿qué significa esto para las entidades financieras que ya utilizan procesos y tecnologías basados en IA?

En primer lugar, deben comprobar si sus soluciones técnicas actuales o futuras cumplen las normas de la nueva legislación. Sin embargo, en lugar de ver esta nueva legislación como una carga, las fintech también pueden verla como una oportunidad aceptando los cambios, haciendo hincapié en los beneficios y ventajas de estas nuevas tecnologías y creando más transparencia en el uso de soluciones de IA.

Los retos de la ley de IA de la UE

La ley de IA establece normas de cumplimiento más estrictas para los sistemas de alto riesgo, como los utilizados en la calificación crediticia, la detección del fraude y el comercio algorítmico. Las aplicaciones de IA se clasifican en diferentes categorías de riesgo, que pueden ir de bajo a inaceptable. Para cumplir estos requisitos, las empresas de tecnología financiera deben garantizar que sus sistemas de IA sean transparentes, entendibles e imparciales.

Advertencia, desplázate para continuar leyendo

Pero, ¿qué significa esto en la práctica? Un área común de aplicación de la inteligencia artificial es la incorporación de clientes. Las fintech deben garantizar que todos los procesos de conocimiento del cliente (KYC, por sus siglas en inglés) apoyados por IA sean imparciales y seguros. En el caso de los programas de inteligencia artificial para el reconocimiento facial, por ejemplo, esto significa que no discriminan contra determinados colores de piel o etnias.

Para algunos procesos soportados por IA, su inseguridad puede suponer que las empresas de tecnología financiera necesiten que estos sistemas sean supervisados más de cerca por los empleados. Los sistemas automatizados de lucha contra el blanqueo de capitales son un buen ejemplo de ello. Para garantizar que sean lo más precisos posible y no den falsos positivos, las decisiones deben ser examinadas cada vez más por los empleados.

Por tanto, la transparencia es especialmente importante para los sistemas de detección del fraude o el comercio algorítmico, por ejemplo. Los sistemas de IA para la detección del fraude se clasifican como de alto riesgo y requieren pruebas y supervisiones estrictas. Las empresas de tecnología financiera deben garantizar que sus modelos de detección del fraude han sido probados y pueden explicarse a las autoridades de supervisión.

En este caso, las fintech deben introducir sólidos sistemas de gestión de riesgos y ser capaces de explicar el proceso de toma de decisiones de su IA. Estas se caracterizan, precisamente, por su agilidad y, por tanto, pueden actuar como pioneras. Utilizando la IA de forma responsable, es posible reducir costes y obtener así una ventaja competitiva sobre los bancos tradicionales. Aunque la ley de IA introduce obstáculos normativos adicionales, también crea claridad y permite la introducción responsable de tecnologías vinculadas a la IA. Es necesario que las empresas fintech revisen proactivamente las soluciones basadas en IA existentes para garantizar el cumplimiento de la legislación.

La nueva ley también aborda el uso ético de la IA en relación con los prejuicios, la discriminación y la toma de decisiones sesgada. Evaluar las tecnologías desde una perspectiva ética puede conducir a soluciones más imparciales. La IA puede simplificar el proceso de toma de decisiones al centrarse en las acciones y los actos más que en la información sobre la ubicación o el origen de una persona. Además, añadir más puntos de datos y patrones de comportamiento de mejor calidad significa que es más fácil excluir fuentes de datos que podrían dar una imagen distorsionada de una persona.

Por tanto, la ley de IA mejorará la experiencia del cliente de las fintech y las empresas de tecnología financiera. Una incorporación más rápida, un seguimiento más preciso de las transacciones y un mejor servicio al cliente son solo algunos de los beneficios que se esperan. Utilizando la IA de forma responsable, las entidades financieras pueden proteger a sus clientes de amenazas externas y reducir las pérdidas.

Martin van Oyen, jefe del departamento jurídico de FINOM.

Te recomendamos

Recursos

La Inteligencia artificial ha llegado para quedarse y cada día está más implantada en todos los sectores de nuestra sociedad. La realidad es que...

Digitalización

Sage Copilot, el asistente impulsado por IA generativa, ya está disponible para los usuarios de Sage Active, la herramienta en la nube para la...

Digitalización

Cegid ha lanzado un conjunto de agentes inteligentes construidos mediante inteligencia artificial generativa e integrados en soluciones de software de gestión empresarial de la...

Noticias

TalentYou ha cerrado una ronda de financiación pre-seed por valor de 1 millón de euros liderada por el family office Adstratus, Grupo Godó, Bcombinator y...

Copyright © Total Publishing Network S.A. 2024 | Todos los derechos reservados