Como ya sabemos, el no cumplimiento de la normativa GDRP puede suponer multas de hasta 20 millones de euros o el 4% de la facturación global de la compañía. Hasta septiembre de 2021, la cantidad total de multas ascienden a más de 1.000 millones de Euros. Amazon ha sido la empresa a la que más multa se le ha impuesto, seguida por Whatsapp y Google, según un estudio de EAE Business School.
“El hecho de que las empresas tengan una información sobre los usuarios que, antes no tenían, y herramientas como el Big Data para explotarla abre la puerta a considerar dónde queda el usuario ubicado en esta situación. Determinar si el Big Data es beneficioso para los usuarios es una tarea muy compleja. En algunos casos permite la existencia de ciertos servicios útiles pero, por otro lado, un mal uso del big data puede dar pie a abusos de los derechos de los usuarios”, advierte Pau Sabaté, co autor del estudio de EAE Business School.
En este sentido, el Reglamento General de Protección de Datos (RGDP) (GDPREU) regula la protección de las personas respecto a sus datos personales y la circulación de estos datos en todo el territorio europeo, que entró en vigor en 2016 y se aplica desde 2018, tal y como se recoge en el estudio de EAE. Este reglamento asegura los derechos de los usuarios en la recogida de datos, la introducción de derechos como el derecho al olvido, la limitación de su tratamiento y de los datos, obligación de hacer un análisis de los riesgos o el consentimiento de los usuarios, entre otros.
Los retos del Big Data
La irrupción del ecosistema digital ha generado de forma exponencial una cantidad de datos que parece no tener límite ni frenar su creación. En los últimos cinco años, se ha multiplicado por cuatro la cantidad de datos digitales creados o replicados en todo el mundo, y se estima que para el 2025 se al menos doblará esta cifra, tal y como recoge el informe de EAE Business School.
El coste energético del Big Data es otro tema a abordar. El consumo eléctrico de todos los data centers juntos ya representa un 1% de la demanda global de electricidad.
Otro de los campos donde esta tecnología está más inmadura es en entender y gestionar el impacto que tiene a nivel social. Por ejemplo, tal y como señala el estudio, los sistemas de recomendación pueden crear burbujas informativas donde la gente solo recibe información de la parte de la sociedad cercana a su ideología, a modo de sesgo de auto confirmación. Los sistemas de recomendación también son susceptibles de ser utilizados para difundir noticias falsas.
Otro riesgo puede ser la concesión de una hipoteca. Al lanzar el modelo predictivo, puede dar menos posibilidades de financiación a un perfil social determinado, y por tanto de desarrollo, creando una posible desigualdad social.
“Este tipo de problemas, relacionados con la ética y la desigualdad, corresponden al área de fairness dentro del machine learning, y son difíciles de resolver, ya que no sólo requieren de conocimientos técnicos, sino también de conocimientos sociales”, explica el co-autor del estudio y profesor de EAE Business School, Aleix Ruiz de Villa.
Foto: mediotiempo