ChatGPT ha impactado fuertemente en trabajadores de todos los sectores laborales debido a su utilidad, pero no hay que olvidar que se trata de una herramienta que tiene sus riesgos. Así, Kaspersky ha realizado un estudio que desvela que el 30% de los empleados facilita datos sensibles a la plataforma.
La encuesta revela las tareas que los empleados españoles confían de manera más recurrente a ChatGPT. Entre quienes utilizan esta herramienta, un 52% lo hace para la redacción de contenidos. Además, el 48% también lo usa para generar ideas para proyectos. Le siguen con el mismo porcentaje (38%), los resúmenes de textos y las traducciones. Incluso, un 14% admite consultar ChatGPT para saber qué responder al correo de un jefe o un cliente.
A la hora de encontrar un trabajo, esta herramienta también puede ser un aliado. De hecho, el 85% de los españoles se plantearía utilizarlo como apoyo durante los procesos de selección. En concreto, el 68% del uso de quienes aplican ChatGPT en procesos de selección se centra en mejorar su currículum vitae, y un 61,5% en redactar cartas de presentación.
Otro dato a tener en cuenta: el 32% de los empleados que usan ChatGTP reconoce haber utilizado sus respuestas como trabajo propio, sin decírselo a sus compañeros o superiores. Y casi el 14% de los trabajadores no ha informado a sus superiores de la utilización de la herramienta, a pesar de que en muchos casos se facilitan datos sensibles de la empresa.
“A pesar de que ChatGPT cuenta con medidas de seguridad para proteger privacidad de sus usuarios, siempre existe la posibilidad de que sea vulnerado por ataques de hackers o malware. Por este motivo, es importante utilizar la herramienta con cabeza y evitar introducir información confidencial y delicada que pueda terminar en manos de ciberdelincuentes”, explica Marc Rivero, Lead Security Researcher de Kaspersky.
Problemas de seguridad
En este sentido, el 31% de quienes respondieron a la encuesta de Kaspersky reconoce compartir información delicada en ChatGPT, a pesar de que es consciente de la importancia de no compartir datos sensibles. Además, un 16% dice que no le preocupa la privacidad cuando interactúa con la IA. De acuerdo con los expertos, se trata de cifras alarmantes, sobre todo si se tiene en cuenta que uno de cada cuatro trabajadores españoles reconoce desconocer de qué manera funciona ChatGPT y lo que el chatbot hace con sus datos personales o los de la empresa.
A esto se suma que, en lo que a directrices empresariales se refiere, casi un 46% de los empleados manifiesta que sus empresas no tienen ninguna política de uso para este sistema de Inteligencia Artificial generativa. Un 27% asegura que, pese a haberse establecido una norma interna, esta no es aplicada por los empleados.
“Es más complicado que los empleados se tomen en serio la privacidad de los datos empresariales si desde las propias organizaciones no se promueven medidas para protegerlos. Por ello, es importante que las empresas desarrollen e implementen políticas de uso para nuevas herramientas como ChatGPT, de modo que los equipos conozcan los riesgos y tengan claro cómo actuar para proteger información sensible”, concluye el experto.