Los chatbots de IA son una revolución, pero también una amenaza. Experto: Recopilan muchos datos que pueden acabar en manos equivocadas

Los datos de los chatbots de IA podrían caer en manos de ciberdelincuentes, servicios extranjeros o anunciantes y ser utilizados en detrimento de los usuarios, advierte Mateusz Chrobok, experto en ciberseguridad, en una entrevista con PAP. Recomendó practicar la higiene digital y ser escéptico sobre el contenido que se genera.
Mateusz Chrobok, experto en ciberseguridad e inteligencia artificial que dirige una plataforma educativa y un canal de YouTube con 157.000 seguidores. La gente ha notado que las empresas de tecnología que desarrollan chatbots de inteligencia artificial a menudo obtienen datos sobre los usuarios de Internet, incluidas las redes sociales, y se basan en la información que ingresan en los chatbots.
"Sobre esta base, solemos elaborar un perfil de una determinada empresa para que las respuestas del chatbot se adapten mejor a nosotros", explicó.
El experto señaló que a partir de las indicaciones, es decir, las consultas que un usuario determinado introduce en el chatbot, las empresas pueden leer información sobre el idioma que utiliza el usuario, su apariencia (en el caso de fotos adjuntas), vistas, situación familiar, problemas, etc. Algunas empresas también solicitan acceso a información del dispositivo del usuario, por ejemplo: contactos, ubicación. "El DeepSeek chino también recopiló la forma en que escribimos en el teclado, de la cual podemos extraer muchos datos, como la edad o si estamos cansados o privados de sueño en un día determinado", señaló Chrobok.
"A veces nos sentimos tentados a ceder nuestros datos a cambio de acceso gratuito a un chatbot, un modelo mejor, etc. Así que, en realidad, estamos renunciando a nuestra privacidad a cambio de ciertos beneficios", señaló. Señaló que el uso de chatbots conlleva el riesgo de fuga de datos sensibles. Chrobok recordó una situación de hace dos años cuando OpenAI confundió los índices de usuarios de ChatGPT. Esto dio lugar a una situación en la que, después de iniciar sesión en su cuenta, una persona tenía acceso al historial de conversaciones de otra persona. "El problema afectó al 1,2 por ciento de los usuarios, pero en la práctica supone millones de personas", subrayó.
Otra amenaza de seguridad asociada a los chatbots es el ataque ATO, o Account Takeover (PAP), señaló el experto. Después de tomar el control de la cuenta, el ciberdelincuente puede obtener acceso a datos del historial de conversaciones del usuario, por ejemplo: nombre, apellido, número de teléfono, número de tarjeta de crédito, si lo ingresó accidentalmente o lo compartió en algún documento, advirtió Chrobok. Las investigaciones demuestran que los modelos almacenan este tipo de información y, si se entrenan con ella, no se puede borrar fácilmente. También existen formas de extraer estos datos de un chatbot, señaló el experto.
Agregó que algunas empresas permiten a los usuarios desactivar la opción de guardar el historial o entrenar un modelo en sus datos. "Para información muy sensible, lo más seguro es instalar un modelo local en su dispositivo o servidor. Así, hay mayor probabilidad de que nuestros datos no se filtren", enfatizó.
Chrobok señaló que los datos recopilados también pueden utilizarse para crear anuncios perfilados. Imaginemos que tenemos un mal día o sufrimos de depresión, obesidad u otro problema, y los anunciantes usan esta información para influir en nuestras decisiones de compra, lo cual no necesariamente nos beneficiará. Aquí entramos en el mundo gris de la manipulación. Lo que creemos que sería bueno para nosotros no necesariamente lo es para los creadores de modelos de IA y las empresas que optimizan sus ganancias, evaluó.
Según el experto, el nivel de protección de los datos del usuario puede verse influenciado por el país de origen del chatbot. «DeepSeek, una empresa china, crea modelos excelentes como el r1, pero está bloqueado en muchos lugares porque, según la ley china, sus creadores deben proporcionar datos de los usuarios a las autoridades, y estas pueden, por ejemplo, entregárselos a los servicios», señaló. Puso como ejemplo una situación hipotética en la que un funcionario estadounidense escribe a un chatbot chino y le cuenta sus problemas con su familia o sus negocios. "La información recopilada podría ser utilizada por China para reclutar a esta persona como espía o para ejercer influencia de alguna otra manera. Creo que, al revelar nuestras debilidades, somos más susceptibles a la manipulación en una situación como esta", enfatizó.
Chrobok señaló que las investigaciones muestran que los modelos reflejan las opiniones de sus creadores. "Por ejemplo, el DeepSeek chino tiene un tono negativo (tono del contenido generado - PAP) al hablar de los soldados estadounidenses, y los modelos de OpenAI tienen exactamente lo contrario", señaló y agregó que "cada modelo es una cierta burbuja de información". "No son neutrales, aunque algunos creadores intenten que lo sean. Conviene recordarlo", enfatizó.
Cuando se le preguntó sobre la seguridad de utilizar chatbots como apoyo emocional o terapeuta, como hacen algunos usuarios, el experto recordó una situación ocurrida en 2023 en Bélgica. Un hombre que estaba muy consciente de los problemas que rodean el calentamiento global estaba escribiendo sobre ello con un chatbot. En un momento, la IA le dijo que si quería reducir la cantidad de CO2 que generaba, lo mejor sería que no existiera, por lo que el hombre se quitó la vida. Fue el primer suicidio registrado después de una conversación con inteligencia artificial, señaló el experto.
"Esto es un extremo, pero muestra las amenazas que podemos enfrentar cuando pedimos consejo a la IA y compartimos con ella nuestro estado mental y nuestras opiniones. Las respuestas que proporciona se basan en estadísticas, lo que significa que no siempre serán precisas. Gracias al avance de la tecnología, son cada vez más así, lo que significa que confiamos más en ellas, y esto puede disuadirnos", señaló, y añadió que cuanto más especializado es el tema, más erróneos —al menos por ahora— son los modelos de inteligencia artificial.
"Esto se puede mejorar significativamente con métodos técnicos como la Investigación Profunda (método avanzado de análisis de información, PAP), pero no todos saben cómo utilizarlos. Por eso, insto a ser escépticos con respecto al contenido generado por chatbots", enfatizó el experto.
Cuando se le preguntó sobre los riesgos asociados a los chatbots en el lugar de trabajo, Chrobot dio un ejemplo de 2023, cuando un empleado de Samsung subió una presentación con datos secretos a ChatGPT, que posteriormente se filtró y podría haber sido obtenida por la competencia. Muchas empresas y directivos temen esto y, a veces, prohíben por completo a sus empleados el uso de inteligencia artificial. En mi opinión, no es una buena solución», afirmó el educador. Según él, sin esta tecnología, las empresas serán menos competitivas. "Sólo hay que saber utilizarlo con seguridad", señaló.
Según Chrobok, el proceso de implementación segura de la IA en las empresas debería comenzar con el desarrollo de la "higiene de la IA", es decir, la formación de los propios superiores y luego de los empleados. "En segundo lugar, las medidas técnicas son importantes", señaló, explicando que existe todo un campo de soluciones llamado Prevención de Fugas de Datos en el que los empleadores pueden invertir. Esto incluye, por ejemplo, modelos que evalúan qué datos pueden salir de la empresa y cuáles no. El experto señaló que cada organización también debe tener reglas para el uso de IA, que especifiquen, por ejemplo, qué datos se pueden subir a un chatbot, cuáles son sensibles y cuáles deben marcarse como generados mediante inteligencia artificial, porque, por ejemplo, así lo exige la ley.
Cuando se le preguntó si, en su opinión, a pesar de los riesgos, la inteligencia artificial debería implementarse en todas las empresas, el experto afirmó que obligar a todos los empresarios a utilizar IA sería "inhumano". "Pero es mejor conocer esta tecnología porque puede ayudarte a orientarte en el mercado laboral o agilizar el trabajo en sí para que haya menos y sea más efectivo", dijo.
"Estamos en un momento que algunos llaman evolución, revolución o usan otras palabras grandilocuentes. Todavía no es el momento en que la IA nos supere, aunque en algunos aspectos ciertamente lo es", señaló. Destacó que la inteligencia humana es limitada. "Los modelos de IA también tienen sus limitaciones y amenazas, pero son cada vez más precisos y en el futuro superarán a los humanos. Nuestras habilidades y capacidades simplemente serán más débiles", afirmó.
Señaló que le preocupa el enfoque de algunas empresas hacia los empleados en relación con el correo electrónico filtrado del director ejecutivo de una determinada empresa, en el que escribió que "antes de contratar a un humano, pruebe algunos modelos de IA". Quizás este sea el futuro que nos espera, si no surgen otras soluciones. A pesar de todo, soy partidario de implementar la inteligencia artificial para mejorar nuestro trabajo. Hablar de una "moda pasajera" o de un "boom de la IA" es, en mi opinión, pasar por alto un momento importante", enfatizó Chrobok.
Monika Blandyna Lewkowicz (PAP)
mbl/ mick/ mhr/
bankier.pl