6.5.26

Hay chats privados de IA en abierto por internet: los crecientes riesgos para la privacidad de los principales chatbots


 Los chatbots de IA se han convertido en apenas unos años en un parte central de internet. Con su uso masivo, ha aparecido también el gran pecado original para la privacidad: la publicidad y su rastreo para conocer mejor los gustos y debilidades de cada usuario. Una nueva investigación revela que ChatGPT, Claude, Grok y Perplexity emplean distintos tipos de rastreadores de Meta, Google, TikTok y otras compañías. Esas herramientas son las que siguen nuestra navegación por la web para conocernos mejor: ahora además tendrán en distintos grados acceso a nuestros chats privados con la IA.

“Los modelos de lenguaje transformarán cómo las personas interactúan con los servicios online y hacen sus tareas cotidianas, trabajan o compran”, dice Narseo Vallina, investigador de Imdea Networks y uno de los coautores del trabajo. “Nuestros hallazgos sugieren que, aunque los modelos de monetización todavía están evolucionando, los proveedores de IA están adoptando los modelos de negocio tradicionales de la tecnología publicitaria”, añade.

El mayor riesgo que ha encontrado la investigación es links a chats completos en abierto de Grok y Perplexity, palabra por palabra. La recopilación de información que hacen las empresas de publicidad con acceso a estos chatbots incluye un montón de detalles. Uno de ellos es el link de la conversación. En algunos casos, quien tuviera acceso a ese enlace tenía acceso a la conversación completa, no solo al título o algún otro detalle, que es más habitual: “En Grok o Perplexity, hasta el 3 de abril estos enlaces eran públicos por defecto [en esa fecha empezó un juicio contra Perplexity en EE UU precisamente por instalar rastreadores que transmiten las conversaciones de los usuarios a Meta y Google en tiempo real], de modo que cualquiera que conociera la dirección URL podía leer el intercambio entero, ya que no había ningún mecanismo de control de acceso. No tenemos evidencia de que un tercero haya leído el contenido de las conversaciones, pero el riesgo existe”, explica Guillermo Suárez-Tangil, también coautor e investigador de Imdea Networks.

No todas los chatbots tienen el mismo nivel de riesgo. En ChatGPT y Claude se comparte con terceros por ejemplo el título de cada conversación, lo que también revela información sobre la intención de la consulta, por ejemplo, preocupaciones médicas, fiscales, legales. EL PAÍS ha preguntado a OpenAI, Anthropic, Perplexity y xAI por su reacción a esta investigación pero no ha recibido por ahora ninguna respuesta.

Estas herramientas de rastreo son extremadamente comunes y han construido el modelo de negocio más exitoso de internet tal y como lo conocemos. Ahora, su irrupción en los chatbots de IA, que necesitan de manera urgente más ingresos, es una enorme señal de alerta: con lo que le contamos a la IA, el nivel de acceso a las vidas privadas y personalización de los anuncios subirá varios peldaños. Que todo sea tan nuevo y todo vaya tan rápido hace que la preocupación y la investigación sobre la amenaza para la privacidad haya sido hasta ahora escasa: “Es en parte porque la tecnología es genuinamente nueva y la conciencia sobre los riesgos no ha ido al mismo ritmo”, dice Aniketh Girish, también coautor e investigador de Imdea Networks. “En parte es la naturaleza humana: tendemos a confiar en las herramientas que nos parecen útiles y cercanas. La gente subestima el riesgo porque la interfaz parece una conversación y no una página web. Pero por debajo es la misma infraestructura publicitaria que nos ha estado rastreando durante 20 años”, añade.

Este riesgo debe ser más analizado aún si cabe desde Europa, donde el Reglamento de Protección de Datos protege a los usuarios ante este tipo de abusos: “La UE impone una forma muy concreta de informar, en especial en tratamientos de datos complejos así”, dice el abogado Jorge García Herrero, que ha colaborado en la investigación. “Estas cuatro empresas, en vez de cumplirlo, abusan de la complejidad de sus políticas de privacidad para aturdirnos con largos textos y conceptos genéricos, omitiendo el punto clave: que facilitan a gigantes de la publicidad personalizada los temas de tus conversaciones con sus chats de IA, y en algunos casos, el texto entero”, añade.

En la UE es peor aún

García Herrero cree que la advertencia de que nuestra información más íntima puede llegar a manos de la industria publicitaria merece la misma relevancia que el ubicuo “la IA comete errores” que aparece en todo chat para mitigar responsabilidades si las respuestas son erróneas.

Los investigadores de momento no han analizado las IA de compañías como Meta o Google porque tienen ya herramientas de analítica y publicidad y a la vez acceso a los chats. “Siempre ha quedado claro que el propio proveedor de IA procesa tus conversaciones, algo necesario para que el servicio funcione. Lo que muestra nuestra investigación es que empresas de publicidad de terceros como Meta y TikTok también reciben datos vinculados a esas conversaciones”, dice Suárez-Tangil. Cuando Google recopila datos a través de Gmail o Gemini, es el dueño del servicio. Lo que la investigación ha averiguado en este caso es distinto: rastreadores de terceros están integrados dentro de plataformas de IA que no les pertenecen, lo que les permite observar datos sensibles de usuarios ajenos.


ELPAIS

0 comments:

Publicar un comentario