Desde hace un tiempo, la inteligencia artificial ha pasado de ser una simple herramienta a convertirse en una forma de conversación entre personas y máquinas. Ahora, OpenAI ha anunciado que ChatGPT permitirá tener conversaciones con contenido erótico. Esto ha abierto un nuevo debate: ¿hasta qué punto es seguro usar la IA para hablar de temas íntimos?
La Autoridad Vasca de Protección de Datos (AVPD) ha querido advertir sobre los posibles riesgos que esto puede tener para la privacidad de las personas.
“No podemos ser libres si no controlamos nuestros datos”
El presidente de la AVPD, Unai Aberasturi Gorriño, recuerda que “en el entorno digital no podemos desarrollar nuestra personalidad con libertad si no controlamos lo que sucede con nuestros datos”. Según explica, el problema es que este tipo de conversaciones puede llevar a compartir información personal sin darnos cuenta.
Por ejemplo, para poder hablar de temas eróticos con un chatbot, es muy probable que la aplicación pida confirmar que somos mayores de edad. Y esto puede implicar dar datos personales, incluso datos biométricos, como la huella facial o dactilar.
Aunque existen métodos para verificar la edad sin recopilar datos, Aberasturi alerta de que “la posibilidad de que se relacionen esos datos con conversaciones concretas de contenido íntimo abre la puerta a que, ante una filtración, terceros accedan a información sensible y personal de las personas usuarias”.
Las huellas que dejamos al chatear
Otro aspecto importante que señala la AVPD es que nuestras interacciones con una IA no son anónimas. Cada vez que usamos estas herramientas, dejamos una “huella digital” que puede incluir nuestra IP, historial, metadatos, patrones de conversación e incluso el contenido de lo que decimos.
Esto puede usarse para entrenar a la propia inteligencia artificial o para hacer perfiles sobre nosotros. Y si encima hablamos de cosas íntimas, el riesgo es mayor.
Un desarrollo tecnológico responsable
Por todo esto, desde la AVPD insisten en que el desarrollo de estas tecnologías debe hacerse de forma ética y respetando la dignidad de las personas. Las herramientas como ChatGPT deben dejar claro qué datos van a recoger, para qué los van a usar y respetar siempre los derechos de quienes las usan.
“La construcción de una sociedad digitalizada en términos democráticos exige que la privacidad sea protegida en todo caso, más cuando se utilizan tecnologías disruptivas como la IA”, concluye Aberasturi.





