IA y privacidad. ¿Quién cuida de nuestros datos?

Cómo la batalla por la supremacía tecnológica nos afecta directamente como usuarios.

En los últimos años, hemos visto cómo la inteligencia artificial ha dejado de ser algo de ciencia ficción para convertirse en una parte esencial de nuestras vidas. Desde modelos conversacionales como ChatGPT hasta herramientas avanzadas como Gemini o Copilot, este campo no para de evolucionar. Pero ahora, un nuevo jugador ha irrumpido en el tablero: DeepSeek, una IA desarrollada en China que está causando revuelo en el mundo tecnológico.

Más allá de sus capacidades, la llegada de DeepSeek reaviva un debate que trasciende lo tecnológico: la carrera entre Estados Unidos y China por dominar el futuro de la inteligencia artificial. Una carrera que no solo define quién liderará en innovación, sino también quién controlará la inmensa cantidad de datos que estas tecnologías generan y procesan.

Hoy vamos a explorar cómo esta batalla por la supremacía tecnológica nos afecta directamente como usuarios, poniendo el foco en los riesgos, desafíos y dilemas éticos que plantea la inteligencia artificial en el contexto de una guerra geopolítica que ya está en marcha.


¿Qué pasa con nuestros datos?

Vivimos en un mundo donde las inteligencias artificiales como ChatGPT, DeepSeek, Copilot (de Microsoft) y Gemini (de Google) son nuestras aliadas para resolver dudas, ayudarnos con tareas creativas o programar líneas de código. Todas son impresionantes, pero tienen algo en común: dependen de nuestros datos para entrenarse y ofrecer sus servicios. Y aquí es donde empiezan las preocupaciones.

Todas estas IA recopilan datos para mejorar sus modelos, pero las diferencias aparecen en cómo y dónde se almacenan esos datos.

“Bando de EEUU”

Las compañías norteamericanas están sujetas a leyes como el Cloud Act, que permite al gobierno acceder a datos de usuarios bajo ciertos pretextos, como la seguridad nacional.

Aunque OpenAI asegura que los datos recopilados no se utilizan para identificar usuarios, existe el riesgo de que las leyes estadounidenses obliguen a entregar información sensible.

Por otro lado, Gemini, como parte del ecosistema de Google, tiene unas políticas de privacidad que están profundamente ligadas a la de su compañía matriz, que ya ha sido criticada en el pasado por la cantidad de datos que recopila de los usuarios.

“Bando de China”

Los servidores de DeepSeek están en China, lo que significa que opera bajo normativas de ese país. Esto genera inquietudes sobre el acceso que el gobierno chino podría tener a los datos de los usuarios, especialmente dada su estricta regulación sobre el control de la información. Esto ya ha sucedido con TikTok y recientemente hemos visto el problema que se ha generado con esta aplicación en EEUU.

En todos estos casos, la gran pregunta es: ¿qué tan seguros están nuestros datos si los gobiernos deciden intervenir?


El papel de los gobiernos y la privacidad

Aquí entramos en terreno delicado. Tanto Estados Unidos como China tienen historiales que justifican preocupaciones sobre el uso de datos personales bajo el pretexto de la seguridad nacional:

  • Estados Unidos: Con leyes como el Patriot Act y el Cloud Act, las empresas tecnológicas pueden ser obligadas a entregar información al gobierno, incluso si los datos pertenecen a ciudadanos de otros países. Esto ya ha generado críticas, especialmente de gobiernos europeos, que exigen garantías de privacidad más estrictas.
  • China: DeepSeek no está libre de críticas. En China, las leyes exigen que las empresas compartan datos con las autoridades cuando sea solicitado, lo que plantea dudas sobre la confidencialidad de la información.

En resumen: no importa si usas una IA en EE. UU. o en China, en ambos casos puede haber vulneraciones a tu privacidad. La diferencia radica en cómo cada país maneja la narrativa: mientras EE. UU. apela a la seguridad nacional, China lo hace bajo el pretexto del control estatal.


¿Qué preocupaciones debemos tener?

Los riesgos asociados al uso de estas tecnologías no son ciencia ficción. Aquí van algunos ejemplos claros:

  1. Vigilancia masiva: Los gobiernos podrían acceder a las interacciones que tienes con estas IA para monitorizar tus actividades, incluso sin avisarte.
  2. Pérdida de autonomía: Si las IA están reguladas por normativas restrictivas, podrías estar accediendo a información manipulada o censurada.
  3. Brechas de seguridad: Si estas plataformas sufren hackeos, tus datos personales (o incluso proyectos de trabajo, en el caso de herramientas como Copilot) podrían quedar expuestos.
  4. Uso indebido de datos: Incluso las empresas tecnológicas pueden aprovechar los datos recopilados para fines comerciales que no siempre son transparentes.

¿Qué podemos hacer como usuarios?

Aunque los usuarios individuales no podemos controlar las leyes internacionales, sí podemos tomar medidas para protegernos:

  • Lee las políticas de privacidad: Aunque sea aburrido, entender cómo se manejan tus datos te da herramientas para decidir qué compartir.
  • Usa versiones locales o empresariales: Herramientas como ChatGPT tienen opciones avanzadas (de pago) que “supuestamente” no almacenan datos, recomendables para mayor privacidad.
  • Limita lo que compartes: No introduzcas información personal o sensible en estas plataformas.
  • Contrasta la información: La información que te devuelve una IA no siempre es cierta. Recuerda que la IA está entrenada por datos y por personas que generan, aunque no lo quieran, un sesgo en la información (este efecto se llama “machine bias”).
  • Investiga herramientas alternativas: En Europa, por ejemplo, se están desarrollando IA bajo el marco del GDPR, con mayor énfasis en la protección de datos.

REFLEXIÓN FINAL

La inteligencia artificial es una herramienta maravillosa que está cambiando nuestras vidas, pero también debemos entender los riesgos que conlleva. Con independencia de cuál uses, la privacidad siempre debe estar en el centro de tu experiencia.

Como usuarios, tenemos la responsabilidad de informarnos y protegernos, porque en el mundo digital, la seguridad de nuestros datos es tan importante como nuestra propia identidad. Así que, la próxima vez que uses una IA, pregúntate: ¿realmente necesito compartir esta información? Porque, como siempre decimos: tu privacidad vale más que cualquier respuesta rápida.


Escúchanos en nuestra sección en COPE Cantabria

Extracto del programa Mediodía COPE en Cantabria. Puedes escuchar el programa completo aquí.

cibercantabria
cibercantabria