top of page

Carta de navegación para una existencia digital digna: Derechos digitales e IA

  • Foto del escritor: Jorge Alberto Hidalgo Toledo
    Jorge Alberto Hidalgo Toledo
  • 19 sept
  • 6 Min. de lectura
ree

Dr. Jorge Alberto Hidalgo Toledo, Human & Nonhuman Communication Lab, Facultad de Comunicación, Universidad Anáhuac México.


Una pantalla no es un espejo: es un territorio. Si entramos en él sin brújula, la promesa de conectarnos podría tornarse un sutil despojo —de tiempo, de atención, de memoria, de voz. Por eso hoy propongo algo más que protocolos y “buenas prácticas”: propongo un borrador de un mapa moral, jurídico, epistémico y espiritual para habitar el ecosistema algorítmico con dignidad, sin renunciar a la creatividad, la justicia y la esperanza.


Topología del hecho: qué está realmente en juego

La inteligencia artificial y la vida digital no impactan una sola dimensión; atraviesan lo privado y lo público, lo íntimo y lo colectivo, lo económico, lo legal, lo cultural y lo ecológico. Su potencia se alimenta de datos —con frecuencia personales— y opera mediante modelos cuya complejidad oscurece razones y responsabilidades. De ahí las preocupaciones centrales:

  • Privacidad y protección de datos: la extracción masiva, el consentimiento real, la rectificación y supresión, la vigilancia y la biometría.

  • Sesgo algorítmico y discriminación: datos entrenados con desigualdades reproducen desigualdad en crédito, empleo, justicia y salud.

  • Transparencia, explicabilidad y rendición de cuentas: “cajas negras” que deciden sin posibilitar una explicación comprensible, ni delimitar con claridad la responsabilidad legal.

  • Propiedad intelectual: obras generadas por IA y entrenamiento con contenidos protegidos; reconocimiento y protección de autorías humanas.

  • Gobernanza y marco legal: marcos éticos y normativos (p. ej., recomendaciones internacionales y leyes sobre IA), supervisión humana y orientación a la dignidad y al bien común.

  • Desde ahí, los derechos digitales —extensión de los derechos humanos al entorno hiperconectado— se expresan hoy como un haz inseparable: privacidad, libertad de expresión, acceso e inclusión, derecho al olvido, seguridad digital, desconexión laboral, neutralidad de la red y derechos frente a la IA y la algoritmia (explicabilidad, supervisión humana, no discriminación). No son un inventario decorativo: son las costillas de una ciudadanía digital que debe respirar sin asfixiarse.

  • Arquitecturas de sentido: de la norma al habitar


Para no naufragar en la enumeración, ordeno el conjunto en cuatro ejes —acceso, uso, consumo y apropiación— sostenidos por tres principios transversales: existencia digital digna, soberanía de identidad y convivencia justa. Cada eje despliega derechos, salvaguardas y alfabetizaciones concretas.

1) Acceso: justo, libre, equitativo y digno

El acceso no es solo conectividad: es justicia distributiva en infraestructura y dispositivos; neutralidad de la red; accesibilidad para personas con discapacidad; pertinencia cultural y lingüística; y no canje de derechos por servicios. Un acceso digno no exige renunciar a la privacidad ni al propio marco de valores.

  • Derecho a un acceso justo, libre y equitativo: cerrar la brecha en lo rural y urbano; tecnologías accesibles; políticas de calidad y asequibilidad.

  • Derecho a una tecnología sostenible: huella energética y de materiales de la IA; centros de datos eficientes; economía circular de hardware.

Alfabetización asociada: civismo digital (lectura crítica de términos de servicio), eco-alfabetización (impacto ambiental de lo digital) y competencias de accesibilidad (diseño universal).


2) Uso: autonomía, explicabilidad, descanso

En el uso, la IA debe ser herramienta para la decisión humana, no sustituto irresponsable.

  • Derecho a la autonomía humana sobre la IA: ninguna decisión crítica solo por algoritmo; posibilidad de revisión humana.

  • Derecho a la explicabilidad y auditoría: razones comprensibles para toda persona afectada y auditorías independientes de sistemas de alto riesgo.

  • Derecho a la desconexión y al descanso mental: límites a la hiperdisponibilidad laboral y a las arquitecturas de captura de atención.

  • Derecho a la atención no manipulada: diseño que no explote vulnerabilidades psicológicas ni optimice adicción, polarización o desinformación.

  • Derecho a la formación y reconversión en el trabajo, y derecho a la negociación colectiva frente a automatización.

Alfabetización asociada: pensamiento algorítmico crítico (entender por qué recomienda lo que recomienda), higiene atencional (gestión de notificaciones, pausas, tiempos), derechos laborales digitales (sindicalización frente a automatización).


3) Consumo: bienestar, verdad, sostenibilidad

Consumir tecnología es interactuar con plataformas que moldean percepciones, emociones e identidades.

  • Derecho al diseño ético por defecto: “privacy/ safety by design” y wellbeing by design en lugar de “time-on-platform”.

  • Derecho a la soberanía de datos personales: portabilidad, control granular, posibilidad de beneficiarse del propio dato.

  • Derecho a información veraz y deliberación de calidad: transparencia de sistemas de recomendación; frenos a la infodemia y a la manipulación política.

  • Derecho al consumo tecnológico sostenible: información veraz sobre huella ecológica; derecho a reparación y a cadenas de suministro responsables.

  • Derecho a desintoxicación digital: herramientas y políticas públicas para prácticas saludables.

Alfabetización asociada: economía de la atención (reconocer incentivos), info-alfabetización (verificación, trazabilidad), consumo responsable (reparar, reutilizar, reciclar).


4) Apropiación: identidad, memoria, comunidad

Aquí la tecnología deja de ser instrumento y se vuelve parte del “sí mismo”. Aparecen luces —creatividad, comunidad— y sombras —fandom sectario, polarización, extremismo, banalización del mal, desinformación, soledad, ansiedad digital.

  • Derecho a identidad digital y pertenencia sin ser arrastrados por algoritmos hacia la radicalización; derecho a información diversa y equilibrada contra burbujas y cámaras de eco.

  • Derecho a la dignidad humana en el ciberespacio: no trivializar el sufrimiento, no humillar, no degradar.

  • Derecho a la memoria digital: preservar contexto histórico y cultural —que el archivo no sea reescrito por la viralidad.

  • Derecho a la transparencia de la IA generativa: reconocer cuando un texto, imagen o video es sintético; trazabilidad y etiquetas robustas.

  • Derecho al bienestar psicoemocional: límites al “scroll infinito”, a la explotación de vulnerabilidades; espacios para la atención profunda y el sentido.

Alfabetización asociada: ética de la imagen (lo que mostramos del dolor ajeno), memoria y archivo (cuidado del contexto), cuidado de sí (tecnologías de la sobriedad digital).


Dos constelaciones para pensar-habitar

A) Derecho a la existencia digital digna

Cimiento de todo: tecnologías al servicio de la persona, no a la inversa. Implica acceso de calidad, tecnología sostenible, autonomía cognitiva frente a diseños que explotan sesgos. Aquí resuena la advertencia de Hannah Arendt: “El mal puede volverse banal cuando dejamos de pensar". Pensar —y hacer pensar a las máquinas con criterios humanos— es el antídoto.


B) Soberanía del ser y justicia colectiva

Control sobre la propia identidad, no reducción a un perfil de datos; decisiones explicables; reconocimiento y protección de autorías; y un espacio público que fomente deliberación de calidad. Jürgen Habermas reclama condiciones para un discurso racional en el que quepan todas las voces. En clave digital eso exige transparencia algorítmica, pluralidad informativa y reglas comunes.


Los nodos a conectar: todos los derechos, sin dejar uno fuera

Privacidad y protección de datos: control sobre recopilación, uso, almacenamiento y compartición; acceso/rectificación/supresión; límites a vigilancia y biometría.

  • Libertad de expresión: expresión sin censura previa ni represalias, equilibrada con derechos a honor y seguridad.

  • Acceso a internet e inclusión digital: equidad y asequibilidad para todas las personas, con accesibilidad plena.

  • Derecho al olvido: supresión de información personal no pertinente o excesiva cuando no prima el interés público.

  • Seguridad digital: cifrado, autenticación robusta, medidas anti-phishing, prevención de ciberacoso.

  • Desconexión digital (ámbito laboral y vida común): proteger descanso y salud mental.

  • Neutralidad de la red: trato igualitario del tráfico sin bloqueo, discriminación ni ralentización anticompetitiva.

  • Derechos frente a la IA y la algoritmia: explicabilidad, supervisión humana, no discriminación, auditorías y responsabilidad legal claramente atribuible.

  • Derechos culturales y de autoría: reconocimiento de autoría humana, regulación justa del entrenamiento de modelos con obras protegidas.

  • Soberanía de datos: portabilidad, control granular, posibilidad de beneficio legítimo del propio dato.

  • Transparencia de IA generativa y etiquetado de contenidos sintéticos.

  • Diseño ético por defecto y no manipulación atencional.

  • Consumo tecnológico sostenible y derecho a reparación.

  • Memoria digital y dignidad en el trato de imágenes del dolor.

  • Formación y reconversión para el trabajo con IA; negociación colectiva ante automatización.


Alfabetización: defensa activa y cultura común

Defender estos derechos no es un acto ocasional: es una alfabetización permanente que combina cinco dimensiones:

  1. Crítica y epistémica: identificar sesgos, exigir explicaciones, validar fuentes, leer métricas y modelos como textos políticos.

  2. Ética y jurídica: conocer derechos y vías de reparación; distinguir responsabilidad de desarrolladores, implementadores y usuarios.

  3. Ecológica y material: medir huellas, elegir sobriedad tecnológica, prolongar la vida útil de dispositivos.

  4. Comunicacional y mediática: deliberar con reglas, practicar desacuerdo honesto, resistir la espectacularización del mal.

  5. Antropológica y espiritual: custodiar la interioridad, el tiempo lento, la memoria común y el sentido.


Byung-Chul Han advierte que una “psicopolítica” que explota la libertad subjetiva puede convertir la autoexpresión en autoexplotación. Responder exige instituciones y ciudadanía capaces de diseñar límites y cultivar hábitos: no todo lo que puede hacerse debe hacerse; no todo lo que capta atención merece nuestro tiempo.


La técnica, escribió Simone Weil, vale en la medida en que “obedece a la verdad y a la justicia”. El desafío no es menor: asegurar que cada línea de código, cada interfaz y cada política de datos se ordenen a la dignidad y la convivencia. Si aceptamos este borrador como un primer mapa, ¿qué práctica concreta cambiarás hoy —en tu aula, en tu empresa, en tu diseño, en tu scroll nocturno— para que la pantalla vuelva a ser territorio de libertad y no frontera de despojo? El llamado es simple y arduo: activa tus derechos, aprende a defenderlos y construye con otros la cultura que los hará vivibles.

Comentarios


bottom of page