top of page

11.09.2025: Regulación y tecnologías digitales como palancas de poder-discurso

  • Foto del escritor: Jorge Alberto Hidalgo Toledo
    Jorge Alberto Hidalgo Toledo
  • 11 sept
  • 6 Min. de lectura
ree

Introducción

Hoy, jueves 11 de septiembre de 2025, emergen tres tendencias centrales que delinean el escenario contemporáneo de la comunicación digital, la ética tecnológica y la gobernanza política‑jurídica de la innovación. Cada una evidencia cómo los discursos, las leyes y las infraestructuras tecnológicas ya no son dominios separados sino entrañados en la trama del poder simbólico, económico y humano.

1. El endurecimiento regulatorio de la publicidad digital y adtech como forma de redistribución comunicativa

La multa impuesta por la Comisión Europea a Google —€2.95 mil millones por prácticas anticompetitivas en su negocio de adtech (advertising technology) — no es sólo un choque económico para la empresa entera; es una señal política, cultural y ético‑comunicativa de que los gigantes tecnológicos están siendo desafiados en su papel de mediadores únicos de la publicidad digital, y por ende, de la visibilidad, de la agenda informativa y de la economía de la atención. Reuters

Socialmente, esta sanción reconfigura lo que entendemos por competitividad digital justa: ya no basta la escala y el capital para dominar la publicidad y la monetización, sino que se exige transparencia, apertura de mercado y equidad entre editores. Culturalmente, este acto regula lo que se ve, quién lo ve y mediante qué lógicas — afectando identidad simbólica, diversidad de voces, posibilidad de narrativas emergentes. Éticamente, se planta la idea de que el control de la visibilidad mediática no puede concentrarse sin responsabilidad; que los algoritmos y las plataformas no son entidades neutrales, sino con poder de repartir lo público y lo privado.

Económicamente, se abre una ventana para medios menores, editores locales, plataformas emergentes, quienes pueden beneficiarse si se nivelan las condiciones de adtech; políticamente, refuerza el papel regulador del Estado y de organismos supranacionales frente a empresas transnacionales que trascienden fronteras.

2. El debate sobre el escaneo forzoso de comunicaciones cifradas (“Chat Control”) y su tensión ética en democracia

Más de 500 criptógrafos y expertos firmaron una carta abierta rechazando una propuesta de la Unión Europea para obligar a aplicaciones de mensajería —como WhatsApp— a escanear mensajes cifrados para detectar material de abuso sexual infantil (CSAM). La preocupación principal no es sólo técnica (las vulnerabilidades que se generan al debilitar cifrado), sino política, antropológica y cultural: la privacidad como derecho humano, la autonomía del sujeto digital, la esfera íntima que precede a lo público, se ven amenazadas. TechRadar

Esta propuesta, apodada “Chat Control”, muestra la tensión entre la demanda moral y social de seguridad y protección —especialmente de menores—, con los principios de confidencialidad, de due process y de no crear mecanismos que puedan usarse para vigilancia masiva o represión. Tanto las culturas digitales como las democracias se juegan aquí: si la protección es excusa para controlar, se erosiona la confianza, se debilita la ciudadanía.

3. El Código voluntario para IA de propósito general de la Unión Europea y la resistencia corporativa

Europa publicó recientemente un Código de Prácticas (Code of Practice) voluntario para modelos de IA de propósito general, como complemento normativo al AI Act, con énfasis en transparencia, derechos de autor, seguridad y responsabilidad. AP News Sin embargo, corporaciones como Meta se niegan a firmarlo, aduciendo incertidumbre legal, sobrecarga regulatoria, e interpretaciones extensivas del Acta que podrían frenar la innovación. The Verge

Esto marca un momento ético‑político: la diferencia entre regulación obligatoria, normativa voluntaria, apuesta corporativa por autonomía regulativa, y la pugna por definir los límites del poder tecnológico. Culturalmente, el rechazo de actores relevantes revela tensiones entre valores públicos y la lógica de mercado; antropológicamente, obliga a preguntarse quién decide qué futuro de IA consideramos legítimo.

Estas tres tendencias se interrelacionan: la sanción adtech toca visibilidad y economía de medios; “Chat Control” toca lo íntimo y lo democrático; el Código IA apunta a los roles de poder entre empresas, reguladores y ciudadanos. Juntas configuran un triángulo ético: ¿quién controla qué se ve, quién puede hablar, quién regula al regulador? La comunicación ya no es sólo un flujo de mensajes, es una infraestructura normativa, simbólica y tecnológica cuya legitimidad se disputa.

Como investigadores y educadores en comunicación, la tarea no es solo describir estos procesos, sino intervenir: proponer marcos éticos robustos, mecanismos de rendición de cuentas, alfabetizaciones reguladoras que permitan ciudadanías digitales efectivas. Porque si dejamos esta novela del poder tecnológico solo en manos de corporaciones y Estados, perderemos lo que constituye lo humano: privacidad, agencia, diversidad.

Otras doce tendencias relevantes

  • Digital twins sociales aplicados en salud comunitaria: Uso creciente de societal digital twins (gemelos digitales sociales) para modelar brotes epidemiológicos, políticas de salud pública, mitigación de pandemias. Se relaciona con la ética de datos que también aparece en Chat Control. Nature

  • Implicaciones éticas del “gemelo digital humano”: Modelos humanos digitales que representan individuos completos (identidad, salud, comportamiento) generan debates sobre autonomía, consentimiento informado, alienación del sujeto. Conecta con transparencia y poder. SpringerOpen

  • Estándares para IA de propósito general (GPAI) y los borradores de directrices de la UE: Definición de qué significa IA de propósito general, cómo se regula, cómo se rinde cuentas. Refuerza necesidad de claridad legal denunciada por Meta. Artificial Intelligence Act

  • Comparativa entre normativa de IA en EE. UU. y UE respecto a derechos humanos y regulaciones de alto riesgo: Diferencias en prioridades: libre innovación vs garantía de derechos. Ejercicio político de modelos regulativos. Carnegie Endowment+1

  • Aplicabilidad del AI Act a la investigación académica: Investigación que subraya que muchas prácticas científicas caen bajo obligaciones del AI Act, lo cual puede frenar la innovación si no hay claridad legal. arXiv

  • Infraestructura de datos y giros tecnológicos hacia soberanía digital: Iniciativas en UE para centros de datos, “AI gigafactories”, menor dependencia de infraestructuras extranjeras. Relacionada con regulación adtech pues requiere infraestructura para sostener transparencia y control. Wikipedia

  • El crecimiento del Derecho al olvido, protección de datos y consentimiento explícito: A la luz de los casos de uso de datos públicos para entrenar modelos de IA sin consentimiento. Se enlaza con la polémica de entrenamiento de modelos como Grok. Reuters

  • Ética del diseño algorítmico y dark patterns: Propuestas como la Digital Fairness Act de la UE que buscan prohibir prácticas engañosas; necesaria para transparencia regulativa. Wikipedia

  • Riesgo de abuso administrativo y vigilancia institucional: Leyes como “Chat Control” levantan preocupaciones sobre function creep, sobrerreacción estatal, vigilancia injustificada. TechRadar

  • Fact‑checking impulsado por IA y políticas públicas en medios democráticos: Estudios en Alemania y Ucrania muestran que la IA puede auxiliar contra la desinformación, pero sin políticas claras sigue habiendo sesgos y riesgos de dependencia tecnológica. arXiv

  • Rol de actores corporativos en negociación regulativa global: Empresas como Meta eligiendo no adherirse al Código de Prácticas, lo que indica capacidad de lobby, agencia empresarial fuerte, modelo de comunicación corporativa como actor político. The Verge

  • Desigualdad geopolítica en innovación regulativa: Países con menos recursos regulatorios o legales corren el riesgo de quedar sujetos a estándares extranjeros impuestos por plataformas globales. Se conecta con la soberanía digital, con el adtech, con el control de datos.

Análisis predictivo (300‑500 palabras)

Partiendo del conjunto de tendencias observadas, pueden identificarse distintos escenarios potenciales que podrían materializarse en los próximos seis a doce meses. Estas proyecciones no buscan certidumbre sino abrir futuros posibles, para mejorar nuestra capacidad ética, política y comunicativa frente a lo que viene.

Horizonte inmediato (3‑6 meses)

  • Se intensificará la presión sobre plataformas globales para que se adapten a regulaciones multijurisdiccionales: adtech será objeto de nuevas demandas legales en otros espacios regulatorios, no solo en la UE.

  • Es probable que leyes como Chat Control avancen en su tramitación; mientras tanto, las resistencias técnicas y éticas continuarán, posiblemente provocando alianzas entre ONG, organizaciones de derechos digitales y medios para monitorear abusos, presentar litigios estratégicos, defender cifrado y privacidad.

  • Corporaciones tecnológicas buscarán estrategias de compliance, participación voluntaria en códigos de práctica (o reivindicación de ellos), pero también tácticas para minimizar obligaciones legales: acuerdos privados, conformación de estándares internos, presiones sobre los procesos normativos.

Horizonte mediano (6‑12 meses)

  • Podríamos ver reformas legales que combinen obligaciones reguladoras obligatorias con incentivos (económicos o fiscales) para quienes adopten formas transparentes y éticamente responsables de IA y publicidad digital.

  • La infraestructura de datos se volverá aún más central: los estados que quieran asegurar soberanía digital invertirán en centros de datos nacionales, capacidades regulatorias en IA, y esquemas de auditoría independientes.

  • Aumentará la litigiosidad en materia de derechos de autor, uso de datos para entrenamiento de modelos, protección de privacidad, con casos judiciales emblemáticos que definan precedentes en distintos continentes.

Hipótesis evolutivas

  1. Regulación híbrida de IA como estándar global: un modelo que combina lo obligatorio y lo voluntario, lo técnico y lo ético, regulaciones de alto riesgo versus libertad regulada para usos benignos.

  2. Empoderamiento ciudadano regulador: ciudadanos y colectivos asumirán roles de vigilancia, mediante herramientas técnicas (transparencia de algoritmos, auditorías ciudadanas), convirtiéndose en interlocutores de reguladores y empresas, generando un nuevo contrato social digital.

  3. Medios y plataformas como bienes públicos simbólicos: la publicidad digital, la visibilidad en redes, la capacidad de difusión serán consideradas bienes públicos o servicios de interés general, con regulación pública más fuerte, transparencia en algoritmos que priorizan qué se ve y quién lo ve.

Impacto en comunicación y entretenimiento

Si estas tendencias se consolidan, la comunicación se desplaza de los medios como “mercado de audiencias” al paradigma de “derechos de audiencia”: quién tiene acceso, quién controla los flujos, quién garantiza autenticidad y responsabilidad. En entretenimiento, la producción de contenidos requerirá mayor conciencia del origen de los datos, las prácticas éticas en IA generativa, respeto al copyright, cuidado con la privacidad en experiencias inmersivas (realidad virtual, gemelos digitales). Se redefine la creación como acto moral y político, no solo estético y comercial.

Comentarios


bottom of page