top of page

23.09.2025: Escasez crítica de talento en ética y seguridad de la inteligencia artificial

  • Foto del escritor: Jorge Alberto Hidalgo Toledo
    Jorge Alberto Hidalgo Toledo
  • 24 sept
  • 8 Min. de lectura
ree

Introducción

El día de hoy, 23 de septiembre de 2025, emer­gen con particular fuerza tres tendencias que apuntan a tensionar el futuro de la comunicación digital, la gobernanza tecnológica y la justicia social. Se trata de fenómenos que no sólo exigen acciones técnicas, sino también reflexiones profundas sobre los valores que orientan nuestras sociedades. Las tres tendencias centrales identificadas son: (1) la escasez crítica de talento especializado en ética, seguridad y gobernanza de la inteligencia artificial; (2) la regulación emergente de la IA en América Latina con enfoque contextualizado y derechos humanos; y (3) el trabajo humano detrás del big data y la IA como factor estructural invisibilizado, especialmente en regiones vulnerables. A continuación analizo cada una en sus múltiples dimensiones.


Tendencia 1: Escasez crítica de talento en ética y seguridad de IA

Un reciente informe del AI Workforce Consortium, que incluye actores como Cisco, Google, Microsoft y SAP, revela que 78 % de los puestos de TI ya requieren habilidades en IA, pero detecta déficits fuertes en áreas especializadas como modelos de lenguaje, ingeniería de prompts, ética de la IA y seguridad de IA. IT Pro Este déficit amenaza la capacidad de las organizaciones de escalar tecnologías con responsabilidad, transparencia y protección ante riesgos emergentes.


Impacto social: Si no se corrige rápidamente, esta escasez profundiza desigualdades: las organizaciones con recursos podrán contratar expertos y cumplir estándares éticos, mientras que los medios, pequeños emprendimientos y actores regionales quedarán rezagados, con mayor riesgo de generar productos tecnológicos sin controles adecuados.

Antropológico: Se fragiliza la cultura técnica-ética como componente de la ciudadanía digital. La falta de formación especializada impide que comunidades medianas o locales participen con plena comprensión de cómo la IA modela identidades, narrativas, percepciones, prácticas culturales. Se gesta una brecha no solo de acceso, sino de comprensión de la “meta‑realidad” técnica que condiciona lo visible y lo creíble.


Ético: Surge un deber imperativo de formar, certificar, regular los roles que median en la creación de IA. Los expertos en ética y seguridad no deben ser entes ornamentales, sino actores fundamentales en diseño, implementación, auditoría. La responsabilidad institucional, académica y de políticas públicas se pone en primer plano.


Cultural: Las formas narrativas, los discursos públicos, los medios de comunicación exigirán mayor precisión técnica y sensibilidad ética. Ya no bastará con lo espectacular o lo viral; las audiencias exigirán transparencia en quién hizo el modelo, qué datos se usaron, cómo se garantiza la seguridad, la privacidad.


Económico: Hay escasez de oferta formativa especializada; demanda creciente presiona salarios, certificaciones, recursos institucionales. Organizaciones invertirán en repostes de talento, capacitación, partnerships academia‑industria. Al mismo tiempo, el riesgo para quienes no cuenten con ese talento es perder competitividad.


Político: Los gobiernos deberán diseñar políticas educativas, de incentivos fiscales, estándares regulatorios que exijan verificación de competencias en ética/securidad para proyectos de IA. Esta escasez se convierte en asunto de interés público: no sólo tecnológico, sino de seguridad nacional, derechos humanos, justicia social.


Tendencia 2: Regulación emergente de la IA en América Latina con enfoque contextualizado

La región latinoamericana vive un momento de efervescencia legislativa en materia de inteligencia artificial. Países como Chile avanzan con proyectos de ley que buscan equilibrar innovación y ética, con debates públicos sobre infraestructuras, derechos, transparencia. Latin America Reports Al mismo tiempo, investigaciones sobre regulación inteligente resaltan la necesidad de adaptar normativas que provengan del Norte global, pero reconociendo contextos locales (instituciones, desigualdades, sistemas jurídicos, capacidad regulatoria) para hacerlas efectivas. Future of Privacy Forum+2Brookings+2

Impacto social: Los ciudadanos latinoamericanos podrían beneficiarse de leyes que garanticen protección frente a discriminación algorítmica, vigilancia invasiva, uso indebido de datos personales; pero también enfrentan riesgos de regulaciones mal calibradas que inhiban innovación local, creación artística, emprendimientos digitales.

Antropológico: La regulación contextualizada permite validar las diversidades culturales, lingüísticas y sociales de la región. Reconoce las particularidades de los sistemas de justicia, de las prácticas comunitarias, de las percepciones sobre privacidad, autonomía, vigilancia.

Ético: Legislar con justicia requiere transparencia, participación ciudadana, impacto en derechos humanos, evaluaciones de riesgo, inclusión de perspectivas minoritarias y de comunidades vulnerables. La regulación no debe imponer modelos ajenos sino construirlos desde abajo.

Cultural: La normativa moldeará lo que se considera aceptable en la esfera pública digital: desde discursos permitidos hasta vigilancia oficial. Las regulaciones pueden favorecer una cultura de exigencia ética, de auditoría, de transparencia narrativa, lo cual podría influir en la producción de medios y contenidos digitales.

Económico: La regulación apropiada puede generar confianza, atraer inversión, incentivar innovación responsable. Pero regulaciones rígidas o tardías pueden generar costos de cumplimiento elevados, desincentivar emprendimientos pequeños, favorecer oligopolios con capacidad para adaptarse.

Político: Gobiernos latinoamericanos están en una encrucijada: ¿seguir modelos externos (UE, EE.UU., China) o forjar marcos propios que respondan de forma realista a capacidades institucionales, desigualdades, cultura jurídica? La cooperación regional (por ejemplo, foros iberoamericanos) aparece como vía para compartir estándares, buenas prácticas, defender soberanía digital.


Tendencia 3: Invisibilidad estructural del trabajo humano en big data y IA

Un estudio comparativo reciente entre Argentina, Brasil y Venezuela expone que detrás de los modelos de IA existe un trabajo humano intensivo —labores de etiquetado, prueba, validación, supervisión— muchas veces precarizado, mal remunerado, informal, a pesar de alto nivel educativo entre trabajadores. arXiv Tal trabajo humano es pieza fundamental de la producción de IA, pero permanece opaco: casi siempre desplazado en las narrativas públicas, invisibilizado en los discursos sobre innovación automática.

Impacto social: Este trabajo invisible reproduce desigualdades sociales y económicas: quienes lo hacen tienen pocas garantías laborales, seguridad social limitada, pocas posibilidades de reconocimiento; frecuentemente ubicados en regiones con menos infraestructura tecnológica o menor protección laboral.

Antropológico: El valor humano detrás de lo que se presenta como “autonomía algorítmica” se oculta. Los relatos dominantes tienden a exagerar la automatización, las máquinas “inteligentes”, dejando de lado la dimensión humana, comunitaria, contextual que lo sostiene.

Ético: Surge una responsabilidad ética de las empresas, investigadores y reguladores: reconocer, proteger y dignificar ese trabajo. Transparencia no sólo técnica, sino también social. Justicia distributiva: remuneración, condiciones laborales, derechos laborales.

Cultural: Influyen las percepciones sobre qué es “innovación”: ¿automática”? ¿invisible? Si no se visibiliza lo humano, se corre el riesgo de naturalizar la explotación o la precariedad. Los discursos culturales pueden reforzar el mito tecnológico de la máquina perfecta, desligada de las relaciones humanas que la producen.

Económico: Esta invisibilidad es una externalidad: las empresas obtienen beneficios de trabajo poco reconocido, bajo costo, en mercados flexibles. No obstante, si hubiera regulación, certificación, remuneraciones dignas, el coste podría subir; pero también surgirían mejores productos, más fiables, más éticos, mayor legitimidad, posiblemente mayor valor de marca.

Político: Políticas laborales, reconocimiento formal de estos “data workers”, regulación de condiciones laborales, protección social, transparencia en cadenas de producción de IA pueden emerger como demandas crecientes. Sindicatos digitales, leyes de trabajo remoto/informalidad tecnológica pueden ser parte de la respuesta.


Otras doce tendencias relevantes

  • Avances de marcos de ética de datos globales: Estudios recientes muestran que países y bloques supranacionales (Reino Unido, EE. UU., UE, China, Singapur, etc.) están refinando principios de ética de datos: privacidad, equidad, transparencia, responsabilidad. Nature

  • Desarrollo de narrativas éticas visuales colaborativas humano‑IA: Investigaciones exploran cómo colaborar con IA para construir historias visuales que fomenten compromiso público auténtico con ética tecnológica. arXiv

  • Ética en la gestión y acceso justo al big data: Problemas vinculados con quién accede a los grandes volúmenes de datos, bajo qué condiciones, y quién decide sobre su uso. Relacionado con invisibilidad del trabajo humano y con regulación ética. Academic Oxford+1

  • Despliegue de regulaciones nacionales de IA en México: El ambiente legal‑regulatorio mexicano también ha sido objeto de análisis reciente, tanto en innovación como retos de cumplimiento. Latin Lawyer

  • Estrategias inteligentes de regulación centradas en inclusión: Propuestas de políticas latinoamericanas que enfatizan inclusión social, derechos digitales, protección de minorías, transparencia participativa. Brookings+1

  • Cooperación regional en gobernanza de IA: Iniciativas regionales en América Latina y el Caribe para alinear agendas de seguridad, ética, infraestructura regulatoria. Brookings

  • Evaluaciones del riesgo estructural de la IA en sociedad: Investigaciones que plantean marcos para evaluar impactos sociales, sesgos, desigualdades generadas por IA más allá del nivel artefactual. SAGE Journals

  • Presión pública por transparencia algorítmica y justicia tecnológica: Ciudadanos, ONGs y medios exigen saber cómo funcionan los algoritmos, cómo se toman las decisiones automatizadas, con qué datos. Relacionado con regulación, ética de datos.

  • Impactos laborales y automatización parcial vs total: Estudios que cuantifican riesgo de automatización, desplazamientos de tareas, cambio en competencias requeridas. Conecta con escasez de talento y trabajo humano invisibilizado. arXiv

  • Gestión del consentimiento informado en uso de datos sensibles y biométricos: Casos como reconocimiento facial en eventos públicos, privacidad, consentimiento explícito, protección de identidades. Tom's Guide

  • Desigualdad digital dentro de países latinoamericanos: Diferencias de infraestructura digital, conectividad, formación que condicionan quién participa de la transformación tecnológica. Relaciona con escasez de talento y regulación contextual.

  • Ética decolonial de los datos: Incluyendo marcos que emergen del Sur global, África, comunidades negras, indígenas, que cuestionan hegemonías epistemológicas, colonialidad de la tecnología. arXiv


Análisis predictivo

A partir de estas tendencias se perfilan algunos escenarios probables, así como riesgos y aceleradores que definirán el rumbo de la comunicación digital en los próximos meses.

Escenarios a corto plazo (3‑6 meses)

  1. Emergencia de políticas educativas urgentes: Gobiernos latinoamericanos lanzarán convocatorias, programas de capacitación y certificaciones en ética de IA, seguridad y gobernanza para suplir la brecha de talento. Universidades y plataformas de educación en línea jugarán papel clave, posiblemente con alianzas internacionales.

  2. Proyectos de ley con verdadera participación ciudadana: Los proyectos de regulación de IA adoptarán consultas públicas, colaboración con sociedad civil, expertos locales, comunidades vulnerables, para evitar leyes decorativas y asegurar que las regulaciones respondan a realidades concretas.

  3. Visibilización mediática del “data work” invisible: Medios de comunicación, investigaciones académicas, organizaciones laborales empezarían a destacar el trabajo humano detrás del big data, generando presión social para reconocer derechos laborales, condiciones dignas y remuneración justa.

  4. Creación de estándares nacionales mínimos para ética de datos: Regulaciones que exijan auditorías algorítmicas, informes de impacto de derechos humanos, transparencia de modelos, estándares de privacidad y seguridad, con sanciones claras para incumplimiento.

Escenarios a mediano plazo (6‑12 meses)

  1. Profesionalización consolidada del ecosistema ético‑técnico: Existirán perfiles profesionales certificados en ética de IA, seguridad de datos, regulación tecnológica; instituciones académicas crearán maestrías/cursos certificados que formen estos perfiles especializados; habrá demanda alta por ellos.

  2. Regulación pragmática y adaptativa en América Latina: Países que consigan regular bien serán aquellos que equilibren el control con incentivos, regulaciones modulares, niveles de riesgo, evitando lógicas de prohibición absoluta, incorporando flexibilidades para innovación local.

  3. Reconocimiento legal del trabajo humano en IA como condición para licencias de uso comercial de modelos: podrían surgir leyes o regulaciones que exijan revelar no sólo los datos, sino también quién los procesó, en qué condiciones, estándares laborales, transparencia en las cadenas de producción de IA.

  4. Aumento de la democracia digital: con procesos de participación ciudadanos en regulación de IA, mayor exigencia pública, herramientas de auditoría ciudadana, transparencia algorítmica, y cultura regulatoria que no sea solamente jurídica, sino también de ejercicio ciudadano informático.


Conclusión y llamado a la acción

Las tendencias de hoy muestran que la tecnología sin ética, la innovación sin reconocimiento humano y la regulación sin contexto son fórmulas para la injusticia y la fragmentación social. Es imprescindible que académicos, gobiernos, medios de comunicación, empresas y ciudadanía trabajen en conjunto.

  • Las instituciones educativas deben formar perfiles con competencias técnicas y éticas de IA y seguridad.

  • Los legisladores latinoamericanos tienen la responsabilidad de diseñar marcos regulativos que respondan a desigualdades locales, derechos humanos y particularidades culturales.

  • Las empresas que desarrollan IA deben reconocer la dimensión humana de sus procesos y transparentar sus cadenas de producción.

Sólo reconstruyendo la tecnología alrededor de la dignidad, la justicia y la participación podremos aspirar a una comunicación digital que no reproduzca exclusiones invisibles ni abran nuevas brechas de poder.

Comentarios


bottom of page