Inteligencia Artificial al servicio de la humanidad
- Jorge Alberto Hidalgo Toledo
- 28 sept
- 4 Min. de lectura

Por: Dr. Jorge Alberto Hidalgo Toledo, Human & Nonhuman Communication Lab, Facultad de Comunicación, Universidad Anáhuac México
Nuevos contextos
Vivimos un tiempo caracterizado por la era exponencial. En México, más de 101 millones de personas son usuarios de Internet, lo que representa el 84% de la población; en América Latina, la cifra ronda el 81%. A ello se suma un dato revelador: el 59% de los usuarios ya interactúa con herramientas de inteligencia artificial. La IA no es un accesorio: se ha convertido en una comunidad de herramientas cognitivas, creativas y analíticas, lo que algunos autores denominan hiperobjetos.
La IA es, sobre todo, un mediador sociocultural y simbólico, profundamente ligado al lenguaje, que actúa como puente en la comunicación y en la construcción de significados. Pero este nuevo contexto también nos obliga a reconocer que, en su integración, la IA asume roles humanos y virtudes epistémicas: objetividad, responsabilidad, plausibilidad, confiabilidad del conocimiento y capacidad de toma de decisiones. De allí emerge un riesgo: atribuir a la máquina un perfil de experto científico, capaz de recolectar, analizar y estandarizar datos, cuando en realidad su alcance y sus sesgos deben ser examinados críticamente.
Este es el marco de la colaboración algorítmica entre humanos y máquinas: una interacción que, bien orientada, amplifica nuestras capacidades cognitivas, analíticas y creativas; pero mal encauzada, puede reforzar injusticias y asimetrías.
Nuevos usos y apropiaciones
En este panorama, la IA se ha convertido en un copiloto que imita la inteligencia humana y multiplica la productividad. Tenemos sistemas de aprendizaje automático, inteligencias estrechas que se especializan en áreas concretas, inteligencias generales que aspiran a igualar la cognición humana, y escenarios futuros de superinteligencia. Todo ello se traduce en usos cotidianos: asistentes virtuales, reconocimiento de voz y de rostros, procesamiento de lenguaje natural, análisis de emociones, razonamiento automatizado, generación de imágenes, sonidos y código, segmentación de audiencias o creación de contenidos.
La IA generativa en particular redefine la manera de producir información, pero también plantea dilemas: ¿cómo enfrentar las brechas algorítmicas? ¿Cómo evitar que amplifique desigualdades, polarización o desinformación? La IA, además de ser motor de productividad y cooperación internacional, es también un campo de disputa geopolítica, cultural y ética.
No debemos olvidar que cada algoritmo conlleva implicaciones sociales: desde sesgos raciales y de género, hasta la capacidad de moldear imaginarios colectivos, redefinir la racionalidad en términos de rentabilidad o incluso generar estéticas e identidades artificiales. En ese sentido, la IA no es neutral: es un agente activo de mediación simbólica.
IA para el bien social
Frente a estos riesgos, es fundamental pensar en la IA como una herramienta al servicio del bien común.
Hablemos primero de la justicia epistémica: la posibilidad de que la IA facilite un acceso más equitativo al conocimiento, incorporando saberes indígenas, femeninos, rurales y no occidentales. Imaginemos sistemas entrenados en corpus multiculturales y multilingües, con conciencia decolonial, que permitan superar la marginación de voces históricamente silenciadas.
En segundo lugar, la ecología integral: el planeta como “casa común”. La IA puede ayudarnos a monitorear ecosistemas, anticipar crisis climáticas, optimizar redes energéticas y promover políticas públicas sustentables, siempre bajo una perspectiva de responsabilidad intergeneracional.
Un tercer aspecto es la reconfiguración del imaginario socioemocional. La IA produce narrativas, emociones y sentidos que influyen en la cultura afectiva colectiva. Aquí la pregunta ética es decisiva: ¿qué tipo de afectos reproduce la IA? ¿Podemos aceptarlos como legítimos o debemos exigir marcos éticos que orienten estas producciones?
La IA también abre posibilidades en la salud pública: diagnósticos clínicos, salud mental digital, terapias conversacionales, diseño de fármacos. Pero esto requiere de una bioética algorítmica fundada en la no-maleficencia y la justicia, que evite la reproducción de sesgos biomédicos.
Asimismo, puede contribuir a la cultura de paz: anticipar discursos de odio, detectar polarización, fomentar la justicia restaurativa y generar narrativas de diálogo intercultural. Y aún más, puede fortalecer la filosofía pública y la democracia, mediante la detección de desinformación, el análisis en tiempo real de políticas públicas y la promoción de un derecho ciudadano a la verdad.
Finalmente, pensemos en las estéticas algorítmicas: nuevas poéticas digitales donde el arte y la máquina se encuentran, no para sustituir la creatividad humana, sino para expandirla y resignificarla en contextos de exclusión.
Nuevas competencias
Para que la IA esté efectivamente al servicio de la humanidad, debemos desarrollar nuevas competencias.
La primera es la alfabetización digital crítica y sustentable. Necesitamos ciudadanos capaces de leer los algoritmos con una mirada crítica, conscientes de su impacto ambiental y atentos a los valores que subyacen en el diseño tecnológico.
La segunda es la adaptabilidad y el aprendizaje continuo. La velocidad de cambio nos exige reaprender constantemente y cruzar fronteras disciplinares, integrando saberes tecnológicos, éticos, comunicativos y humanísticos.
La tercera es la rehumanización del vínculo digital. Recordar que detrás de cada dato y de cada interfaz hay personas con dignidad, historias y contextos que merecen respeto.
Formar estas competencias supone promover la imaginación sociotécnica responsable, el cuidado de sí y del otro, la conciencia de los límites de la IA y el fomento de una ciudadanía algorítmica activa. Todo ello para superar la fragmentación del conocimiento y articular los saberes científicos, técnicos y humanísticos.
Nuevos desafíos
Con todo lo anterior, los desafíos éticos y antropológicos son enormes.
La IA nos confronta con derechos fundamentales: el derecho a la verdad, a la identidad, a la intimidad, a la igualdad y a la no discriminación, al acceso a la cultura y a la protección de datos personales. Nos confronta también con la necesidad de proteger a los más vulnerables: personas con discapacidad, adultos mayores, minorías sociales y culturales.
A nivel antropológico, el desafío es resistir la deshumanización, sostener la fidelidad a uno mismo y a la comunidad, promover una cultura del compartir, de la esperanza y del encuentro personal con el otro.
En definitiva, la ética debe guiar el desarrollo tecnológico. La IA no puede ser un fin en sí mismo; debe estar orientada por principios de responsabilidad, dignidad y bien común. Sólo así podremos proteger la profesión del educador, enfrentar los peligros de la desinformación y garantizar que la inteligencia artificial sea, verdaderamente, un recurso para la humanidad.
Reitero la pregunta que da sentido a esta reflexión: ¿cómo hacer que la inteligencia artificial esté efectivamente al servicio de la humanidad?
La respuesta exige regulación justa, diseños éticos, alfabetización crítica, cooperación internacional y, sobre todo, una visión humanista que ponga en el centro a la persona, su dignidad y su derecho a la verdad.




Comentarios