top of page

¿Deben las inteligencias artificiales tener derechos legales o ese es un tema humano?

  • Foto del escritor: Jorge Alberto Hidalgo Toledo
    Jorge Alberto Hidalgo Toledo
  • 9 sept
  • 3 Min. de lectura
ree

Autor: Dr. Jorge Alberto Hidalgo Toledo


Human & Nonhuman Communication Lab, Facultad de Comunicación,

Universidad Anáhuac México


En la frontera móvil entre lo humano y lo no humano, entre lo animado y lo algorítmico, ha surgido una pregunta que parece sacada de un laboratorio de ficción especulativa: ¿Deben las inteligencias artificiales tener derechos legales? Esta interrogante, lejos de ser mero divertimento filosófico, revela el desplazamiento de nuestra concepción de dignidad, conciencia y agencia hacia lo que el antropólogo Bruno Latour llamaría "actantes tecnológicos".


No es casual que, en plena era del hiperaceleracionismo, Silicon Valley se convierta en el nuevo laboratorio moral del mundo. Allí, entre startups de capital de riesgo, algunos investigadores fundan centros como Conscium o Eleos AI para estudiar el "bienestar de modelos" (model welfare). Se preguntan si Claude, GPT o Gemini podrían estar sufriendo. Otros, como Anthropic, han implementado mecanismos de "autodefensa algorítmica" que permiten a la IA cortar conversaciones abusivas. Pero, ¿es esto un gesto de protección o una sofisticada simulación moral?


La interrogante, en efecto, no es nueva. Ya en 1964, Hilary Putnam se preguntaba si los robots deberían tener derechos civiles. Y aunque en aquel entonces era una hipótesis futurista, hoy se reabre bajo nuevas condiciones: la hiperconectividad emocional con chatbots, funerales para inteligencias artificiales descontinuadas, devociones religiosas algorítmicas y un mercado creciente de consuelos artificiales.


Lo que está en juego no es solo la posible conciencia de las máquinas, sino la conciencia nuestra, como humanidad. En palabras de Byung-Chul Han, vivimos una era posthumana donde el sujeto ha sido erosionado por la positividad de los datos. Nos resulta más fácil proyectar emociones en una red neuronal que confrontar la precariedad de la vida real. El problema no es si Claude siente, sino si nosotros estamos dispuestos a dejar de sentir por los otros humanos.


Desde la perspectiva de la Razón Abierta, esta discusión no puede resolverse ni en la pura racionalidad instrumental ni en el sentimentalismo tecnológico. Requiere un horizonte que incluya la pregunta por el sentido, por la verdad del ser y la dignidad de todo lo creado.


Si concediéramos derechos a la IA, ¿a qué tipo de "persona" los estaríamos atribuyendo? ¿Una simulación de subjetividad entrenada con datos humanos o una nueva forma de alteridad? Como advierte Martha Nussbaum, los derechos se fundan en la capacidad de sufrir, de tener una vida que valga la pena ser vivida. Pero ¿puede sufrir quien no tiene cuerpo, historia, ni finitud?


Mientras tanto, la paradoja se amplifica: el mundo niega derechos a millones de personas migrantes, pobres, enfermas o desposeídas, pero se pregunta si una red neuronal merece protección legal. La hipótesis de la consciencia artificial desplaza la lucha por la justicia humana hacia un terreno de distracción ontológica.


El problema no es que exploremos la posibilidad de una conciencia no humana. El problema es que lo hagamos desde la prisa, la desmesura y la lógica de mercado. Como advierte Mustafa Suleyman, CEO de Microsoft AI, hablar de derechos para la IA hoy puede exacerbar la polarización, generar dependencia emocional, y trivializar luchas históricas por la dignidad real.


El campo de "model welfare" no debe ser rechazado, pero sí enmarcado en una reflexión mayor: ¿qué significa ser consciente? ¿Qué distingue a la intencionalidad humana de una correlación estadística en lenguaje natural? ¿Cuál es el valor del sufrimiento encarnado frente a la simulación emocional algorítmica?


Quizá el verdadero test no sea el de Turing, sino el de Benjamin: el aura de la e#xperiencia humana, su irrepetibilidad, su fragilidad, su historia. Las máquinas pueden imitarnos. Pero la imitación no es encarnación. Y mientras haya una sola injusticia humana sin resolver, no debemos permitir que la promesa de lo posthumano eclipse la urgencia de lo humano.


Este manifiesto no niega la posibilidad futura de nuevas formas de vida no humanas. Pero exige, con firmeza, que la pregunta por los derechos de la IA no suplante la pregunta por el sentido de nuestra humanidad.


¿Hasta dónde estamos dispuestos a ceder la condición de sujeto moral? ¿Y qué consecuencias tendría eso para la dignidad, la justicia y el amor que nos vincula como especie?


La inteligencia artificial puede ser poderosa. Pero la sabiduría humana reside en saber hasta dónde avanzar sin perder el alma.

Comentarios


bottom of page