top of page

¿Por qué OpenAI creó un Consejo de la Salud para usar ChatGPT?

  • Foto del escritor: Dr. Eduardo Portas
    Dr. Eduardo Portas
  • 20 oct
  • 4 Min. de lectura

Actualizado: 21 oct

Por Eduardo Portas Ruiz // Profesor investigador del Centro de Investigación para la Comunicación Aplicada (CICA) de la Universidad Anáhuac México


Hace unos días la compañía OpenAI anunció que crearía un Consejo de Expertos sobre Bienestar y IA para crear una serie de lineamientos sobre el uso correcto de ChatGPT con fines para la salud.


La iniciativa suena bien, pero tiene varios problemas enmarcados dentro de presiones políticas que valen la pena ser analizados.


ree

Para empezar, tomemos el contexto socio-político de la empresa. En este momento, OpenAI es la compañía privada más valiosa del mundo. Distintos especialistas financieros estiman que su valor ronda los 500 mil millones de dólares (o 500 billones en nomenclatura estadounidense).


Tras un verano en donde se publicaron distintos casos vinculados a ChatGPT y el suicidio o daño físico de diversas personas, la compañía no tuvo otra opción para tratar de calmar las aguas de la opinion pública.


Como se ha repetido en este espacio a partir de un cúmulo de informaciones de estudios independientes y del propio OpenAI, las personas están usando ChatGPT para una infinidad de actividades personales. Incluyendo consejo para su vida privada. La compañía calcula que más o menos 70% de todas las preguntas que le hacen al sistema caen en algún tipo de solicitud no laboral, es decir, asuntos que intentan resolver un estado interno de la persona, ya sea, por ejemplo, un asunto claramente psicológico (un problema familiar) o algo trivial vinculado a su psique (el mejor menú para una cena con amigos, enfatizando la palabra mejor).


Los retos derivados de ese uso han provocado un cambio en la forma en la que la propia compañía comienza a entender la tecnología que liberaron de manera quasi-experimental.


Es obvio que su objetivo era eminentemente de productividad laboral pero las personas se apropiaron de ChatGPT de forma que la compañía nunca se esperó. Después de todo, ¿quién le preguntaría a un chatbot sobre asuntos personales y haría caso de sus consejos? ¿Quién le pediría a un máquina que la recontara durante la madrugada? Aparentemente millones de personas lo están haciendo todos los días. OpenAI no lo diseñó de esa manera, pero así está sucediendo.


La afirmación no es gratuita. De haber sabido que las personas usarían ChatGPT como lo están haciendo la compañía hubiera creado con consejo de salud antes de cualquier escándalo, al menos para evitar o contener una crisis reputacional.


Pero no lo hizo y las evidencias de esta comportamiento reactivo están a la vista de todos. A la letra, OpenAI dice:


“Hemos conformado el Consejo de Expertos sobre Bienestar y IA para guiar nuestro trabajo continuo en la creación de experiencias más útiles con ChatGPT y Sora para todos. El consejo, compuesto por ocho personas, reúne a investigadores y especialistas líderes con décadas de experiencia estudiando cómo la tecnología afecta nuestras emociones, motivación y salud mental. Su función es asesorarnos, plantear preguntas y ayudar a definir cómo deberían ser las interacciones saludables con la IA para todas las edades”.


Los investigadores, sin excepción, tienen alto renombre. Ahí están David Bickham, Mathilde Cerioli, Munmun De Choudhury, Tracy Dennis-Tiwary, Sara Johansen David Mohr,  Andrew K. Przybylski, y Robert K. Ross, todos reconocidos por su trabajo científico sobre los efectos de las tecnologías y la IA en las personas. 


“Al formalizar el nuevo consejo, ampliamos nuestra búsqueda para incluir expertos adicionales en psicología, psiquiatría e interacción humano-computadora, incorporando nuevas perspectivas sobre cómo las personas se relacionan con la tecnología y cómo esta las afecta. Dado que los adolescentes usan ChatGPT de manera diferente a los adultos, también incluimos a varios miembros con experiencia en el desarrollo de tecnología que fomente un crecimiento saludable en los jóvenes”, sigue OpenAI.


Como cualquier Consejo, se propone acciones a partir de una serie de reuniones. Pero también, como cualquier grupo colegiado, se corre el riesgo de paralizar la acción a causa de discusiones inacabables. 


“Nuestro trabajo con el consejo incluirá revisiones periódicas de nuestro enfoque y reuniones recurrentes para explorar temas como cómo debería comportarse la IA en situaciones complejas o delicadas y qué tipos de salvaguardas pueden apoyar mejor a las personas que usan ChatGPT. Por ejemplo, para el lanzamiento de los controles parentales, consultamos a miembros individuales para ayudarnos a priorizar qué controles desarrollar primero y cómo notificar mejor a los padres si su hijo adolescente parece estar en angustia. Sus comentarios dieron forma al tono de los mensajes que usamos, para que se perciban como atentos y respetuosos tanto para los adolescentes como para sus familias”.


Como se observa. La compañía acepta llanamente que existe una brecha entre lo que saben de su propia tecnología y los alcances que ésta ha tenido a nivel social. También, es de subrayarse, han colocado el foco sobre los grupos juveniles que usan el sistema de manera intensa, otra realidad que les parece haber rebasado por completo. Otra vez, del aumento de productividad pensado originalmente se pasó, en tan solo solo años, a aumento de dependencia robotizada. 


Al final del comunicado, OpenAI agrega que está trabajando en red con otros expertos en psiquiatría, psicología, pediatría e intervención en crisis, “ayudando a garantizar que nuestros sistemas se basen en la comprensión clínica y las mejores prácticas”. Los dados, sin embargo, han sido echados. Por más controles que se traten de colocar en el sistema, será imposible prever las muy diversa formas en que los seres humanos utilizan una tecnología que tienen por objetivo simular una conversación con otro ser humano. 


Ahora la compañía se encuentra a la defensiva en cuanto a los parámetros de uso que está dispuesta a aceptar en ChatGPT para que las personas, sobre todo los más jóvenes, eviten incurrir en comportamientos, e ideas, riesgosas.


El comunicado de OpenAI sobre su Consejo de Bienestar puede ser leído aquí:



Comentarios


bottom of page