Chat GPT: experiencias de uso por docentes de Comunicación Clínica
Sophia Denizon y Roger Ruiz Moral*. Unidad de Comunicación Clínica y de Educación Médica. Facultad de Medicina Universidad Francisco de Vitoria (Madrid). * Editor de Doctutor
Resumen: En esta colaboración dos profesores de comunicación asistencial han trabajado con GPT4 y Chat GPT para explorar su utilidad actual en diversos aspectos relacionados sobre todo con su utilidad en la enseñanza y aprendizaje de comunicación clínica con estudiantes de medicina. Se ofrece aquí las conclusiones principales a las que han llegado después de realizar esta exploración, incluyendo algunos de los principales extractos de las conversaciones mantenidas con GPT-4 y Chat GPT, como ejemplos ilustrativos de esas conclusiones
GPT Chat: experiences of use by Clinical Communication teachers
Abstract: In this collaboration, two healthcare communication professors have worked with GPT4 and Chat GPT to explore their current usefulness in various aspects related, above all, to their usefulness in teaching and learning clinical communication with medical students. The main conclusions they have reached after conducting this exploration, including some of the main excerpts from the conversations held with GPT-4 and Chat GPT, are offered here as illustrative examples of those conclusions.
Escenarios trabajados con Chat GPT
Se han elaborado distintas propuestas de conversaciones entre médico y paciente con distintos objetivos clínicos, entre los que están, explorar aspectos biopsicosociales, compartir información y tomar decisiones. Igualmente se propusieron a GPT-4 ofrecer estas conversaciones con diferentes comportamientos y emociones (v.g.: paciente agresivo, demandante, dando malas noticias, proponiendo sedación a un par de familiares con diferentes perspectivas, así como estableciendo diálogos donde se ofreciesen pistas verbales y no verbales) con el paciente y/o paciente y acompañante
A medida que se iban obteniendo mediante el diálogo con la Inteligencia Artificial (IA) diferentes propuestas, los profesores realizaron a la IA sugerencias para mejorar esos escenarios. De esta forma, en el establecimiento del diálogo además se le fue haciendo sugerencias a la GPT-4 para que introdujese también modificaciones en esos escenarios para hacerlos cada vez más específicos.
Por otra parte, un objetivo adicional fue la Generación de ideas sobre aspectos concretos derivados de los escenarios, por lo que se le pidió a la IA tanto el ofrecimiento de posibles ideas relacionadas con el ámbito concreto que se estaba trabajando así como la generación de hipótesis para explorar o investigar en base a escenarios y problemas relacionales concretos que potencialmente se podían producir en esos escenarios.
De esta forma se elaboraron conversaciones entre médico y paciente, específicas. En este proceso se observó que:
Los escenarios mejoraban a medida que a la IA se le hacían preguntas y sugerencias cada vez más específicas
Los escenarios fueron de más calidad en versiones de la IA más recientes (GPT-4)
La elaboración de preguntas de calidad por parte del humano aparecía como un factor determinante a la hora de obtener respuestas de mayor calidad; por lo que, una consecuencia lógica es que si el humano que pregunta no está suficientemente preparado en el tema, el rendimiento es más bajo. De esto se deriva que para el trabajo productivo con este chat de IA es determinante el entrenamiento en “hacer preguntas”, lo que abre una puerta educativa que apunta de forma directa hacia la enseñanza con metodologías que fomenten el pensamiento crítico y su capacidad para elaborar preguntas significativas y de alcance.
En este proceso es de importancia la petición de sugerencias para mejorar los escenarios que se van elaborando. De esta forma los escenarios van así mejorando. Sin embargo, existen (al menos en versiones no tan recientes) limitaciones importantes y una de ellas de gran importancia es que la IA no especifica ni reconoce inputs no verbales, lo que lo limita mucho para uso educativo en comunicación clínica. Aunque parece que en versiones más avanzadas pueden abordar procesamiento de lenguaje natural (reconocimiento de patrones de comportamiento) y reconocimiento de emociones (análisis de emociones), esto aún se encuentra pobremente desarrollado, lo que limita en gran medida los aspectos sutiles de la relación que son determinantes para conseguir objetivos comunicativos con estudiantes y residentes.
A pesar de esta limitación, el proceso de ideación y creación de escenarios clínicos con pacientes simulados para abordar sobre todo problemas clínicos o (de una manera ya más matizada como antes hemos expresado) también comunicativos, incluyendo toma de decisiones, es extraordinariamente rica lo que ayudaría y simplificaría mucho el trabajo de los educadores en este sentido.
Como hemos descrito, la generación de ideas sobre aspectos concretos derivados de los escenarios se hace progresivamente más “fina” a medida que las preguntas que se le hacen son más específicas
Lo anterior es también válido para la Generación de hipótesis para explorar o investigar en base a escenarios concretos
Un aspecto que hemos experimentado es que cuando se alcanza un cierto grado de especialización en las preguntas la probabilidad de que se equivoque la IA existe y de hecho se equivoca con frecuencia. En nuestras conversaciones le hemos señalado el supuesto error y siempre lo ha reconocido “muy humildemente” en sus respuestas y generalmente ha generado la alternativa válida
Las referencias bibliográficas son aún muy imprecisas
Potencialidades detectadas
Simulaciones de conversaciones con pacientes: Se puede usar el chat GPT para simular conversaciones con pacientes, como en los ejemplos que hemos estado discutiendo y con las limitaciones antes comentadas. Esto puede ayudar a practicar la manera de responder a ciertas situaciones, a aprender a manejar situaciones difíciles con los pacientes.
Ejercicios de autoevaluación: También se puede usar el chat GPT para reflexionar sobre las propias habilidades de comunicación. Se pueden revisar las transcripciones de las conversaciones simuladas y evaluar la capacidad para responder de manera empática, para manejar situaciones difíciles y para recoger y entender algunos tipos de pistas verbales y no verbales.
Aprendizaje de conceptos médicos y terminología: Además de trabajar en algunas habilidades de comunicación, también se puede usar el chat GPT para aprender y repasar conceptos médicos y terminología. Se puede pedir al chat GPT que explique ciertos conceptos, que genere preguntas de prueba para que un alumno practique, o que simule conversaciones en las que tenga que explicar conceptos médicos a pacientes simulados.
Estudios de caso y toma de decisiones: Se puede trabajar en habilidades de toma de decisiones clínicas simulando casos médicos con el chat GPT. Por ejemplo, pidiéndole al chat GPT que genere un caso médico, y luego trabajar a través del caso, tomando decisiones sobre el diagnóstico y el tratamiento y explicando las decisiones.
Limitaciones Observadas
Falta de interacción humana real: GPT-4 puede simular una conversación, pero no puede reemplazar la complejidad de la interacción humana real. Los pacientes reales tienen emociones, reacciones impredecibles, y una variedad de matices culturales, sociales y personales que hoy por hoy GPT-4 es no ser capaz de captar completamente (tal vez en un futuro más cercano o tardío sí). Creemos que esto tiene que ver con la “cantidad” de información de contexto que actualmente tiene la IA, lo cual es presumible que vaya incrementándose en el futuro.
Falta de retroalimentación personalizada y en tiempo real sobre el tono, el lenguaje corporal, u otros aspectos no verbales de la comunicación.
No puede adaptarse a las habilidades individuales del estudiante: GPT-4 no puede adaptarse a las habilidades individuales del estudiante o a su nivel de conocimiento de la misma manera que un instructor humano. Puede proporcionar información basada en su programación, pero no puede adaptarse a esas necesidades individuales.
Capacidad limitada para manejar situaciones específicas o complejas: Aunque GPT-4 es capaz de manejar una variedad de situaciones simuladas, puede tener dificultades con escenarios médicos complejos o específicos. Su capacidad para generar respuestas apropiadas se basa en la información que ha sido programada para entender, por lo que puede tener limitaciones cuando se trata de casos muy específicos o inusuales.
Corte de conocimiento: Al ser un modelo de inteligencia artificial, GPT-4 tiene un corte de conocimiento en septiembre de 2021, por lo que cualquier avance o cambio en las prácticas médicas después de esa fecha no estará disponible en su base de datos.
GPT 4 y las emociones
GPT-4 puede analizar texto y detectar patrones en él. Se puede programar para identificar palabras y frases que a menudo se asocian con ciertas emociones. Por ejemplo, si un usuario escribe "me siento muy triste", GPT-4 puede reconocer que "triste" es una palabra comúnmente asociada con una emoción negativa. Su "comprensión" de las emociones se basa en patrones de texto, no en una experiencia real o en una comprensión emocional.
Un aspecto interesante en la interacción con GPT-4 es por tanto y precisamente la respuesta de la IA pueda hacer ante señales específicas del lenguaje no verbal (expresiones faciales, paralenguaje, lenguaje corporal,… ), y por extensión a las emociones del humano interactuante. Esto es muy importante en nuestro medio y más aún en el trabajo con personas vulnerables delante. Sin embargo, esto con GPT4 no es considerado. Es decir, no se considera la cara que se le esté poniendo, el acercamiento, si se le miro o no… porque él/ella (¿ello?) no lo ve; sin embargo, este es un aspecto educativo fundamental a tener en cuenta cuando enseñamos a estudiantes y residentes comunicación clínica.
GPT-4, no puede “sentir” ni experimentar emociones, ni puede observar directamente las expresiones faciales, el lenguaje corporal o el tono de voz de una persona, ya que no tiene percepciones sensoriales. Cabe aquí decir que, …al menos por ahora.
Excerpt: Dos profesores de comunicación asistencial han trabajado con GPT4 y Chat GPT para explorar su utilidad actual en diversos aspectos relacionados sobre todo con su utilidad en la enseñanza y aprendizaje de comunicación clínica con estudiantes de medicina.
Post date: 2023-06-03 10:34:32 Post date GMT: 2023-06-03 08:34:32
Post modified date: 2023-06-05 10:49:17
Post modified date GMT: 2023-06-05 08:49:17
Export date: Thu Dec 5 5:03:18 2024 / +0100 GMT
This page was exported from DocTutor
[ http://www.doctutor.es ]
Export of Post and Page has been powered by [ Universal Post Manager ] plugin from
www.ProfProjects.com