Un Blueprint para evaluar el profesionalismo*

Wilkinson, Tim J. (Nueva Zelanda); Wade, Winnie B. MA (Reino Unido); Knock, L Doug (Reino Unido)

(*) Versión resumida del artículo original: A Blueprint to Assess Professionalism: Results of a Systematic Review. Academic Medicine:2009;84(5):551-8  doi: 10.1097/ACM.0b013e31819fbaa2

Resumen: El profesionalismo es de difícil definición y por tanto de difícil medición. Es un concepto multidimensional, por lo que para su evaluación se requiere una combinación de herramientas. En este artículo compendiamos los resultados de una interesante revisión bibliográfica, en la que sus autores intentaron hacer coincidir las herramientas de evaluación con los elementos definibles de profesionalismo. Se identificaron cinco grupos de áreas de profesionalismo: adhesión a los principios de la práctica ética, interacciones efectivas con los pacientes y con las personas que son importantes para esos pacientes, interacciones efectivas con las personas que trabajan dentro del sistema de salud, confiabilidad y compromiso con el mantenimiento/mejora autónoma de la competencia por uno mismo, y por otros. Las conclusiones mostraron que el profesionalismo se puede evaluar mediante una combinación de encuentros clínicos observados, feedback de múltiples fuentes, opiniones de los pacientes, pruebas o simulaciones escritas, medidas de investigación y/o actividades docentes, y el escrutinio de las autoevaluaciones en comparación con las evaluaciones realizadas por otros. Hay una serie de atributos que deben desarrollarse mejor para poder medirse, estos son: la reflexión, la promoción, el aprendizaje continuado, el manejo de la incertidumbre, el equilibrio entre la disponibilidad para los demás y el cuidado de uno mismo y la búsqueda y respuesta de resultados en auditorías

A Blueprint to Assess Professionalism

Summary: Professionalism is difficult to define and therefore difficult to measure. It is a multidimensional concept, so its evaluation requires a combination of tools. In this article we summarize the results of an interesting bibliographic review, in which its authors tried to match the evaluation tools with definable elements of professionalism. Five clusters of professionalism were identified: adherence to the principles of ethical practice, effective interactions with patients and people who are important to those patients, effective interactions with people who work within the health system, trustworthiness, and commitment to the autonomous maintenance/improvement of competence by oneself, and by others. Conclusions showed that professionalism can be assessed through a combination of observed clinical encounters, feedback from multiple sources, patient opinions, written tests or simulations, research measures and/or teaching activities, and scrutiny of self-assessments compared with evaluations made by others. There are a series of attributes that must be better developed in order to be measured, these are: reflection, promotion, continuous learning, managing uncertainty, the balance between availability for others and caring for oneself and the search and response of results in audits

El profesionalismo es fundamental para la práctica de la medicina, pero la dificultad de su evaluación es casi tan grande como el valor que le damos. Sin embargo, la profesionalidad como concepto es difícil de precisar. 1 Hay una aceptación universal de que es importante, y la mayoría de las personas están de acuerdo cuando ven que este falta, aunque las definiciones varíen mucho. 2,3Para algunos, puede verse como una entidad unidimensional y simplemente se le llama “profesionalismo”; para otros, se ha vuelto tan amplio que abarca todo lo que un médico debe hacer para realizar su trabajo. La mayoría está de acuerdo en que un componente central del profesionalismo es el compromiso individual del profesional de autoevaluarse 4–10 y de mejorar. 11

La necesidad de medir mejor el profesionalismo se debe a que este se encuentra hoy dia amenazado. Por ejemplo, por una regulación externa puede socavar la motivación intrínseca para mejorar. Ha habido muchas propuestas de herramientas de evaluación que tratan de captar la esencia, o al menos un componente, de la profesionalidad. Por ejemplo, en muchos lugares ahora se utiliza el feedback multifuente como herramienta de evaluación. Muchos ven el uso exclusivo de este tipo de feedback como sinónimo de evaluación integral de la profesionalidad de un individuo.

Una revisión sistemática previa resumió los instrumentos de evaluación disponibles hasta el 2002. 12  En 2004, un segundo trabajo realizado por van de Camp et al 10 trató de definir el profesionalismo mediante la realización de una revisión exhaustiva de la literatura, un análisis temático y una verificación de validez. Desde entonces, ha habido un trabajo importante en el desarrollo de declaraciones de consenso sobre el profesionalismo. —por ejemplo, de los Royal Colleges of Physicians, 11,13el Charter on Medical Professionalism que surge del Medical Professionalism Project, 14 y las declaraciones del British General Medical Council sobre buenas prácticas médicas. 15

La evaluación del profesionalismo está obstaculizada principalmente por dos aspectos: Aunque existen muchas definiciones de profesionalismo, estas suelen ser tan amplias que no se prestan a aspectos que sean fácilmente evaluables. Además, no existe un consenso acordado y las opiniones sobre el profesionalismo suelen cambiar con el tiempo. 3Las definiciones existentes también carecen de un desglose claro de los elementos de profesionalismo en los aspectos que pueden medirse. El segundo problema es que ha habido varios intentos de desarrollar herramientas para medir la profesionalidad y se ha avanzado mucho. Sin embargo, sabemos que rara vez pueden evaluarse áreas complejas adecuadamente. Se requeriría una combinación de herramientas; sin embargo, la pregunta clave aquí es cual debe ser esa combinación. Es probable que se necesite un enfoque programático 16,17 mediante el cual se puedan tomar múltiples instantáneas de la profesionalidad de un individuo y luego cotejarlas en un todo para desarrollar una imagen más clara de las fortalezas y debilidades de esa persona y proporcionar un cuerpo de evidencia sobre el cual basar las decisiones 18

METODOS

Los autores llevaron a cabo el estudio durante 2007–2008 en cinco etapas: (1) una revisión de la literatura de las definiciones de profesionalismo, (2) un análisis temático de las definiciones de profesionalismo, (3) una revisión de la literatura de las herramientas para evaluar los elementos del profesionalismo, (4) la creación de un modelo mediante el cual los elementos de profesionalismo se combinan con las herramientas de evaluación pertinentes, y finalmente (5) la identificación de las lagunas de evaluación.

RESULTADOS

Definición de profesionalismo

En las definiciones o interpretaciones de profesionalismo, surgen algunos términos que requieren aclaración. El primero es el de la “autorregulación”, que es ampliamente aceptado como un componente integral de una profesión. La autorregulación de una profesión tiene implicaciones más allá de la autorregulación a nivel individual. A este nivel, el término “autorregulación” no es lo suficientemente explícito porque podría interpretarse en el sentido de preservar el status quo. En su lugar, los autores proponen el término “compromiso con el mantenimiento autónomo y la mejora continua de la competencia”, ampliando aún más este concepto para incluir a uno mismo, a los demás y a los sistemas en los que se trabaja. El segundo término era “altruismo”, que a veces se infería en el sentido de someterse uno mismo a los demás, pero esto contrastaba con mantener un equilibrio saludable entre el trabajo y la vida. Por lo tanto, adoptan el concepto «Equilibrar la disponibilidad para los demás (pacientes y compañeros) con el cuidado de uno mismo». El tercer término era “madurez”, 7,10 difícil de definir y de clasificarse en una entidad evaluable separada por sí misma. En cuarto lugar, el profesionalismo tiene su propia base de conocimientos que se puede evaluar con pruebas de conocimientos tradicionales, como preguntas de opción múltiple. Predominantemente, sin embargo, el profesionalismo se trata de lo que alguien hace, más que de lo que sabe. Finalmente, algunas definiciones incluyen asegurar que la familia de un paciente esté bien informada. El concepto de familia tiene diferentes significados para diferentes personas, por lo que preferimos la frase “personas que son importantes para el paciente”.

Casi todas las definiciones de profesionalismo incluyen algún elemento de reflexión y/o autocontrol. El propósito de esto es mejorar la propia competencia. Por lo tanto, decidieron que estos elementos deben ubicarse dentro del tema de mejorar la competencia en uno mismo.

Identificación de herramientas de evaluación

Estas herramientas fueron agrupadas en grupos según su uso en:

Valoración de un encuentro clínico observado.

El mini-CEX es un ejemplo de este tipo de herramienta de evaluación. 23–26Esta herramienta se utiliza para evaluar una instantánea observada de 15 a 30 minutos de una interacción médico/paciente que se lleva a cabo en entornos reales de atención al paciente utilizando pacientes reales y que tiene una hoja de calificación estructurada que cubre áreas genéricas predefinidas. La validez se deriva del uso de interacciones auténticas, y la confiabilidad se logra asegurando la agregación de múltiples evaluaciones y múltiples evaluadores. La estandarización entre los distintos sitios se puede lograr con la capacitación de los examinadores y mediante la recopilación de puntuaciones de varios encuentros. El mini-CEX original propone la evaluación del profesionalismo como una sola entidad global. Se han realizado modificaciones para observar aspectos específicos del profesionalismo a través del desarrollo del Ejercicio de Mini-Evaluación del Profesionalismo (P-MEX), 27que puede evaluar cuatro áreas: habilidades de relación médico-paciente, habilidades reflexivas, gestión del tiempo y habilidades de relación interprofesional.

Vistas recopiladas de compañeros de trabajo.

Esto generalmente se logra a través del feedback de múltiples fuentes (FMF), que es la recopilación sistemática y feedback de datos sobre el desempeño de un individuo, adquiridos de un conjunto de partes interesadas. Antes, esto a veces se llamaba “Evaluación de 360 ​​grados”. 24,28–34 Por lo general, la persona que está siendo evaluada nombra de 10 a 20 evaluadores que colectivamente pueden comentar sobre las habilidades de esa persona. Los evaluadores pueden incluir consultores, supervisores, tutores, personal auxiliar, enfermeras, profesionales de la salud afines y personal administrativo. El FMF se puede utilizar para evaluar comportamientos reales en el lugar de trabajo que son difíciles de evaluar en condiciones de evaluación formales. Se puede utilizar para evaluar habilidades y comportamientos que a veces pueden ser difícil de detectar en una evaluación formal.

Registro de incidentes de falta de profesionalismo.

Esto se utiliza «según sea necesario», por lo que un incidente observado de comportamiento poco profesional se puede informar y cotejar de forma centralizada. Un grupo de revisión revisaría los informes para determinar si existe un patrón de comportamiento y/o si se necesitan más acciones. 35,36

Informe de incidente crítico.

Este método le pide al médico que reflexione sobre un incidente crítico que haya experimentado o presenciado. 37–39 Debido a que el incidente es autoidentificado, contrasta con el registro del incidente de falta de profesionalismo descrito anteriormente. Puede fomentar la reflexión y la atención a los elementos de la profesionalidad, pero depende del tipo de incidente para determinar qué aspecto de la profesionalidad se está evaluando.

Simulación.

Las simulaciones son escenarios artificiales que se asemejan a situaciones de la vida real, pero que generalmente usan modelos o pacientes simulados. 33,40 A veces, estos pueden incorporarse dentro de un examen clínico estructurado objetivo (ECOE). 33 Las simulaciones se pueden utilizar para evaluar situaciones raras o impredecibles o para estandarizar la evaluación de habilidades de comunicación de nivel superior. Debido a que se llevan a cabo dentro de un contexto artificial, esto puede reducir la validez, aunque muchas simulaciones de «alta fidelidad» pueden ser muy realistas. Pueden ser útiles para evaluar cómo alguien trabaja bajo presión. Las simulaciones individuales, como las estaciones ECOE  individuales, 41 pueden no ser fiables.

Prueba escritas.

Esto requiere ofrecer un escenario, como un dilema ético o un encuentro en video, y una serie de preguntas que deben responderse. 42 Puede evaluar el conocimiento subyacente de algunos principios de profesionalismo, razonamiento moral o toma de decisiones, y lo que se debe hacer, pero no puede evaluar lo que un candidato podría hacer en la práctica.

Opiniones de los pacientes.

Esto generalmente se obtiene al recopilar opiniones de pacientes basadas en cuestionarios sobre las habilidades de la persona nominada en áreas específicas. 33,43–46 Puede usarse para evaluar comportamientos reales dentro del lugar de trabajo que son difíciles de evaluar en las condiciones de evaluación formales. Es una encuesta directa a las partes interesadas claves de un servicio de salud. Sin embargo, como se analiza más adelante, algunas poblaciones de pacientes pueden ser más críticas que otras, por lo que la interpretación de los resultados debe realizarse junto con otras evaluaciones y teniendo en cuenta el tipo de población que se ha encuestado.

Visión global del supervisor.

Esta es una visión resumida, generalmente por un tutor o supervisor, informada en un formulario con criterios predefinidos. Los criterios ayudan a definir las áreas de importancia, pero la tendencia a que se utilicen como puntos de vista a observadores únicos en puntos concretos en el tiempo puede hacer que sean poco fiables y difíciles de defender, 47a pesar de las demostraciones de consistencia interna. Sin embargo, dicho resumen puede ser útil si se usa repetidamente a lo largo del tiempo y si se basa en la evidencia derivada de otras evaluaciones. Si se utilizan varios evaluadores y se cotejan los resultados, entonces funciona como el feedback de múltiples fuentes. Por lo tanto, se considera que no es un instrumento de evaluación en sí mismo, sino más bien un medio para informar un resumen de las evaluaciones. Por estas razones, no incluyen esta modalidad como una herramienta de evaluación, pero reconocen que puede tener un papel importante en un proceso de evaluación programática.

Escala de calificación autoadministrada.

Esta es una herramienta basada en un cuestionario que un individuo utiliza para evaluar sus atributos o actitudes personales. Puede ayudar a la reflexión, pero tiene un uso limitado en las evaluaciones sumativas, porque no puede evaluar lo que una persona realmente hace.

Plan de evaluación

Si se considera que las mejores evaluaciones son las de observación directa de los comportamientos de interés, entonces el mini-CEX, 23–26 y particularmente el P-MEX, 27serían componentes centrales de un programa de evaluación de este tipo. Algunos comportamientos pueden ocultarse si una persona sabe que está siendo observada directamente, por lo que las opiniones recopiladas de compañeros de trabajo (FMF) y de pacientes (encuestas de opinión de pacientes) se convierten en fuentes de información complementarias. El razonamiento moral podría evaluarse mediante una simulación o, más eficientemente, mediante un escenario para desarrollar escrito. Los atributos restantes que no se evaluarían bien usando solo estos métodos, son:

  • Reflexividad/autoevaluación
  • El aprendizaje permanente
  • Tratando la incertidumbre
  • Actitudes de abogacía
  • Equilibrar la disponibilidad para los demás con el cuidado de uno mismo
  • Buscar y responder a los resultados de una auditoría.
  • Progresión en el conocimiento

DISCUSION

La profesionalidad es multifacética, por lo que una persona puede ser excelente en un aspecto y deficiente en otro. Además, el modelo de evaluación demuestra que ninguna herramienta por si misma puede medir de manera efectiva la profesionalidad de una persona en su conjunto y que se requerirán varias herramientas.

La revisión demuestra que las observaciones directas (a través del mini-CEX 23–26 y P-MEX 27) y las opiniones recopiladas (a través de FMF y las opiniones de los pacientes) son elementos cruciales porque captan muchos aspectos de manera confiable, válida y factible. En ocasiones, la medicina ha estado bastante a la defensiva sobre el uso de las opiniones de los pacientes como una medida de interés evaluativo personal. Así como cualquier instrumento por sí solo no puede medir la profesionalidad de un médico, las opiniones de los pacientes también pueden ser engañosas si se toman por sí solas. Sin embargo, las opiniones de los pacientes complementan otras fuentes de información y llenan un vacío importante.

Los portafolios a menudo se han sugerido como un medio para evaluar el profesionalismo. 49 La función de un portafolio es cotejar datos de una variedad de fuentes para formar un cuerpo de evidencia. 50 Por lo tanto, su valor depende de los datos aportados. Si los datos se limitan a unos pocos elementos de profesionalismo, se formará una imagen incompleta. Además, reconoce que la evidencia requerirá una combinación de juicios globales junto con instrumentos más estructurados. Ambos enfoques son confiables, siempre que se agreguen los datos de un número suficiente de observaciones y observadores. 51,52Esto refuerza la necesidad de una recopilación sistemática de evidencia basada en un modelo, como el que hemos resumido. Sin embargo, el conjunto de la profesionalidad es más que la suma de las partes, 3 y es necesario poder tener una visión general de todos los elementos. Por lo tanto, el portafolio tiene un papel importante en la recopilación de pruebas, pero no como la fuente de esas pruebas. En sí mismo, sin embargo, no es una herramienta de evaluación de autoevaluación o reflexión. Por lo tanto, tiene un papel secundario importante en el desarrollo profesional de una persona al brindar la oportunidad de autoevaluarse, reflexionar sobre los contenidos del portafolio y mejorar.

Esto deja algunos elementos importantes que no se evalúan fácilmente usando mini-CEX, P-MEX, MSF, opiniones de pacientes, pruebas escritas o simulaciones (enumeradas al final de la sección anterior). Sin embargo, la percepción podría evaluarse pidiéndole a una persona que complete un formulario mini-CEX, P-MEX o MSF sobre sí mismo y comparando esas puntuaciones con las de los demás. La capacidad de una persona para avanzar en el conocimiento podría evaluarse mediante la documentación de publicaciones, presentaciones, investigaciones o actividades docentes.

Los atributos restantes son menos susceptibles de evaluación con las herramientas existentes, pero podrían evaluarse con nuevas herramientas o mediante procesos de evaluación apropiados. Por ejemplo, la reflexión, la defensa, el aprendizaje permanente, el manejo de la incertidumbre, el equilibrio entre la disponibilidad para los demás y el cuidado de uno mismo y la búsqueda y respuesta a los resultados de una auditoría podrían ser el foco de las discusiones con un supervisor, tutor o colega. Pero no está tan claro si los atributos en sí podrían evaluarse con precisión. Aunque estos procesos recopilarían información útil sobre estos atributos, estas áreas también deberían ser de alta prioridad para el desarrollo futuro de métodos de evaluación novedosos.

Conclusiones: el profesionalismo se puede evaluar mediante una combinación de mini-CEX, P-MEX, FMF, opiniones de pacientes, pruebas escritas, simulaciones, medidas de investigación y/o actividades docentes, y el escrutinio de las autoevaluaciones en comparación con las evaluaciones de otros. Un portafolio es un medio útil para apoyar dicho programa de evaluación. Los atributos que requieren más desarrollo en su medición son la reflexión, la promoción, el aprendizaje permanente, el manejo de la incertidumbre, el equilibrio entre la disponibilidad para los demás y el cuidado de uno mismo y la búsqueda y respuesta a los resultados de una auditoría. Estos atributos deben ser el foco del futuro desarrollo de herramientas y/o procesos. Por ahora, las pocas herramientas que existen necesitan ser adaptadas.

Referencias

1 Ginsburg S, Regehr G, Lingard L. Basing the evaluation of professionalism on observable behaviors: A cautionary tale. Acad Med. 2004;79(10 suppl):S1–S4.

2 Cochran A. Professionalism: I know it when I see it, but how do I measure it? Focus Surg Educ. Spring 2008:8–10.

3 Borrero S, McGinnis KA, McNeil M, Frank J, Conigliaro RL. Professionalism in residency training: Is there a generation gap? Teach Learn Med. 2008;20:11–17.

4 Frohna A, Stern D. The nature of qualitative comments in evaluating professionalism. Med Educ. 2005;39:763–768.

5 Hilton SR, Slotnick HB. Proto-professionalism: How professionalisation occurs across the continuum of medical education. Med Educ. 2005;39:58–65.

6 Jha V, Bekker HL, Duffy SRG, Roberts TE. Perceptions of professionalism in medicine: A qualitative study. Med Educ. 2006;40:1027–1036.

7 Kearney RA. Defining professionalism in anaesthesiology. Med Educ. 2005;39:769–776.

8 Rabinowitz D, Reis S, Van RR, Alroy G, Ber R. Development of a physician attributes database as a resource for medical education, professionalism and student evaluation. Med Teach. 2004;26:160–165.

9 Swick HM. Toward a normative definition of medical professionalism. Acad Med. 2000;75:612–616.

10 Van De Camp K, Vernooij-Dassen MJ, Grol RP, Bottema BJ. How to conceptualize professionalism: A qualitative study. Med Teach. 2004;26:696–702.

11 Royal College of Physicians. Doctors in Society: Medical Professionalism in a Changing World. Report of a Working Party. London, UK: Royal College of Physicians; 2005.

12 Veloski JJ, Fields SK, Boex JR, Blank LL. Measuring professionalism: A review of studies with instruments reported in the literature between 1982 and 2002. Acad Med. 2005;80:366–370.

13 Levenson R, Dewar S, Shepherd S. Understanding Doctors: Harnessing Professionalism. London, UK: King’s Fund; 2008.

14 Medical Professionalism Project. Medical professionalism in the new millennium: A physicians’ charter. Lancet. 2002;359:520–522.

15 General Medical Council. Good Medical Practice. London, UK: General Medical Council; 2006.

16 Arnold L, Shue CK, Kalishman S, et al. Can there be a single system for peer assessment of professionalism among medical students? A multi-institutional study. Acad Med. 2007;82:578–586.

17 Epstein RM, Dannefer EF, Nofziger AC, et al. Comprehensive assessment of professional competence: The Rochester experiment. Teach Learn Med. 2004;16:186–196.

18 Wilkinson TJ. Assessment of clinical performance: Gathering evidence. Intern Med J. 2007;37:631–636.

19 Lynch DC, Surdyk PM, Eiser AR. Assessing professionalism: A review of the literature. Med Teach. 2004;26:366–373.

20 West CP, Huntington JL, Huschka MM, et al. A prospective study of the relationship between medical knowledge and professionalism among internal medicine residents. Acad Med. 2007;82:587–592.

21 LoboPrabhu S, King C, Albucher R, Liberzon I. A cultural sensitivity training workshop for psychiatry residents. Acad Psychiatry. 2000;24:77–84.

22 Miller GE. The assessment of clinical skills/competence/performance. Acad Med. 1990;65(9 suppl):S63–S67.

23 Norcini JJ, Blank LL, Duffy FD, Fortna GS. The mini-CEX: A method for assessing clinical skills. Ann Intern Med. 2003;138:476–481.

24 Healthcare Assessment and Training. Assessment Services. Available at: (http://www.hcat.nhs.uk/assessments). Accessed January 12, 2009.

25 Durning SJ, Cation LJ, Markert RJ, Pangaro LN. Assessing the reliability and validity of the mini-clinical evaluation exercise for internal medicine residency training. Acad Med. 2002;77:900–904.

26 Hatala R, Ainslie M, Kassen BO, Mackie I, Roberts JM. Assessing the mini-clinical evaluation exercise in comparison to a national specialty examination. Med Educ. 2006;40:950–956.

27 Cruess R, McIlroy JH, Cruess S, Ginsburg S, Steinert Y. The professionalism mini-evaluation exercise: A preliminary investigation. Acad Med. 2006;81(10 suppl):S74–S78.

28 Archer JC, Norcini J, Davies HA. Use of SPRAT for peer review of paediatricians in training. BMJ. 2005;330:1251–1253.

29 Ramsey PG, Wenrich MD, Carline JD, Inui TS, Larson EB, LoGerfo JP. Use of peer ratings to evaluate physician performance. JAMA. 1993;269:1655–1660.

30 Evans R, Elwyn G, Edwards A. Review of instruments for peer assessment of physicians. BMJ. 2004;328:1240–1243.

31 Norcini JJ. Peer assessment of competence. Med Educ. 2003;37:539–543.

32 Lockyer J. Multisource feedback in the assessment of physician competencies. J Contin Educ Health Prof. 2003;23:4–12.

33 Accreditation Council for Graduate Medical Education, American Board of Medical Specialties. Toolbox of Assessment Methods. Version 1.1. Chicago, Ill: Accreditation Council for Graduate Medical Education and American Board of Medical Specialties; 2000.

34 Lockyer JM, Violato C, Fidler H. The assessment of emergency physicians by a regulatory authority. Acad Emerg Med. 2006;13:1296–1303.

35 Ainsworth MA, Szauter KM. Medical student professionalism: Are we measuring the right behaviors? A comparison of professional lapses by students and physicians. Acad Med. 2006;81(10 suppl):S83–S86.

36 Fontaine S, Wilkinson TJ. Monitoring medical students’ professional attributes: Development of an instrument and process. Adv Health Sci Educ Theory Pract. 2003;8:127–137.

37 Stark P, Roberts C, Newble D, Bax N. Discovering professionalism through guided reflection. Med Teach. 2006;28:e25–e31.

38 Baernstein A, Fryer-Edwards K. Promoting reflection on professionalism: A comparison trial of educational interventions for medical students. Acad Med. 2003;78:742–747.

39 Verkerk MA, de Bree MJ, Mourits MJ. Reflective professionalism: Interpreting CanMEDS’ “professionalism.” J Med Ethics. 2007;33:663–666.

40 Issenberg SB, McGaghie WC, Petrusa ER, Lee Gordon D, Scalese RJ. Features and uses of high-fidelity medical simulations that lead to effective learning: A BEME systematic review. Med Teach. 2005;27:10–28.

41 Singer P, Robb A, Cohen R, Norman G, Turnbull J. Performance-based assessment of clinical ethics using an objective structured clinical examination. Acad Med. 1996;71:495–508.

42 Simpson D, Helm R, Drewniak T, et al. Objective Structured Video Examinations (OSVEs) for geriatrics education. Gerontol Geriatr Educ. 2006;26:7–24.

43 Weaver MJ, Ow CL, Walker DJ, Degenhard EF. A questionnaire for patients’ evaluations of their physicians’ humanistic behaviors. J Gen Intern Med. 1993;8:135–139.

44 Tamblyn R, Benaroya S, Snell L, McLeod P, Schnarch B, Abrahamowicz M. The feasibility and value of using patient satisfaction ratings to evaluate internal medicine residents. J Gen Intern Med. 1994;9:146–152.

45 Wilkinson TJ, Fontaine S. Patients’ global ratings of student competence. Unreliable contamination or gold standard? Med Educ. 2002;36:1117–1121.

46 Mackillop L, Armitage M, Wade W. Collaborating with patients and carers to develop a patient survey to support consultant appraisal and revalidation. Clin Manage. 2006;14:89–94.

47 Wilkinson TJ, Wade WB. Problems with using a supervisor’s report as a form of summative assessment. Postgrad Med J. 2007;83:504–506.

48 Arnold L. Assessing professional behavior: Yesterday, today, and tomorrow. Acad Med. 2002;77:502–515.

49 Kalet AL, Sanger J, Chase J, et al. Promoting professionalism through an online professional development portfolio: Successes, joys, and frustrations. Acad Med. 2007;82:1065–1072.

50 Wilkinson TJ, Challis M, Hobma SO, et al. The use of portfolios for assessment of the competence and performance of doctors in practice. Med Educ. 2002;36:918–924.

51 Wilkinson TJ, Frampton CM, Thompson-Fawcett MW, Egan AG. Objectivity in objective structured clinical examinations: Checklists are no substitute for examiner commitment. Acad Med. 2003;78:219–223.

52 Hodges B, Regehr G, McNaughton N, Tiberius R, Hanson M. OSCE checklists do not capture increasing levels of expertise. Acad Med. 1999;74:1129–1134.

53 Aukes LC, Geertsma J, Cohen-Schotanus J, Zwierstra RP, Slaets JP. The development of a scale to measure personal reflection in medical practice and education. Med Teach. 2007;29:177–182.

54 Chard D, Elsharkawy A, Newbery N. Medical professionalism: The trainees’ views. Clin Med. 2006;6:68–71.

55 Cohen JJ. Professionalism in medical education, an American perspective: From evidence to accountability. Med Educ. 2006;40:607–617.

56 Hauck FR, Zyzanski SJ, Alemagno SA, Medalie JH. Patient perceptions of humanism in physicians: Effects on positive health behaviors. Fam Med. 1990;22:447–452.

57 Wagner P, Hendrich J, Moseley G, Hudson V. Defining medical professionalism: A qualitative study. Med Educ. 2007;41:3.

58 Golnik K, Goldenhar L. The ophthalmic clinical evaluation exercise: Reliability determination. Ophthalmology. 2005;112:1649–1654.

59 Shayne P, Gallahue F, Rinnert S, Anderson CL, Hern G, Katz E. Reliability of a core competency checklist assessment in the emergency department: The standardized direct observation assessment tool. Acad Emerg Med. 2006;13:727–732.

60 Rees C, Shepherd M. The acceptability of 360-degree judgements as a method of assessing undergraduate medical students’ personal and professional behaviours. Med Educ. 2005;39:49–57.

61 Musick DW, McDowell SM, Clark N, Salcido R. Pilot study of a 360-degree assessment instrument for physical medicine & rehabilitation residency programs. Am J Phys Med Rehabil. 2003;82:394–402.

62 Lockyer J, Blackmore D, Fidler H, et al. A study of a multi-source feedback system for international medical graduates holding defined licences. Med Educ. 2006;40:340–347.

63 Papadakis MA, Loeser H, Healy K. Early detection and evaluation of professionalism deficiencies in medical students: One school’s approach. Acad Med. 2001;76:1100–1106.

64 Gisondi M, Smith-Coggins R, Harter P, Soltysik R, Yarnold P. Assessment of resident professionalism using high-fidelity simulation of ethical dilemmas. Acad Emerg Med. 2004;11:931–937.

65 Mazor KM, Zanetti ML, Alper EJ, et al. Assessing professionalism in the context of an objective structured clinical examination: An in-depth study of the rating process. Med Educ. 2007;41:331–340.

66 Baldwin DC, Bunch WH. Moral reasoning, professionalism, and the teaching of ethics to orthopaedic surgeons. Clin Orthop. 2000;378:97–103.

67 Humphrey HJ, Smith K, Reddy S, Scott D, Madara J, Arora VM. Promoting an environment of professionalism: The University of Chicago “Roadmap.” Acad Med. 2007;82:1098–1107.

68 Hall MA, Zheng B, Dugan E, et al. Measuring patients’ trust in their primary care providers. Med Care Res Rev. 2002;59:293–318.

69 Hurst YK, Prescott CL, Rennie JS. The patient assessment questionnaire: A new instrument for evaluating the interpersonal skills of vocational dental practitioners. Br Dent J. 2004;197:497–500.

70 Prislin MD, Lie D, Shapiro J, Boker J, Radecki S. Using standardized patients to assess medical students’ professionalism. Acad Med. 2001;76(10 suppl):S90–S92.

71 Van Zanten M, Boulet JR, Norcini JJ, McKinley D. Using a standardised patient assessment to measure professional attributes. Med Educ. 2005;39:20–29.

72 Silber CG, Nasca TJ, Paskin DL, Eiger G, Robeson M, Veloski JJ. Do global rating forms enable program directors to assess the ACGME competencies? Acad Med. 2004;79:549–556.

73 Gauger PG, Gruppen LD, Minter RM, Colletti LM, Stern DT. Initial use of a novel instrument to measure professionalism in surgical residents. Am J Surg. 2005;189:479–487.

74 Van De Camp K, Vernooij-Dassen MJ, Grol RP, Bottema BJ. Professionalism in general practice: Development of an instrument to assess professional behaviour in general practitioner trainees. Med Educ. 2006;40: 43–50.

75 de Haes JC, Oort F, Oosterveld P, ten Cate O. Assessment of medical students’ communicative behaviour and attitudes: Estimating the reliability of the use of the Amsterdam attitudes and communication scale through generalisability coefficients. Patient Educ Couns. 2001;45:35–42.

76 Tromp F, Rademakers JJ, Ten Cate TJ. Development of an instrument to assess professional behaviour of foreign medical graduates. Med Teach. 2007;29:150–155.

77 De Haes JC, Oort FJ, Hulsman RL. Summative assessment of medical students’ communication skills and professional attitudes through observation in clinical practice. Med Teach. 2005;27:583–589.

78 Sarp N, Yarpuzlu AA, Mostame F. Assessment of time management attitudes among health managers. Health Care Manag (Frederick). 2005;24:228–232.

79 Chisholm M, Cobb H, Duke L, McDuffie C, Kennedy W. Development of an instrument to measure professionalism. Am J Pharm Educ. 2006;70:85.

80 Majumdar B, Keystone JS, Cuttress LA. Cultural sensitivity training among foreign medical graduates. Med Educ. 1999;33:177–184.

81 Godkin MA, Savageau JA. The effect of a global multiculturalism track on cultural competence of preclinical medical students. Fam Med. 2001;33:178–186.

82 Blackall GF, Melnick SA, Shoop GH, et al. Professionalism in medical education: The development and validation of a survey instrument to assess attitudes toward professionalism. Med Teach. 2007;29:e58–e62.



     

También te podría gustar...

Deja una respuesta

Tu dirección de correo electrónico no será publicada.