Modelo del queso suizo

De Wikipedia, la enciclopedia libre
El modelo del queso suizo aplicado a la pandemia de COVID-19

El modelo del queso suizo de causalidad de los accidentes es un modelo utilizado en el análisis de riesgos y gestión de riesgos, usado en la aviación, la ingeniería y la asistencia sanitaria. Compara los sistemas humanos a varias rebanadas de queso suizo, que se apilan. Esto fue propuesto originalmente por James T. Reason de la Universidad de Mánchester,[1]​ y se ha ganado ya una amplia aceptación. A veces se llama el modelo del efecto acumulativo.

Aunque el modelo de queso suizo es respetado y considerado como un método útil para relacionar conceptos, ha sido objeto de críticas ya que a veces se usa sin suficientes apoyo de otros modelos.[2]

Dominios de fallo[editar]

Reason planteo la hipótesis de que la mayoría de los accidentes se pueden remontar a uno o más de los cuatro dominios de fallo: influencias de organización, supervisión, condiciones previas y los actos específicos. Condiciones previas para actos inseguros incluyen personal de vuelo fatigado o prácticas de comunicación inadecuados. Supervisión insegura que abarca, por ejemplo, el vínculo de los pilotos sin experiencia en un vuelo nocturno en tiempo adverso conocido. Influencias organizacionales abarcan aspectos tales como la reducción de los gastos en formación de pilotos en tiempos de austeridad financiera.[3]

Agujeros y cortes[editar]

En el modelo de queso suizo, las defensas de una organización contra el fracaso se modelan como una serie de barreras, representadas como rebanadas de queso. Los agujeros en las rebanadas representan debilidades en partes individuales del sistema y están variando continuamente en tamaño y posición a través de las cortes. El sistema produce fallos cuando un agujero en cada rebanada se alinea momentáneamente, lo que permite (en las palabras de Reason) "una trayectoria de oportunidad de accidente", de manera que un peligro pasa a través de los agujeros en todas las rebanadas, lo que conduce a un fallo.[4][5][6]

Frosch[7]​ describe el modelo de Reason en términos matemáticos como un modelo en la teoría de la percolación, que analiza una celosía de Bethe.

Las fallas activas y condiciones latentes[editar]

El modelo del queso suizo incluye tanto las fallas activas como las condiciones latentes. Las fallas activas abarcan los actos inseguros que pueden estar directamente vinculadas a un accidente, como por ejemplo (en el caso de los accidentes de aviación) errores del piloto. Las condiciones latentes incluyen factores contributivos que pueden permanecer en estado latente durante días, semanas o meses hasta que contribuyen al accidente. Las condiciones latentes abarcan los tres primeros dominios del fracaso en el modelo de Reason.[4]

Aplicaciones[editar]

El mismo marco se aplica en la asistencia sanitaria. Por ejemplo, una falla latente podría ser el embalaje similar de dos medicamentos que a continuación se almacenan cerca uno del otro en una farmacia. Tal fracaso podría ser un factor contribuyente en la administración de la droga equivocada a un paciente. Esta investigación llevó a la conclusión de que los errores médicos puede ser el resultado de "fallas del sistema, no defectos de carácter", y que la codicia, la ignorancia, la malicia o la pereza no son las únicas causas de error.[8]

Lubnau, Lubnau y Okray[9]​ aplican el modelo de la ingeniería de sistemas de extinción de incendios, con el objetivo de reducir los errores humanos por "la inserción de capas adicionales de queso en el sistema", es decir, las técnicas de Gestión de Recursos de la Tripulación.

Referencias[editar]

  1. Reason, 1990.
  2. «Revisiting the Swiss cheese model of accidents». Eurocontrol. octubre de 2006. 
  3. Douglas A. Wiegmann and Scott A. Shappell (2003). A Human Error Approach to Aviation Accident Analysis: The Human Factors Analysis and Classification System. Ashgate Publishing, Ltd. pp. 48–49. ISBN 0754618730. 
  4. a b Daryl Raymond Smith, David Frazier, L W Reithmaier, and James C Miller (2001). Controlling Pilot Error. McGraw-Hill Professional. p. 10. ISBN 0071373187. 
  5. Jo. H. Wilson, Andrew Symon, Josephine Williams, and John Tingle (2002). Clinical Risk Management in Midwifery: the right to a perfect baby?. Elsevier Health Sciences. pp. 4–6. ISBN 0750628510. 
  6. Tim Amos and Peter Snowden (2005). «Risk management». En Adrian J. B. James, Tim Kendall, and Adrian Worrall, ed. Clinical Governance in Mental Health and Learning Disability Services: A Practical Guide. Gaskell. pp. 176. ISBN 1904671128. 
  7. Robert A. Frosch (2006). «Notes toward a theory of the management of vulnerability». En Philip E Auerswald, Lewis M Branscomb, Todd M La Porte, and Erwann Michel-Kerjan, ed. Seeds of Disaster, Roots of Response: How Private Action Can Reduce Public Vulnerability. Cambridge University Press. p. 88. ISBN 0521857961. 
  8. Patricia Hinton-Walker, Gaya Carlton, Lela Holden, and Patricia W. Stone (30 de junio de 2006). «The intersection of patient safety and nursing research». En Joyce J. Fitzpatrick and Patricia Hinton-Walker, ed. Annual Review of Nursing Research Volume 24: Focus on Patient Safety. Springer Publishing. pp. 8-9. ISBN 0826141366. 
  9. Thomas Lubnau II, Randy Okray, and Thomas Lubnau (2004). Crew Resource Management for the Fire Service. PennWell Books. pp. 20-21. ISBN 1593700067. 

Bibliografía adicional[editar]