<html><head><meta http-equiv="content-type" content="text/html; charset=utf-8"></head><body style="overflow-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;"><div>Agreed about single points of failures in complex, adaptive and emergent systems.</div><div><br></div><div>Avionics might be ‘reliable' at a technology level, but can they be reliable in a complex system which involves people and their interactions? AF447 as an example.</div><div><br></div>In the safety science space, there isn’t a model of success, because at some point success and failure start from the same point in time and space. Both success and failure emerge from complex interactions and this is the premise of Safety-II/Resilience Engineering. <div><br></div><div>Scott Snook’s ‘Friendly Fire’ is a great book on this topic. <i>"A basic assumption for the analysis was that we cannot fully understand complex organisational events such as this shootdown by treating them as isolated events. What Snook found in his research were largely normal people, behaving in normal ways, in a normal organisation. Accidents can occur from the unanticipated interaction of non-failing components. Independently benign factors at multiple levels of analysis interact in unanticipated ways over time, often leading to tragedy.” - </i>https://www.mindtherisk.com/literature/150-friendly-fire-the-accidental-shootdown-of-u-s-black-hawks-over-northern-iraq-by-scott-a-snook </div><div><br></div><div>Normal Accident Theory from Perrow also addresses this. In complex (socio-technical) systems, failure is inevitable.</div><div><br></div><div>Research/books by Hollnagel and David Woods relating to Resilience Engineering are worth pursuing if anyone is interested. </div><div><br></div><div>Regards<div><div>
<meta charset="UTF-8"><div dir="auto" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0); letter-spacing: normal; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; word-spacing: 0px; -webkit-text-stroke-width: 0px; text-decoration: none; overflow-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;"><div><br>Gareth Lock MSc <br>Owner, Trainer and Coach<br>m. +44 7966 483832<br>w. humaninthesystem.co.uk</div><div>LinkedIn: https://www.linkedin.com/in/garethlock/<br><br>Malmesbury | Wilts | SN16 9FX<br>Transforming teams. Unlocking human potential.</div><div><br></div></div><br class="Apple-interchange-newline">
</div>
<div><br><blockquote type="cite"><div>On 26 Feb 2025, at 15:35, Robert P Schaefer <rps@mit.edu> wrote:</div><br class="Apple-interchange-newline"><div><div>hi, Peter.<br><br>  sorry, for some reason this went to my spam folder.<br><br>  I have worked on my share of successful large projects and failed projects. <br><br>  I cannot discern a difference that can be tied to one single thing. <br><br>  And once you look at many different things, causality quickly gets lost.<br><br>  I’ve read, and believe in, Reason's swiss cheese model of faults, I wonder if there’s an equivalent swiss cheese model of success?<br><br>bob s.<br><br><blockquote type="cite">On Feb 24, 2025, at 11:51 AM, Prof. Dr. Peter Bernard Ladkin <ladkin@causalis.com> wrote:<br><br>Bob,<br><br>On 2025-02-24 16:38 , Robert P Schaefer wrote:<br><blockquote type="cite"> short comment, processes that are viable on small projects do not (and I believe cannot) scale to large projects<br></blockquote><br>You must surely know that I am aware of scaling problems. I do not go with your "cannot".<br><br>What do you say to the manifest success with the reliability of critical avionics?<br><br>PBL<br><br>Prof. Dr. Peter Bernard Ladkin<br>Causalis Limited/Causalis IngenieurGmbH, Bielefeld, Germany<br>Tel: +49 (0)521 3 29 31 00<br><br></blockquote><br>_______________________________________________<br>The System Safety Mailing List<br>systemsafety@TechFak.Uni-Bielefeld.DE<br>Manage your subscription: https://lists.techfak.uni-bielefeld.de/mailman/listinfo/systemsafety</div></div></blockquote></div><br></div></div></body></html>