1. 跳转至内容
  2. 跳转至主菜单
  3. 跳转到更多DW网站

重大事故,怎一句“人为失误”了得?

2002年11月8日

今天,无论是飞机坠毁、还是火车失事,在追查事故原因时,人们最常听到的,就是“人为失误”。科学家们却认为,如今发生在核电站、飞机驾驶舱、或者是手术室里的人为失误,常常都是非人性的技术所带来的后果。

https://p.dw.com/p/2ony
用了太多的“传感器”,人也就变成了没有感觉的机器图像来源: Senseboard

系统中的错误

今年10月7日,墨西哥上空险些发生一次空难。德国汉莎公司的一架波音747飞机,在飞近墨西哥城的同时,也在向一架墨西哥航空公司的空中客车靠近。在最后一刻,汉莎飞机的驾驶员,听从机上的自动防撞警告系统的指示,驾驶飞机上升,虽然当地的地面导航人员,要求他下降。两架飞机,擦肩而过,相隔只有30米。

在和复杂的技术打交道的时候,负责操作的人,往往必须在短短的几秒钟之内,做出决定。此时,在人的理智,和自动安全系统之间,不断会发生冲突现象。这种情况,即可以发生在一架飞机的驾驶舱里,也可以发生在核电站的控制台上,亦或是发生在手术室里。

假如人在和机器的配合中失误,便可以导致灾难的发生,不久前,发生在德国波登湖畔两机相撞的空难事件,就是一例。当时,一架俄罗斯的图-154飞机上的自动防撞警告系统,要求驾驶员上升。几秒钟之后,地面导航员,却发出下降的命令。碰撞前11秒,图-154飞机的驾驶员,还在紧张地寻找正要撞上来的波音飞机,并且大声叫喊:“他妈的,它在哪儿?”1.5秒钟之后,图-154飞机上的防撞系统要求驾驶员,加快上升速度。可以想象,当时的状况,是再混乱不过了:上升,下降,上升。两架飞机的驾驶员,没有一个知道,另一架飞机在哪里。

风险环境中人的工作与行为方式

并不是从波登湖畔的那次空难事件之后,而是从早几年开始,科学家们也对人在风险很大的环境中,如何工作的问题感兴趣。其关键问题是,如何训练一个团队,即便是在高度紧张的情况下,依然能够最佳地相互沟通?

柏林的语言学家克里夫卡所进行的一项研究,表明了预见性的工作思考方式,在此起着多么重要的作用。他的项目,是戴姆勒-奔驰基金会1999年开始资助的一个科研计划中的一部分。该计划名为“团队在高度风险环境中的相互影响”。为此,克里夫卡请飞行员们,在模拟飞行器中,做高度风险的飞行动作。

一开始,他只是想了解,合作好的机组和合作不好的机组之间有什么区别。结果表明,在飞行效果不好的机组里,骂街的情况更多。而在合作好的机组里,驾驶员和副驾驶员的交谈,更具策略性。他们也会更频繁地相互预告,他们下一步准备做什么。不久前,德国心理学会在柏林举行年会。克里夫卡在会上介绍了他的上述研究结果。

是“认为失误”还是“认为无助”?

在波登湖畔的飞机碰撞事故中,所有人,都对整个情况,失去了控制。关键性的信息,均来自计算机,无论是飞机上的也好,还是地面的安全导航系统也好。对这次严重事故的分析结果,看上去好像是再清楚不过了:“人为失误。”这句话,几乎已经成为一个标准回答了。每当飞机坠毁,或者当某一故障,导致了核电站的处境危险,或者是当某位病人在手术过程中,由于决策错误而死亡时,大部分情况下的结论都是,原因在于“人为失误”。

就飞行事故而言,大约四分之三,都算在人为失误的头上。而与此同时,整个的发展趋势却是自动化程度越来越高,使得人的自由操作余地越来越小。而在此,恰恰又是人,必须要和这些高科技系统打交道。说穿了,是不是我们已经技术化过度了呢?

点机鼠标久了,人也变得鼠目寸光

在德国核反应堆安全协会的数据库里,记录了大约5000例发生在德国核反应堆里的故障。这家协会从中挑选了232例所谓“带有人为失误因素的事件”,进行仔细研究。他们发现,在其中10%的情况下,有关人员之间的沟通出现问题,是“导致事故发生的重要因素”。这篇报告推论说:“假如操作任务和沟通任务发生矛盾的话,便会出现沟通问题。”用明白话来说,就是假如一个人需要花过多的注意力,监看显示在许多小屏幕上的不同程序的话,他就很难再注意到他的同事们了。

现在,越来越多的控制程序,是建立在Windows,或者是类似的操作系统上的。人们的眼睛,盯着不同的视窗,每个操作菜单下,又列着许多子菜单。为了得到相应的信息,人们得一层层地点击下去,以致对所有其它东西,失去了概念,只留下狭窄的隧道式目光。“自动化程度越高,就越危险”,慕尼黑工大的斯特莱特这样总结道。这位学者,目前在布鲁塞尔参与“欧洲控制”下属的飞行安全部的工作。在此之前,他研究的,是核电站的安全问题。他告知:“自动系统就像一个机器人,一旦运转起来,便不可阻挡。”假如发生错误,后果便不堪设想,正是因为人已经影响不了了。

除了有预见性的思考和工作方式以外,领导能力对能否顺利地渡过关键时刻看来起着决定性作用。苏黎士工大的克拉姆普弗,在心理学年会上解释道,创过一道飞行难关之后,虽然参与行动的驾驶员,往往都会抱怨太紧张了,但是,在这位女学者的眼里,这种抱怨,却具有积极、正面的意义,因为人这次没有被束缚住手脚,而是也行使了他的自主权。

美国:每年12万名病人因“人为失误”受损害

同样重要的一点是,对失误,获得一种新的认识。首先是不要再把责难的眼光集中对准当事人,因为某个人出错,很少是出于他个人独自的原因。在大部分情况下,是和他周围的工作环境,密切相关的。人们如果想研究已发生事故的过程,吸取教训,以避免悲剧重演的话,“人为失误”这个观念,只会影响人们分析的眼光和态度。

试想,哪一位被划入失败者行列的人,还愿意谈他的错误,或者谈他同事的错误呢?而了解错误,接受教训,却是极其必要的。一项研究表明,单单是在美国的医院里,每年就有12万名病人,由于人为失误而受到损害。而恰恰是在等级分明的医学界,医生们对一次失误后,前途毁灭的恐惧很大。因此,情况棘手时,他们当然情愿闭口不谈,明哲保身。瑞士巴塞尔市的省立医院主治医生、麻醉专家塞德格,则转被动为主动。他说道:“我每天都会犯错。相信我们每个人,其实都是这样。我们必须培养一种新的意识,新的风气。不再把失误,看作是负面的、不好的东西,而是一种大家都可以从中学习的东西,赋予失误以积极的含意。”

因此,从1995年开始,瑞士这家省医院,不光是在手术室里进行手术,同时也在另一个练习中心,模拟手术。在练习中心接受手术的,是一个由美国国家航天局研制的真人模型。医生们可以在那里模拟胆切除手术,也可以模拟动脉植换手术等等。血淋淋的动物内脏,为模拟演习带来一些真实感。在模拟手术过程中,他们可以有针对性地控制血压、心跳频率、体温、呼吸情况等等。甚至于像心率不齐这样的症状,也可予以模拟。今年年初,他们又给这台手术模拟器,补充了麻醉模拟部分。这样一来,塞德格就可以和他的手术小组一起,演习整个手术过程。因为这是在模拟器上做手术,不是在真的病人身上,所以,手术人员承认失误的勇气,也就大些。

练习中心的演习原则是:“不责怪”。也就是说,不进行批评谴责。塞德格强调说:“我们关键是想了解,什么样的失误,是怎样发生的,而不是想知道,是哪一位失的误。”这位医生介绍道,他们的演习经验表明,在大部分情况下,发生的,都是系统性失误。从统计角度而言,这些失误,是早晚都必定会发生的。但假如这样的失误,在实际中确实发生的话,人们往往都是追究手术医生的责任,而不是系统的责任。塞德格抱怨道,大部分的医疗软件和器材,都是技术人员独自设计开发的,没有征询后来要实际使用这些器材的医生们的意见。

系统应留给人多少反应时间?

对克服紧张情况,起关键作用的一点,是一个系统具备多大的机动性,也就是说,留给人们多长的反应时间。核电站大约是30分钟;飞机则是几秒钟到几分钟。鉴于这样短暂的反应时间,“人为失误”,其实是很难和“有罪”等同起来的。