電気通信大学 大学院情報システム学研究科
教授 田中健次氏
通常であれば、安全が高まると思われる「多重チェック」や「フールプルーフ」。しかし、そこには「社会的手抜き」、「自動化の皮肉」という落とし穴があると言う。そこで、今回のスペシャリスト、電気通信大学大学院情報システム学研究科教授の田中健次氏に、安全の仕組みの落とし穴について話を聞いた。(取材日;平成17年6月20日)
-事故防止の対策として、よく「ダブルチェック」「トリプルチェック」という改善策が出されます。田中先生は多重チェックの効果について実験をなさっていますが、どのような結果だったのでしょうか。
1 多重チェックの落とし穴
(同種の多重チェック)
この実験をしようとした1つのモチベーションは患者誤認の事故でした。
通常、2人によるチェックよりも3人、3人よりも4人とチェック数が増加するほど確実性が高まると考えがちです。しかし、大学での実験で、人の目による同種の多重チェック行為では「2重のチェックが最も確実性が高く、3重以上ではむしろ確実性は下がる」ケースがあるという結果が出ました(図1参照)。実験前には、1人から2人へ増やしたときほどではないにしても、3人、4人とチェックする人数が増えれば少しは効果が上がるだろう、ただし上がり方は平らになっていくだろう、と予測していただけに、この実験結果には驚きました。
実験では、複数人が間仕切りのある机に一列に並び、封筒に印刷された宛名などを順に確認する作業を課しました。封筒にはわざと印刷ミスのあるものを混ぜておきます。確認作業は、封筒に印刷された郵便番号、住所、氏名の3項目を、あらかじめ配布されている住所録と照らし合わせて、正しいかどうかをチェックするものです。被験者は多重度1(1人のチェック)から、多重度5(5人のチェック)までの5段階のグループに別れ、各グループ20組で実験しました。
もちろんこれは1つの実験例であり、2重が一番良いと結論付けることはできません。重要なことは、状況によっては3重、4重にすることが逆効果になる可能性もあるということです。
実際、社会心理学では、集団一斉作業時には作業者が多いほど一人当たりの作業量が低下するという「社会的手抜き効果」「リンゲルマン効果」という現象が知られていますが、全体の作業効果が減少する可能性までは知られていませんでした。
(異種の多重チェック)
次に、異なる観点から多重チェックをしたらどうなるかという実験を行いました。こちらは印刷ミスではなく、ペットボトルの分類ミスの発見率で検証しました。被験者には、分類ミスが含まれているペットボトルについて、異なる視点から仕分け確認する作業を割り当てました。ここでの多重度は、1人はラベル、1人はサイズというように異なる観点からのチェックを課すもので、多重度が上がるほどチェックする人すなわち項目が増えていくというものです。結果は、多重度をあげるほどミスを発見できる確率が高くなりました(図2参照)。
これらの実験結果をみると、多重チェックをするならば、回数よりも視点を増やす方が効果的だと言えそうです。
医療現場では、皆が、患者の名前と顔が合っているかという同じ視点で確認するのではなく、手術が同時刻に複数の部屋で平行して行われる場合には、手術部管理者が手術患者の取り違えが起こっていないかどうかを手術室を横断的にチェックしてまわる、といった別の観点からみることが必要だと思います。
(多重化が生み出す新たな問題)
医療現場の限られた人数で多重チェックをするとなると、チェック作業を依頼された人は、自分の作業を中断することになります。この作業の中断が新たなエラーを発生させる要因になり得ます。「今は出来ない」と答えるだけでも作業の中断になります。ある病院では、中断してほしくない作業をしている人はそのサインとして「たすき」をかけ、周りの人は声をかけないようにするというアイディアを取り入れていると聞きました。
また、チェックをするという作業量の増加は、余裕時間の削減を招き、間接的なエラーの要因にもなり得ます。
―異なった観点からの効果的なチェックとして、何か考えられることはないでしょうか。
(メーカーに現場をチェックしてもらう)
製造業では、自分の売っている機械や製品がどこでどんな使われ方をしているのか必ずフォローしましょう、と言われます。部品を作っている下請け会社は、納めた部品がどのような機械の一部として使われているかをチェックしなければいけません。組み立てられた製品が現場でまさかそんな使い方をされるとは思わなかった、というトラブルも起きています。いくら事前に検査や試験をしても、売ったものが正しく動いているか、正しい使われ方をしているかは、売った人が現場に行かなければわからないことです。
医療機器に関しては、いろいろなメーカーの製品を「組み合わせ」て使うところで起きる事故が増えています。例えば、小児用人工呼吸器での窒息事故。別々の会社が作った小児麻酔用のジャクソンリース回路のパイプと気管切開チューブの内径が一致してしまい、空気がうまく排出されず、死亡するという事故が起きました。
同じメーカーの中で古い機械と新しい機械があって、それらを並べて使うときスイッチの向きが逆向きになるものがあると、ヒューマンエラーが起きやすくなります。このような状況は、メーカー側が現場を見て気づいてほしいことです。上記の人工呼吸器の事故はいわゆるPL問題(製造物責任)であり、機器メーカーの警告義務違反と判断されましたが、異なるメーカーのものを1人の患者さんに同時に使う場合は、扱う医療機関側もよく注意しなければなりません。
メーカー側では「室温○度以下で使ってほしい」という条件があっても、使用する医療機関側では「そんな理想的な状況では使えない」ということがあるそうです。
また、無線LANで心電図の波形を飛ばす際に、医療機関側では「頻繁にノイズが入って困っている」、一方メーカー側では「事前に検査したときにノイズは入らなかった」と、平行線になっている話も聞いたこともあります。
こうしたことに対しては、メーカーの方が機器の専門家なのですから、現場へ来て何が原因かを特定して問題を解決するという方向へ持っていくようにしなければトラブルは解消されません。
一般の製造業が作るものは市場型製品と言われ、ユーザーは不特定多数です。しかし、医療機器の場合、ユーザーはある程度限られていますから、お互いの情報のやり取りがしやすいというメリットがあります。「苦情」ではなく「要望」の段階で連絡をとることです。トラブルが起きてからでは遅いのです。
メーカーは医療側の条件に合ったものを開発すべきです。現場で使われないものばかり作っても意味がありません。そして、売った機器が、どういう状況で使われているのか現場を見て、その状況で機能が十分果たされるように改善する、という流れを作っていかなければならないと思います。そのためには、医療側からの積極的な要望も欠かせません。互いの協力関係があって初めて安全に機器が使われると言うことです。
―医療の現場での多重チェックには、社会的手抜き、作業の中断、作業量の増加という落とし穴があることがわかりました。異なった視点でのチェックという意味では、メーカーに使用現場をチェックしてもらうということも効果がありそうです。では次にフールプルーフの落とし穴について教えて下さい。
2 フールプルーフの落とし穴
(列車の自動化について)
以前から「自動化の皮肉」「自動化のジレンマ」という言い方があります。自動化が進めば進むほど、人間の操作機会が減少し操作能力が下がる傾向がある一方で、自動化で対応できない複雑な状況では高度な人間の操作が期待されるなどのジレンマを言います。人間はやることがなくなり、ただ監視すればよい方向に向かっています。
例えば、東京の地下鉄大江戸線は駅で止まるときは全自動で止まります。運転手は座っていますが、スタートボタンを押すだけです。いざという時に、非常停止ボタンを押したり、運転したりするために座っています。しかし、普段運転していない人が、いきなり非常時に運転できるのでしょうか。非常時に運転してもらうには、普段から運転させておいて、おかしな運転をしたときにはフールプルーフで制御させるようにしておく方法が望ましいのです。全部自動化すると、いざというときに人間は何も出来ないということになりかねません。
JR西日本の事故後の対策については、ATSを設置して物理的な対応で安全を確保することが最も効果があるとの風潮が目立ちますが、それは誤りだと思います。フールプルーフは最後の砦、安全支援の"サポート役"に回すべきであり、前面に出すべきではありません。
もし間違えたとしても最後にフールプルーフがあるから間違いを止めてくれる、そういう使い方をしなければなりません。本来、ATSは働いてはいけないのです。それが最近では、「フールプルーフがついているから安全だ」という考え方が前面に出過ぎています。それではATSがないとき、あるいは壊れたときは大丈夫なのか、ということが常に問題になります。
(アラームの実験)
ある心理学者が行った実験があります。たくさんの計器とともに片方はアラームのあるところで、片方はないところで、同じ情報を流し、同じ作業をさせます。あるとき、いくつかの計器を見ると明らかに異常だとわかる状態にします。そして、アラームが取り付けてある方は、そのアラームを鳴らないようにしておくというものです。すると、アラームがついているところで作業をしている人は異常に気付きません。アラームが鳴らないから安全だと思ってしまうのです。一方、アラームのない方は、常にいろいろな計器を観察していますから、すぐに異常に気付きます。この結果は、アラームが正常に作動しているときは問題ないのですが、壊れたときは非常に危険な状況に陥るということを示しています。
いろいろな安全装置をつけるのはよいのですが、あくまでも補助装置であるという考え方を持っていないと、それがあるから大丈夫だと考えてしまうと、人間は徐々に危険に対する意識が薄れ、異常に気付かなくなっていきます。このような人間の過信は禁物です。
(フールプルーフがフールメイキングに?)
製造業全般に言えることですが、フールプルーフという考え方を少し変えなければいけないと思います。フールプルーフが過度に備えられると、フールメイキングになってしまうのではないかと考えるからです。つまり、安全のことをあまり考えないオペレーターが増えてしまうということが危惧されます。これは危険です。機械を使っている人たちの中に、安全を守るのは自分自身だ、という感覚がなくなるのは良くありません。
人間が安全に使うことによって、いろいろな作業でトラブルを減らしているということがたくさんあります。安全を守るのはやはり人間だと思います。
―では、最後に、安全のしくみの落とし穴に入らないようにするにはどうしたらよいでしょうか。
3 想像力をつける
今、人間には想像力が欠けていると思います。インターネットで情報を集めるばかりで、自分で膨らませる、何か次のことを展開して考えるという癖がなくなっています。これは、安全にとって非常に問題です。
人間と機械のどちらが良いのかというと結論は出ていません。確かに、想定された状況の中では、機械の方が信頼性は高いです。しかし、状況があいまいであったり、想定外の状況の中で対応できるのはやはり人間です。
短期的な安全を狙うのか、長期的な安全を狙うのかでも対策は違ってくると思います。時間がかかるかもしれませんが、長期的な安全のためには、人間が自分の頭の中で考えて判断する癖を付けることが効果的だと思います。マニュアルも使い方に失敗すると、多様な状況に対応できなくなります。「こういうことはマニュアルに書いてなかった」「それぐらいは自分でわかるだろう」という会話を避けるためにも、やはり少ない情報から洞察する力、想像する力が必要です。
ただ、新人教育に関しては、最初は短期的なスパンで教えても良いでしょう。あまり考えろ考えろといっても、考えているうちに終わってしまっては意味がありません。知識が乏しい人に対して、あるいは確実な安全が要求される場では、フールプルーフや標準作業の設定は効果的です。
しかし最も大事なのは、なぜそのような設定がされているのかを考える習慣です。いつもとの違いに「気づく」こと、そして今何が起こっているのか、状況認知をしっかりできるようになること。その状況ではどんなトラブルが起こる可能性があるのか想像できるようになることです。自分で判断する力が身につくと、機器を使用する自分に、作業する自分に安心できるようになります。安全の仕組みは、そのような人の判断を育むものであるべきで、そのような仕組みを作り込むことが、安全への一番の近道だと思います。
安全の仕組みへの誤った思い込み、想像力の欠如はリスクを増大させることになり、むしろ安心できない状況を作り出しているようだ。
世の中にたくさんある安全のためのツールはあくまでも補助的なもの、最終的に安全を守るのは自分だという意識を持ち続けなければならない。