kotaの雑記帳

日々気になったことの忘備録として記していきます。



セーフウエア:安心・安全なシステムとソフトウエアを目指して

セーフウエア:安心・安全なシステムとソフトウエアを目指して

はじめに

2011年3月11日の東北地方太平洋沖地震から3週間経った今も福島原発のトラブルが収束しない。このトラブルを人災と呼ぶ人も出ているが、安全性の確保を人災で片付けてはいけない。人災という言葉は思考停止を招く、我々は一歩先を考えなければいけない。

「セーフウエア」という本は、福島原発のトラブルのある今こそ読む本である。単なる安全設計の方法論だけではなく、リスクの本質と事故の原因について深く考察し、システムにおける人間の役割の考察を通してヒューマンエラーの必要性についても論じています。システム設計に関わるもので、このような本質的な内容に触れた本を私は初めて見ました。

本書の内容

本書の章構成は次の通りです。

第1部 リスクの性質

第2部 システム安全への序論

第3部 定義とモデル

第4部 セーフウエアプログラムの要素

この中で、第1部と第2部が格別に面白い。
第1部からいくつか引用する。
まずは、システムの複雑さが引き起こすリスクに関して

機能的な複雑さは、設計者の仕事をさらに難しくするだけでなく、プロジェクトが複雑になり関連する機能が広がると、数多くの人々やチームでの共同作業が必要となる。集団でプロジェクトが進められるようになると、誰が作業を行ったのかがわかりにくくなり、個人の責任が希薄になってしまう。

コンピュータを用いることで生じるリスクについて

  (コンピュータの導入による)技術的な対策によりリスク低減が出来ても、そのことが安全マージンを減らす口実に使われる場合がある。例えば、システムをより高速で運転したり、より悪い天候かで使用したり、より大量の爆発物を使ったりして性能を向上させるようなことである

その他にも

低確率で過酷な事故の無視

また、システムにおける人間の役割についての考察も興味深い。

  • 機械による自動化は、あらかじめ手順の分かっている作業についてのみ実現できる
  • そのため、設計時には予見できない事象への対応が、人間に残されることになる。
  • このような事象の対応には、人間の勘を養うためのトライ&エラーによる学習が必要である
  • そのため、ヒューマンエラーは必ず起こるし、積極的に必要である。

まとめ

 安全なシステムを設計し・運営するためには、単なる設計方法論だけでは足りない。リスクの本質を理解し事故の起こる可能性の考察が必要である。「人災」・「ヒューマンエラー」と言った分かりやすい言葉に思考停止にならないためにも、システム設計に関わる人には一読をお勧めする。

セーフウェア~安全・安心なシステムとソフトウェアを目指して (IT Architects' Archive)

セーフウェア~安全・安心なシステムとソフトウェアを目指して (IT Architects' Archive)