Skip to content

Hindsight and Outcome Bias อคติหลังเหตุการณ์ – กับดักของสมองที่ควรรู้

แดเนียล คาห์เนอมัน (Daniel Kahneman) นักจิตวิทยารางวัลโนเบล บอกว่า
.
“เมื่อผลลัพธ์ปรากฏ เราไม่เพียงแค่เรียนรู้ .. แต่เรามักแต่งเติมความจำ เพื่อให้ดูเหมือนว่าเรารู้อยู่แล้ว”
.
มนุษย์เราไม่ใช่สิ่งมีชีวิตที่จดจำทุกสิ่งได้อย่างเป็นกลาง เราคือสิ่งมีชีวิตที่ชอบ ‘ตีความ’ ให้กับความทรงจำ
.
และในหลายครั้ง คนเรามักตีความกันผิด สองอคติทางจิตวิทยาที่ทำให้เราตีความอดีตอย่างบิดเบี้ยว ได้แก่ Hindsight Bias และ Outcome Bias
.
ในโลกของการบิน ทุกการตัดสินใจล้วนส่งผลต่อชีวิต อคติทั้งสองนี้ไม่เพียงทำให้เรามองเหตุการณ์ผิด แต่มันอาจบดบังบทเรียนสำคัญที่ควรเรียนรู้จากความผิดพลาดในอดีต
.
1. Hindsight Bias – มองย้อนกลับแบบรู้ไปหมด
.
Hindsight Bias หรือที่เรียกว่า ‘อคติรู้หลังเกม’ คืออคติที่ทำให้เราคิดว่า ‘รู้อยู่แล้ว’ ว่าผลจะออกมาเป็นแบบนั้น แม้ในความเป็นจริง ตอนนั้นเรายังไม่รู้อะไรเลย
.
“อุบัติเหตุครั้งนั้นเกิดเพราะเขาเลือกเส้นทางนี้แหละ ใครๆ ก็ดูออก”
.
แต่นั่นคือเสียงที่ดัง หลังจากเรารู้ว่ามันพาไปสู่ความผิดพลาด
.
เสียงของ hindsight ที่ทำให้เราตีความอดีตอย่างมั่นใจเกินจริง
.
ตัวอย่างเช่น เมื่อทีมฟุตบอลแพ้ แล้วเราบอกว่า
.
“ฉันเห็นตั้งแต่แรกแล้วว่าฟอร์มไม่ดี แพ้ชัวร์”
.
ทั้งที่ก่อนแข่ง เราอาจคิดว่าเกมสูสี
.
เพราะสมองเราชอบเรื่องที่ ‘มีเหตุผล’
.
มันไม่ชอบความรู้สึกว่า ‘เราไม่รู้’ หรือ ‘มันเกิดขึ้นแบบสุ่ม’ เลยเอาผลลัพธ์ในตอนนี้ ย้อนกลับไปเติมแต่งอดีต ให้ดูเหมือนว่า .. เรารู้อยู่แล้ว
.
Hindsight Bias ก็เหมือนดูเฉลยข้อสอบแล้วบอกว่า “ข้อนี้ง่ายจะตาย” ทั้งที่ตอนทำจริงก็ตอบไม่ได้
.
กลไกการทำงานคือ สมองของเราจะใช้ Hippocampus และ Prefrontal Cortex ในการจัดระเบียบความทรงจำ
.
เมื่อผลลัพธ์ปรากฏ สมองจะ ‘เขียนทับ’ ความทรงจำในแบบที่เข้ากันกับผลลัพธ์นั้น เราจึงรู้สึกว่า “รู้อยู่แล้ว” ทั้งๆที่ความจริงคือการรู้แบบย้อนหลัง
.
2. Outcome Bias ตัดสินดีชั่วจากผลลัพธ์ ไม่ใช่จากกระบวนการ
.
Outcome Bias คืออคติที่ทำให้เราตัดสินว่า การตัดสินใจนั้นดีหรือไม่ โดยดูแค่ผลลัพธ์ ไม่ใช่ คุณภาพของการตัดสินใจในตอนนั้น
.
“เขาตัดสินใจพลาด จึงทำให้เครื่องตก”
.
ทั้งที่ก่อนตัดสินใจ เขาประเมินข้อมูลครบถ้วนที่สุดแล้ว
.
ตัวอย่างคลาสสิกเช่น แพทย์ให้ยาอย่างถูกต้องตามวิธี แต่ผู้ป่วยแพ้ยาอย่างรุนแรง
.
ผู้คนก็พาลไปตัดสินว่า ‘หมอผิด’ แม้หมอจะทำทุกอย่างถูกต้องแล้วก็ตาม
.
มีงานวิจัยจากสองนักจิตวิทยาชาวอเมริกัน โจนาธาน บารอน (Jonathan Baron) และ จอห์น ซี. เฮอร์เชย์ (John Hershey) ทำการทดลองในปี 1988 ซึ่งอธิบายเรื่องนี้ได้ชัดเจนดี
.
การทดลองคือ ให้ผู้เข้าร่วมประเมินการตัดสินใจของแพทย์สองคน
.
– แพทย์คนแรกให้ยากลุ่ม A แล้วคนไข้รอด
– แพทย์คนที่สองให้ยากลุ่ม A เหมือนกัน แต่คนไข้เสียชีวิต
.
ทั้งที่ข้อมูลทุกอย่างเหมือนกันหมด แต่คนส่วนใหญ่กลับตัดสินว่าหมอคนที่สองนั้น ‘ตัดสินใจผิด’
.
(การทดลองนี้เป็นสถานการณ์จำลอง – คนไข้ไม่ได้เสียชีวิตจริง)
.
ในมุมของ Outcome Bias นั้น จะตีความว่า ผลลัพธ์ที่เลวร้าย หมายถึง ‘การตัดสินใจที่ผิด’ ทั้งที่ความจริงอาจไม่ใช่เลย
.
อคติทั้งสองอย่างนี้ก็เกิดขึ้นในโลกของการบินเช่นกัน
.
หลังอุบัติเหตุทางอากาศในแต่ละเคส เมื่อการสอบสวนเสร็จสิ้น และรายงานสรุปผลจากหน่วยงานที่เกี่ยวข้องถูกเผยแพร่หลังเหตุการณ์ผ่านไปแล้วนั้น เมื่อผู้คนอ่านรายงาน บรรดานักบิน นักวิเคราะห์ และนักอ่าน ก็มักตกหลุมพลางของ Hindsight Bias โดยไม่รู้ตัว
.
“นักบินไม่น่าบินเลยในสภาพอากาศแบบนั้น”
.
ทั้งๆที่ข้อมูล ณ เวลานั้น พยากรณ์อากาศดีสุดๆ
.
อีกทั้ง Outcome Bias ยังส่งผลต่อวัฒนธรรมความปลอดภัยด้วย เช่น
.
– นักบินที่ตัดสินใจ Go-around แม้อาจจะลงจอดได้ ก็อาจถูกหัวหน้างานตำหนิว่า “เปลืองน้ำมัน” เพราะคิดว่าจริงๆก็น่าจะลงได้อยู่แล้ว นี่คือตัวอย่างของ Outcome Bias ที่บั่นทอนความกล้าตัดสินใจเพื่อความปลอดภัย
.
ในทางตรงกันข้าม
.
บางคน ‘เสี่ยงแล้วรอด’ กลับถูกชมเชย แม้กระบวนการของนักบินอาจจะผิดพลาดตั้งแต่แรก
.
นี่คือปัญหาที่ซ่อนอยู่ในระบบความปลอดภัย
.
ถามว่าแล้วทำไมสมองมนุษย์ถึงชอบ ‘รู้หลังเกม’ และ ‘ตัดสินจากผลลัพธ์’ คำตอบคือ
.
1. สมองต้องการความเรียบง่าย
ความวุ่นวายของข้อมูลจำนวนมากทำให้สมองชอบหาทางลัด การรู้ผลลัพธ์แล้วตีความย้อนหลังจึงเป็นวิธีลดภาระในการประมวลผล
.
2. มนุษย์เรารังเกียจความไม่แน่นอน
สมองชอบเรื่องที่ ‘มีเหตุมีผล’ และ ‘รู้สึกควบคุมได้’ การรู้สึกว่า “มันน่าจะเกิดแบบนี้อยู่แล้ว” ทำให้เราสบายใจ แม้จะผิดเพี้ยนไปจากข้อเท็จจริงก็ตาม
.
3. ระบบคิดเร็ว vs คิดช้า ของ แดเนียล คาห์เนอมัน (System 1 & 2) ที่อธิบายว่ามนุษย์มีระบบความคิดอยู่ 2 แบบได้แก่
– System 1 = คิดเร็ว คิดอัตโนมัติ ชอบด่วนสรุป
– System 2 = คิดช้า มีเหตุผล วิเคราะห์ลึก
.
คนส่วนใหญ่ใช้ System 1 มากกว่า จึงตกเป็นเหยื่อของ Bias โดยไม่รู้ตัว
.
แล้วทำไงจึงจะไม่ตกหลุมพลางของอคติเหล่านี้
.
1. ให้ความสำคัญกับ ‘กระบวนการ’ มากกว่าผลลัพธ์
.
ถามว่า “นักบินมีข้อมูลอะไรบ้างในตอนนั้น?”
มากกว่าไปเน้นจุดที่ว่า “จะมีผลลัพธ์อะไรเกิดขึ้นบ้าง?”
.
2. ฝึกวิเคราะห์แบบอิงบริบท (Contextual Inquiry)
.
พิจารณาว่าในสถานการณ์จริง เวลากดดัน ความเหนื่อยล้า และความไม่แน่นอนมีผลอย่างไร
.
3. สร้างวัฒนธรรมความปลอดภัยแบบ ‘Just Culture’
.
ซึ่งเน้นการเรียนรู้จากข้อผิดพลาด มากกว่าการตำหนิ
.
“เราควรถามว่า ทำไมการตัดสินใจนี้จึงเกิดขึ้นในเวลานั้น ไม่ใช่แค่มองว่าผลออกมาเป็นอย่างไร”
.
ในห้องเรียน เราสอนให้นักเรียนฝึกวิเคราะห์และตัดสินใจ แต่ถ้าเราไม่เข้าใจว่า ตัวเองก็มีอคติในการตัดสินใจย้อนหลัง เราจะไม่สามารถเรียนรู้จากกรณีศึกษาในอดีตได้อย่างแท้จริง
.
“Hindsight Bias ทำให้เราดูฉลาดหลังเหตุการณ์”
.
“Outcome Bias ทำให้เราตัดสินคนจากความโชคดีหรือโชคร้าย มากกว่ากระบวนการที่เขาตัดสินใจในเวลานั้น”
.
นักบินยุคใหม่ควรฝึกให้คิดแบบ ‘นักวิเคราะห์’ ไม่ใช่ ‘นักตัดสิน’
.
เพราะ การเรียนรู้ที่ดี ไม่ได้เกิดจากผลลัพธ์เพียงอย่างเดียว แต่เกิดจากการเข้าใจว่าเราคิดอย่างไร ทำไมถึงคิดแบบนั้น และตอนนั้นเรารู้อะไรบ้าง
.
ถ้าเราไม่รู้เท่าทันอคติพวกนี้
.
– เราอาจตำหนิผู้อื่นอย่างไม่เป็นธรรม
– เราอาจเชื่อมั่นในความคิดและความจำของตัวเองมากเกินไป
– เราอาจสรุปบทเรียนผิด แล้วใช้มันตัดสินอนาคตแบบผิดๆ
.
ในโลกการบิน หรือแม้แต่ในองค์กรทั่วไป
.
– การวิเคราะห์อุบัติเหตุที่ดี = ไม่ใช่การโทษคน
แต่คือการย้อนดูว่า การตัดสินใจเกิดขึ้นจากอะไร ภายใต้เงื่อนไขใด
.
– ถ้าเรารู้เท่าทัน Hindsight และ Outcome Bias
เราจะสามารถออกแบบ มาตรการป้องกันในอนาคต ได้อย่างแม่นยำมากขึ้น
.
.

อ่านบทความอื่นๆได้ใน Facebook Page : Hovering Inspirations 👇

https://www.facebook.com/profile.php?id=61558412223812&mibextid=ZbWKwL

ใส่ความเห็น

อีเมลของคุณจะไม่แสดงให้คนอื่นเห็น ช่องข้อมูลจำเป็นถูกทำเครื่องหมาย *