May 7, 2019 Articles No Comments

บทความโดยคุณจรัล งามวิโรจน์เจริญ Chief Data Scientist & VP of Data Innovation Lab
บริษัท เซอร์ทิส จำกัด

ปัจจุบันเป็นยุคทองของการนำข้อมูลที่หลากหลายมาใช้ให้เกิดประโยชน์ ซึ่งเป็นผลมาจากความสามารถในการขยายการจัดเก็บข้อมูล computation / storage resource มีราคาถูกลง และข้อมูลมีจำนวนมากขึ้น โดยในหลายประเทศมีการนำปัญญาประดิษฐ์ หรือ เอไอ (Artificial Intelligence – AI) และ Machine Learning มาใช้กับ Big data ซึ่งเป็นเทคโนโลยีหรือเครื่องมือที่สร้างประโยชน์ให้กับเราอย่างมาก เอื้ออำนวยให้เราสามารถทำงานและตัดสินใจได้อย่างมีประสิทธิภาพและแม่นยำยิ่งขึ้น พร้อมทั้งยังส่งผลดีกับภาคเศรษฐกิจและสังคมอีกด้วย (บทความ “ผลกระทบของ AI”)

ความแตกต่างระหว่างเอไอ และเทคโนโลยีในอดีต คือ เอไอสามารถใช้เป็นเครื่องมือในการตัดสินอย่างอัตโนมัติได้ (Automated Decision Maker) ด้วยเหตุนี้จึงต้องมีการจัดการที่เหมาะสม เพราะหากใช้ไม่ถูกต้อง ขาดความโปร่งใสหรือมีอคติ (bias) ในการตัดสิน ย่อมส่งผลกระทบต่อสังคมอย่างแน่นอน โดยเฉพาะช่วงหลังที่มีกระแสความคิดหวาดกลัวว่าเอไอจะเข้ามาแทนที่มนุษย์ จะฉลาดเป็นสุดยอดอัจฉริยะ ซึ่งเกิดจากภาพที่คนจำนวนมากจำมาจากในภาพยนตร์ที่จินตนาการ และขยายความสามารถของเอไอเกินความเป็นจริง ซึ่งคนทั่วไปมักคิดว่าเอไอที่เราพูดถึงกันอยู่ทุกวันนี้มีประสิทธิภาพในด้านเดียว (Artificial Narrow Intelligence) เช่น ใช้ในการแข่งหมากล้อม หรือ โกะ หรือใช้ในการคาดการณ์โรคมะเร็งของผู้ป่วย รวมทั้งคิดว่า เอไอฉลาดเท่าเทียมหรือมากกว่ามนุษย์ (Artificial General Intelligence หรือ Artificial Super Intelligence) (บทความ “ความแตกต่างของคน”) แต่สุดท้ายแล้ว อย่าลืมว่ามนุษย์เป็นผู้สร้างอนาคตของเอไอ เราจึงต้องรู้จักใช้มัน เหมือนการใช้เทคโนโลยีอื่นๆ

ในช่วง 5 ปีที่ผ่านมา องค์กรภาครัฐ เอกชน และหน่วยงานวิจัยต่างๆ ได้ร่วมมือกันในระดับนานาชาติต่อตั้ง คณะทำงานระดับมันสมอง หรือคณะทำงานเกี่ยวกับการวิจัย (think tank) ขึ้น เช่น (Partnership for Artificial Intelligence, the Future of Life Institute, OpenAI, และ the AI Now Institute เพื่อร่วมกันวิจัยและพูดคุยในประเด็นต่างๆ เช่น การจัดการเทคโนโลยีเอไอ การสร้างความปลอดภัย (safety) จริยธรรม (ethics) และความเป็นส่วนตัว (privacy) เพื่อให้เกิดประโยชน์ต่อสังคมมากขึ้น โดยเฉพาะในเรื่องของความโปร่งใสและการมีอคติของเอไอ ซึ่งเป็นเรื่องที่ซับซ้อนหลายมิติ เช่น ความขัดแย้งกันของมุมมองเรื่องความโปร่งใส และความเป็นส่วนตัวของข้อมูล ซึ่งอาจจะไม่ได้มาพร้อมๆ กัน

กล่าวถึง “อคติ” (bias) มนุษย์โดยทั่วไปมีอคติไม่มากก็น้อย ดังนั้นการเก็บข้อมูลหรือการสร้างเอไอ อัลกอริทึม (AI algorithm) ก็อาจจะมีอคติฝังอยู่โดยที่เราไม่รู้ตัว ซึ่งเอไอ จะฉลาดได้นั้น มนุษย์ต้องเป็นคนสอนเหมือนสอนเด็ก โดยวิธีการป้อนข้อมูลตัวอย่างที่มีจำนวนมากพอสมควร เพื่อให้อัลกอริทึมสามารถจับแพทเทิร์น (pattern) บางอย่างได้ ซึ่งข้อมูลต่างๆ อาจจะมีทั้งความลำเอียง (prejudice) และทัศนคติทั่วไป (stereotype) ดังนั้น อคติ จึงเกิดขึ้นได้ทั้งในส่วนข้อมูล (data bias) และอัลกอริทึม (algorithm bias) คนทำงานและนักวิจัยเอไอ จึงเกิดความกังวลเรื่องของอคติและความโปร่งใส ทั้งการได้มาของข้อมูลและการแปลความของเอไอ ด้วยเหตุนี้จึงมีการกำหนดแนวทาง (guideline) การใช้เอไอ ในประเทศสิงคโปร์ที่เรียกว่า FAT ย่อมาจาก ความยุติธรรม (fairness) มีการตรวจสอบได้ (accountability) และมีความโปร่งใส (transparency)

นอกจากนี้ นักวิจัยจากสถาบันที่มีชื่อเสียงอย่าง Oxford Internet Institute ซึ่งเป็นสถาบันที่เน้นการทำวิจัยหลากหลายสาขา โดยเฉพาะสาขาที่เกี่ยวข้องกับวิทยาศาสตร์คอมพิวเตอร์ (computer science) และสังคมศาสตร์ (social Science) และ Alan Turing Institute หน่วยงานวิจัยเอไอ ระดับแนวหน้าของโลก ทั้ง 2 สถาบันได้สรุปความกังวลของอัลกอริทึมที่ส่งผลกระทบกับเราจากการทบทวนงานวิจัย (literature review) ไว้ดังนี้

1. การไม่รู้เหตุอาจนำไปสู่การปฏิบัติที่ไม่ชอบธรรม
อัลกอริทึมส่วนใหญ่ใช้การหาความสัมพันธ์ (correlation) แต่ไม่ได้หาว่าอะไรเป็นเหตุเป็นผล (causality) ตัวอย่างเช่น อัลกอริทึมโยงความสัมพันธ์ว่าคนที่ใช้บัตรเครดิตเพื่อซ่อมยางรถยนต์ มีความเสี่ยงที่จะเป็นคนขับขี่ไม่ปลอดภัย จากเหตุการณ์นี้อาจนำไปสู่การปฏิบัติที่ไม่ชอบธรรมได้

2. การที่ไม่สามารถอธิบายเหตุผลของผลลัพธ์ที่ได้จากอัลกอริทึม อาจนำไปสู่ความคลุมเครือ ขาดความโปร่งใส
Deep Patient ระบบเรียนรู้ข้อมูลสุขภาพของโรงพยาบาล Mount Sinai Hospital ในนิวยอร์ก สามารถทำนายโรคของคนไข้ได้อย่างดีเยี่ยม และถึงแม้อัลกอริทึมจะทำงานได้อย่างมีประสิทธิภาพ แต่ไม่มีใครรู้ว่าโมเดลผลลัพธ์นั้นเกิดขึ้นได้อย่างไร ส่งผลให้เกิดงานวิจัย Exlanable AI (XAI) ที่นักวิจัยเอไอ พยายามทำเพื่อให้เกิดความโปร่งใส และในปัจจุบันก็เริ่มมีงานวิจัยทางด้านนี้มากขึ้น

3. อัลกอริทึมถูกสร้างด้วยข้อมูลที่มีอคติ (data bias) นำไปสู่ผลลัพธ์ที่มีอคติ (bias Outcome) หรืออาจนำไปสู่การแบ่งแยก
ก่อนหน้านี้ ศาลในประเทศสหรัฐอเมริกาบางรัฐใช้ซอฟต์แวร์ (software) ที่ชื่อว่า COMPAS ในการคาดการณ์คะแนนความเสี่ยงของคนที่จะกระทำความผิดในอนาคตมาประกอบการพิจารณาตัดสิน ปรากฏว่าผู้ที่ถูกพิจารณาโทษส่วนใหญ่เป็นคนผิวสี ซึ่งเกิดจากขั้นตอนการเก็บข้อมูลที่ว่าคนผิวสีส่วนใหญ่มักเป็นผู้กระทำความผิด จากตัวอย่างนี้แสดงให้เห็นว่า ถ้าเราใช้ข้อมูลที่เก็บนี้มาสอนอัลกอริทึม ก็จะส่งผลให้เกิดความอคติได้

4. โลกทัศน์ (worldview) และแนวคิด จากอิทธิพลของ AI ทำให้เราโลกแคบ ไม่เป็นตัวเอง
อิทธิพลของโลกออนไลน์ การได้รับข่าวสารผ่านเครื่องกรองที่เรียกว่า Google หรือ Facebook ทำให้เราเลือกเสพข่าวที่เราชื่นชอบ ก่อให้เกิดความอคติ ขาดความเป็นตัวของตัวเองและขาดความหลากหลายในเชิงความคิด

5. การนำ AI มาใช้เพื่อทำความเข้าใจพฤติกรรมของผู้บริโภค อาจนำไปสู่ความเป็นส่วนบุคคลน้อยลง
หลายประเทศตื่นตัวกับประเด็นนี้มากขึ้น เช่น สหภาพยุโรป (European Union – EU) ได้ออกระเบียบ GDPR หรือ General Data Protection Regulation ซึ่งคือร่างกฎหมายให้ความคุ้มครองข้อมูลส่วนบุคคลของผู้บริโภคฉบับใหม่ เพื่อเป็นมาตรการควบคุมการนำข้อมูลส่วนบุคคลของผู้บริโภคไปใช้ ซึ่งเป็นแบบอย่างที่ดีให้กับประเทศต่างๆ รวมทั้งประเทศไทยด้วย แต่อย่างไรก็ตาม เอไอยังคงต้องการข้อมูลหลากหลายมิติในการเรียนรู้ จึงถือเป็นความท้าทายที่ผู้ให้ข้อมูลกับผู้ใช้ข้อมูลต้องหาจุดร่วมร่วมกันเพื่อให้เกิดประโยชน์กับทั้งสองฝ่าย

6. การขาดระบบสืบค้นย้อนกลับ (lack of traceability) ทำให้การกำหนดความรับผิดชอบมีปัญหา
เมื่อเอไอตัดสินใจบางอย่างที่ไม่ได้อยู่ในโปรแกรม จึงเป็นการยากที่จะหาผู้รับผิดชอบหากเกิดความผิดพลาดขึ้น
ประเด็นเหล่านี้ คือ สิ่งที่เราต้องคิดต่อเพื่อทำให้การจัดการเทคโนโลยีมีประโยชน์ต่อมนุษย์และสังคม นอกจากนี้ การที่เราพึ่งพาเครื่องจักรอัตโนมัติ (automation) มากเกินไป ทำให้เราขาดความระมัดระวังว่าสิ่งที่เรากำลังทำอยู่นั้น เป็นสิ่งที่อยู่ในระดับปกติ ระดับที่สุดขีด (extreme) หรือเกินระดับปกติไปแล้ว ซึ่งอาจส่งผลต่อการมีจิตสำนึกด้านศีลธรรมน้อยลงเพราะไม่ได้เป็นผู้ตัดสินใจโดยตรง ตัวอย่างเช่น การนำโดรน (drone) หรือ Unmanned Aerial Vehicle (UAV) มาใช้ทางการทหาร อาจทำให้คนขาดความรู้สึกรับผิดชอบกับสิ่งที่เกิดขึ้นในการทำสงคราม นอกจากนี้ยังส่งผลต่อการขาดความชำนาญในการแก้ไขสถานการณ์ เมื่อต้องจัดการกับเหตุการณ์ฉุกเฉิน เช่น การเปลี่ยนจากระบบควบคุมเครื่องบินแบบอัตโนมัติ (autopilot) มาเป็นแบบควบคุมด้วยตัวเอง (manual) เป็นต้น

บทความต่อไป เราจะมาดูกันครับว่า ถ้าเกิดความผิดพลาดขึ้น ใครจะเป็นคนรับผิดชอบ มนุษย์ หรือ เอไอ

 

References
https://www.eli.org/sites/default/files/eli-pubs/when-software-rules-web.pdf

https://www.technologyreview.com/s/604087/the-dark-secret-at-the-heart-of-ai/

https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

https://www.oreilly.com/ideas/de-biasing-language

Written by Sertis Team