บทความโดยคุณจรัล งามวิโรจน์เจริญ Chief Data Scientist & VP of Data Innovation Lab

บทความที่แล้วเราได้กล่าวถึงปัญญาประดิษฐ์หรือเอไอ (Artificial Intelligence – AI) กับมุมมองทางด้านจริยธรรม โดยยกประเด็นที่น่าสนใจต่างๆ เกี่ยวกับข้อกังวลของอัลกอริทึมที่อาจส่งผลกระทบกับมนุษย์ ซึ่งปัจจุบันเราอยู่ในยุคที่เอไอ ถูกนำมาใช้ในการตัดสินใจเรื่องต่างๆ มากขึ้น เช่น การตัดสินอนุมัติกู้ยืมเงิน ซื้อขายหุ้น คัดกรองข่าว ตัดสินโทษจำคุก เป็นต้น โดยในมุมของผู้ใช้หรือผู้พัฒนาก็มีหลายประเด็นที่ควรคำนึงถึง (บทความ มุมมองจริยธรรมที่ชวนคิดของชีวิตในอนาคต) และในบทความนี้ ผมจะขอกล่าวถึงกรณีศึกษาต่างๆ ที่น่าสนใจ ทั้งมุมมองด้านสังคม จริยธรรม และอีกหลายมิติที่อาจยังไม่มีบทสรุปชัดเจน ขึ้นอยู่กับเราว่าจะคิดอย่างไร

กรณีศึกษาที่ 1: เอไอที่ใช้ในการคัดเลือกใบสมัครงาน
บริษัท Arai เป็นบริษัทซอฟต์แวร์ (software) ที่เริ่มโด่งดังในตลาดโลก ฝ่ายทรัพยากรบุคคล (Human Resources) ได้รับใบสมัครงานมากมายจนล้นมือ จึงขอให้ทีมนักพัฒนา (developer) ช่วยสร้างเอไอสำหรับคัดเลือกใบสมัครงาน ซึ่งระบบนี้ก็ใช้งานได้ดี แม่นยำ และรวดเร็ว จนทำให้ฝ่ายทรัพยากรบุคคลเชื่อใจและลดการตรวจทานลง ต่อมา นางสาวมานีได้รับอีเมล ตอบกลับว่าใบสมัครของเธอถูกปฏิเสธเพียงระยะเวลาไม่กี่ชั่วโมงเท่านั้น ซึ่งเธอมั่นใจว่ามีคุณสมบัติครบถ้วนเหมาะสมกับงาน เธอจึงเขียนอีเมลไปแจ้งฝ่ายทรัพยากรบุคคลของบริษัทฯ ซึ่งผลการตรวจสอบข้อมูลเชิงลึกพบว่า ตัวแปรที่เอไอใช้ คือ การเน้นผู้สมัครที่มาจากสถาบันการศึกษาหนึ่งมากกว่าสถาบันอื่นๆ คำถามที่ชวนคิดคือ เมื่อโมเดลมีความอคติ (bias) ซึ่งเกิดขึ้นจากข้อมูลที่มีความอคติ ทางทีมนักพัฒนาควรจะจัดการอย่างไร

กรณีศึกษาที่ 2: เอไอสำหรับการสอบสวน
หน่วยสืบสวนของประเทศ Arpae ให้บริษัท Thammai พัฒนาแชทบอท Arbot (chatbot Arbot) ที่มีเอไอดูพฤติกรรมการพูดคุยสื่อสารของคนในโลกออนไลน์ เพื่อหาคนที่จะกระทำอาชญากรรมด้านไซเบอร์ (cyber crime) เช่น ขโมยข้อมูลส่วนตัวของเหยื่อ (identity theft) เพื่อนำไปใช้ทำธุรกรรมต่างๆ โดยที่เจ้าของไม่รู้ ซึ่ง Arbot สามารถพูดคุยกับคนที่มีแนวโน้มที่จะเป็นอาชญากรได้ Artbot สามารถทำงานได้ดี โดยไม่มีคนเข้ามาเกี่ยวข้องและสามารถจับผู้ก่อการร้ายได้มากมาย สร้างความเชื่อมั่นให้กับหน่วยตรวจสอบของประเทศได้เป็นอย่างดี อยู่มาวันหนึ่ง นายมานะจากประเทศ Doodee ถูกจับข้อหาพยายามขายข้อมูล เขาอ้างว่า เขาเป็นเหยื่อจากการพูดคุยกับ Arbot เพราะ Arbot พยายามเสนอให้เขาขายข้อมูลตัวตนของคนอื่น ซึ่งจากการตรวจสอบบันทึกการสนทนา (conversation log) ในภายหลังพบว่า Arbot ใช้ประโยคลักษณะจูงใจเพื่อที่จะดูว่าคนจะกระทำผิดหรือไม่ จึงเกิดเป็นคำถามชวนคิดว่า ถ้า Arbot ทำงานผิดพลาดและหน่วยสืบสวนไม่สามารถเปิดเผยรายละเอียดการทำงานของ Arbot ได้เพราะเป็นเรื่องของความมั่นคง เราจะมีกระบวนการตรวจสอบเพื่อสร้างความโปร่งใสได้อย่างไร

กรณีศึกษาที่ 3: เอไอกับการขับรถ
บริษัท Krab เป็นบริษัทให้บริการเช่ารถไร้คนขับที่มีทางเลือกให้คนขับสามารถควบคุมรถได้เอง อยู่มาวันหนึ่ง สมศรีเช่ารถไร้คนขับจาก Krab แล้วปล่อยให้รถขับเอง ระหว่างทางฝนเริ่มตกหนัก ไฟสัญญาณที่สี่แยกเสีย และเผอิญมีคนเข็นรถจักรยานผ่านตรงทางม้าลาย สมศรีมองเห็นสิ่งที่เกิดขึ้นแต่ก็ไม่ได้ทำอะไร ปล่อยให้รถขับต่อไป ปรากฎว่ารถเบี่ยงหลบรถจักรยานและชนคนบนทางเท้า เมื่อตรวจสอบข้อมูลภายในรถก็พบว่า รถเห็นว่าจักรยานกำลังขยับเข้าใกล้ จึงพยายามจะหักหลบ แต่ไม่แน่ใจว่าในกรณีนี้ทำไมรถถึงตัดสินใจอย่างนั้น คำถามชวนคิดของกรณีศึกษานี้คือ คนมีหน้าที่อย่างไรในสถานการณ์ที่มีความเสี่ยงแบบนี้

หลังจากอ่านกรณีศึกษาทั้งหมดจบแล้ว ผมคิดว่ามีประเด็นคำถามที่ชวนให้คิดอีกมากมาย ซึ่งผมขอเพิ่มหัวข้อไว้ด้านล่างนี้ เพื่อให้ผู้อ่านทุกคนลองคิดและชวนเพื่อนๆ มาถกประเด็นต่างๆ ร่วมกันนะครับ
จากการทำงานแบบตัดสินใจเองโดยอัตโนมัติโดยมนุษย์มีส่วนร่วมน้อยหรือไม่มีส่วนร่วมเลย (automation)

1. Human in the loop – Augmentation vs Automation
กรณีศึกษาข้างต้นที่กล่าวมา มีความแตกต่างในการนำเอไอมาใช้ เช่น การนำเอไอมาใช้เป็นส่วนหนึ่งเพื่อเสริมความสามารถของงาน (augmentation) มีมนุษย์เข้ามามีส่วนเกี่ยวข้องในการดำเนินงาน ซึ่งแตกต่างจึงเกิดคำถามว่า ลักษณะงานหรือการตัดสินใจแบบไหนที่เราควรจะให้เอไอทำงานได้ด้วยตัวเองโดยไม่มีคนอยู่ในกระบวนการทำงาน

2. Responsibility & Liability
การเอาเอไอมาใช้งาน ควรจะมีการกำหนดขอบเขตการตัดสินใจของคนกับเอไอหรือไม่ หากเอไอมีความผิดพลาดเกิดขึ้นอย่างที่กล่าวมาในกรณีศึกษาข้างต้น ใครจะเป็นคนรับผิดชอบ ผู้ใช้ ผู้พัฒนา/ผู้ผลิตเอไอ หรือตัวเอไอเอง สิ่งที่น่าสนใจคือ กฎหมายประเทศอเมริกาพิจารณาความรับผิดชอบจากเจตนา (intention) ซึ่งสามารถอ้างได้ว่า เอไอไม่สามารถแสดงเจตนาได้ ดังนั้นเราจึงไม่สามารถให้เอไอรับผิดชอบจากเหตุที่เกิดขึ้น

3. Implications of AI on human
อดีตสอนให้เรารู้ว่าเทคโนโลยีมีผลกับความคิดและชีวิตประจำวันของเรา เช่น การมีรถทำให้เราเดินทางไปไหนมาไหนสะดวกรวดเร็วยิ่งขึ้น และการซื้อของบนโลกออนไลน์ก็ทำได้อย่างรวดเร็ว จากตัวอย่างนี้ได้เปลี่ยนนิยามความรู้สึกในอดีตของคำว่า “เร็ว” จากวันมาเป็นหลักวินาทีเท่านั้น เช่นเดียวกันกับเอไอ เมื่อเราใช้และอยู่กับมันมากขึ้น มันจะเปลี่ยนความคิดของเราหรือไม่ มันจะทำให้เรามีความรับผิดชอบทางจริยธรรม (moral responsibility) น้อยลงหรือไม่ เช่น การรักษาคน การอนุมัติเงินกู้ การจ้างงานคนในกรณีที่มีเครื่องมือตัดสินใจแทนเรา รวมทั้งจะทำให้คนขาดความเข้าใจความรู้สึกของผู้อื่น (empathy) หรือไม่ ซึ่งเราควรจะมีกรอบของการมอบอำนาจตัดสินใจให้กับเอไอ โดยที่ไม่ลดความเป็นเพื่อนมนุษย์ร่วมโลกหรือไม่

4. Privacy vs public safety debate
เอไอแอปพลิเคชันหลายๆ อย่างเกี่ยวข้องกับความปลอดภัยสาธารณะ เช่น เอไอสำหรับการจดจำใบหน้าเพื่อใช้จับผู้ร้าย หรือการสอบสวนอาจมีการใช้ข้อมูลส่วนตัว เช่น ใบหน้า ประวัติต่างๆ ของผู้ที่มีโอกาสก่อการร้าย หากมีการตรวจสอบ (audit) หน่วยงานรัฐที่ใช้ก็อาจจะไม่สามารถเปิดเผยกระบวนการทำงานของอัลกอริทึม (algorithm) หรือข้อมูลที่ใช้ให้สาธารณะตรวจสอบได้ เพราะอาจมีปัญหาเรื่องความมั่นคง ความปลอดภัย ดังนั้น ประเด็นเรื่องการยอมเสียข้อมูลส่วนตัวบางอย่างเพื่อความปลอดภัยของสาธารณะ (individual privacy vs public safety) ก็ยังคงมีอยู่ สุดท้ายจึงเกี่ยวข้องกับความเชื่อมั่นในเทคโนโลยีเอไอว่าจะไม่อคติ รวมทั้ง ความเชื่อใจที่ประชาชนมีต่อผู้นำเอาเอไอไปใช้อย่างรัฐบาล ล่าสุดมีนักวิจัยพบว่า ผลิตภัณฑ์เอไอตรวจสอบใบหน้าของบริษัทหนึ่งมีอคติกับคนผิวสีบางรัฐ เช่น ซานฟรานซิสโก ซึ่งมีการพิจารณาห้ามไม่ให้ตำรวจนำไปใช้ เพราะเกรงว่าจะให้อำนาจกับตำรวจมากเกินไปและอาจมีความเสี่ยงในการนำไปใช้ในทางที่ผิด

ความผิดพลาดจากกรณีศึกษาและประเด็นคำถามข้างต้น เราจะป้องกัน วิเคราะห์ และทำอย่างไรให้เอไอปลอดภัย น่าเชื่อถือ ซึ่งมีกลุ่มคนหลายกลุ่มพยายามจะหาเฟรมเวิร์ก (Framework) ที่จะช่วยทำให้เอไอปลอดภัยสำหรับคน เช่น ไอเดียที่เกี่ยวข้องกับ human-centered AI, trustworthy AI, value by design, และ ethically-aligned design ซึ่งเราจะกล่าวถึงในบทความครั้งต่อไป สุดท้ายแล้ว เอไอเป็นเทคโนโลยีที่ผู้สร้าง และผู้ใช้ ต้องมีจริยธรรมและความรอบคอบเพื่อที่จะใช้มันให้เกิดประโยชน์กับคนและสังคมให้ได้มากที่สุด

References:
:https://aiethics.princeton.edu/case-studies/case-study-pdfs/

Written by Sertis Team