“ผิดเป็นครู” เป็นสำนวนไทยที่เตือนให้เราเรียนรู้จากความผิดพลาดที่เกิดขึ้นได้กับทุกการแวดวงการทำงาน แม้แต่ในการทำงานของทีมของผม ที่เกี่ยวกับการวิจัยและพัฒนา AI เอง ก็อาจเกิดความผิดพลาดขึ้นได้เช่นกัน เพื่อควบคุมและลดข้อผิดพลาดเหล่านั้น ทางทีมงานจึงต้องคำนึงถึง การจัดการความเสี่ยงของ AI/ML โมเดล อยู่โดยตลอด
ดังคำกล่าวของ Benjamin Franklin ที่ว่า “If you don’t plan to fail, you fail to plan.” หรือ “ถ้าคุณไม่วางแผนที่จะพลาด คุณพลาดที่จะวางแผน” เทคโนโลยี AI เป็นเทคโนโลยีใหม่ที่คนส่วนใหญ่อาจจะถูกโน้มน้าวจากสื่อให้เชื่อถือมันมากกว่าที่ควรจะเป็น ดังนั้น นักวิจัยและพัฒนา AI ควรบริหารความคาดหวังและให้ความรู้กับลูกค้าและผู้ใช้งาน ถึงข้อจำกัดและสิ่งที่จะเกิดขึ้นหากโมเดลทำงานผิดพลาด
ในบทความนี้ผมขอสรุปสาเหตุและบทเรียนที่ได้เรียนรู้จากข้อผิดพลาดในการทำงานของ AI
โดยทาง MITRE หน่วยงานที่ไม่แสวงหาผลกำไรที่ทำงานกับภาครัฐของสหรัฐอเมริกา ได้รวบรวมไว้
ซึ่งมีดังต่อไปนี้
6 ข้อผิดพลาดที่สามารถเกิดขึ้นได้กับการทำงานของ AI
ผิดพลาดเพราะมนุษย์คิดว่า AI มีความสามารถเกินกว่ามนุษย์ หรือทำงานได้สมบูรณ์แบบกว่า เช่นความสามารถในการคาดการณ์ได้อย่างแม่นยำและคิดเองได้ โดยคิดว่า AI ไม่ต้องการมนุษย์ในการควบคุมดูแล
ผิดพลาดเพราะในโลกของความเป็นจริงมีสิ่งแวดล้อมเป็นองค์ประกอบและเป็นตัวแปร ซึ่ง AI จะทำงานที่เฉพาะเจาะจงได้ดี เช่น การจำสิ่งของ การแปลภาษา โดยขึ้นอยู่กับข้อมูลที่นำมาสอนในสถานการณ์นั้น ๆ ถ้าหากสถานการณ์แตกต่างออกไป เช่น ภาพไม่ชัด แสงน้อย มีประโยคแปลก ๆ ที่โมเดลของเครื่องจับสัญญาณได้ไม่ดี หรือ AI ไม่เคยเห็นข้อมูลลักษณะนี้มาก่อน AI ก็อาจจะทำงานได้ไม่ดี และไม่มีระบบความปลอดภัยที่ดีพอ ซึ่งอาจทำให้ถูกโจมตีทางไซเบอร์ (cybersecurity attack) นำไปสู่การทำงานที่ผิดพลาดได้
ผิดพลาดเพราะการที่ AI ถูกสอนด้วยข้อมูลที่เฉพาะเจาะจง ไม่ครอบคลุมจากหลาย ๆ บริบท อาจทำให้ระบบไม่เข้าใจบริบททั้งหมด เช่น การที่ AI Facial Recognition ถูกสอนให้จดจำใบหน้าด้วยข้อมูลใบหน้าของคนที่มีผิวขาวเป็นจำนวนมาก อาจทำให้การจดจำใบหน้าของคนผิวดำไม่ดีพอเมื่อเทียบกับข้อมูลของคนผิวขาว ยิ่งไปกว่านั้น คือ ในยุคของการแข่งขันเพื่อแสดงศักยภาพด้าน AI ของประเทศอาจนำไปสู่การแข่งขันเร่งผลิตพัฒนาระบบ AI ที่ไม่ได้รับการตรวจสอบคุณภาพอย่างถี่ถ้วน
ผิดพลาดเพราะเข้าใจผิดว่าการพัฒนา AI สำเร็จแล้ว ก็ถือว่าเสร็จสิ้น แต่การพัฒนา AI ไม่มีวันสิ้นสุด แม้ว่าเราจะเราจะพัฒนา AI กับงานบางอย่างได้สำเร็จ แต่ก็ยังคงต้องพัฒนาต่อไป เพื่อให้มีความปลอดภัยที่สูงขึ้น และถูกออกแบบเพื่อใช้ในบริบทต่าง ๆ กันอย่างเหมาะสม
ผิดพลาดเพราะวางใจในเทคโนโลยีมากเกินไป มนุษย์มีแนวโน้มที่จะเชื่อและชื่นชมเทคโนโลยีที่ตัวเองไม่คุ้นเคยมากกว่าที่ควรจะเป็น (Cognitive Bias)
ผิดพลาดเพราะไม่มีระบบสนับสนุนที่ครอบคลุม มีหลายสิ่งที่ยังต้องใช้ในการสนับสนุนให้เกิดระบบ AI ที่ปลอดภัย นอกจากข้อมูล อัลกอริทึมต้องมีมุมมองอื่น ๆ เช่นการจัดการ กฎระเบียบ ผลกระทบทางสังคม สิ่งต่าง ๆ เหล่านี้เป็นเหมือนระบบนิเวศที่จะช่วยให้การพัฒนาระบบ AI มีความครอบคลุมในหลากหลายมิติ และช่วยลดความเสื่ยงต่าง ๆ ที่อาจส่งผลกระทบต่อสังคมในอนาคต ในความเป็นจริงเราคงไม่สามารถหาข้อมูลมาสอน AI ได้อย่างครบถ้วน เพราะฉะนั้นการจัดการความเสี่ยงเรื่องผลกระทบของการนำ AI ไปใช้งานจึงเป็นเรื่องที่สำคัญมาก
บทเรียนจากความคิดของคนเกี่ยวกับ AI
Multidisciplinary: การพัฒนา AI เป็นปัญหาที่ต้องใช้ศาสตร์จากหลากหลายแขนง ที่ต้องคิดให้รอบด้าน ทั้งด้านเทคนิคและด้านพฤติกรรมของมนุษย์
Multistakeholder: การนำ AI ไปใช้มีผลกระทบนอกเหนือจากผู้ใช้งานเท่านั้น จึงจำเป็นต้องเก็บข้อมูลผู้ที่จะได้รับผลกระทบ เพื่อพัฒนาและออกแบบให้เหมาะสม และเกิดผลกระทบที่ไม่คาดคิดน้อยที่สุด
Bias: ในโลกนี้ไม่มีอะไรที่ไม่มีอคติ ข้อมูลต่าง ๆ ถูกเก็บโดยมนุษย์ (ซึ่งมีอคติไม่มากก็น้อย) โดยสมมติฐานของมนุษย์มีอิทธิพลต่อการสร้าง AI เพราะฉะนั้นสิ่งเหล่านี้อาจจะมีข้อมูลหลบซ่อนและมีผลต่อการสร้าง AI/ML โมเดล
Documentation: เอกสารในการพัฒนาเป็นเครื่องมือสำคัญที่จะช่วยลดความผิดพลาดของระบบ การบันทึกจุดประสงค์ แนวคิดข้อดี ข้อเสียของการออกแบบ การตัดสินใจ และสมมติฐานของการพัฒนาระบบจะเป็นกระบวนการที่ช่วยในการตรวจสอบได้
Accountability: ภาระความรับผิดชอบต้องขึ้นกับผลกระทบของระบบ AI ยิ่ง AI สร้างผลกระทบวงกว้างและรุนแรงไม่ว่าจะเป็นด้านทรัพย์สิน จิตใจ ร่างกาย ยิ่งต้องมีความรอบคอบรัดกุมในการพัฒนามากขึ้น
ในบทความหน้า ผมจะพูดถึงรายละเอียดที่จะลดและหลีกเลี่ยงข้อผิดพลาดที่จะเกิดขึ้นได้จากการทำงานของ AI รอติดตามกันนะครับ
References:
https://sites.mitre.org/aifails/
Comments