ปัญญาประดิษฐ์ (Artificial Intelligence: AI) กับข้อกังวลด้านสิทธิมนุษยชนในสังคมเอเชียตะวันออกเฉียงใต้: ภาพรวม

Read this article in English / อ่านบทความนี้ใน ภาษาอังกฤษ

"Inteligencia Artificial: ECI 33 (UBA)" by Juan Pablo Dellacha is licensed under CC BY-NC-ND 4.0
"Inteligencia Artificial: ECI 33 (UBA)" by Juan Pablo Dellacha is licensed under CC BY-NC-ND 4.0

แปลไทยโดย ธีรดา ณ จัตุรัส

แม้เราจะเห็นคำว่าปัญญาประดิษฐ์ (Artificial Intelligence หรือ AI) ถูกนำมาใช้อย่างแพร่หลายไปทุกหนทุกแห่งในชีวิตประจำวัน รวมถึงการสื่อสารของเราในแต่ละวัน แต่ความเข้าใจเกี่ยวกับ AI ยังถือว่ามีอยู่น้อยมากในกลุ่มภาคประชาสังคมในภูมิภาคเอเชียตะวันออกเฉียงใต้ เช่นคำถามที่ว่า 1) AI คืออะไร 2) แล้วมีการนำ AI ไปประยุกต์ใช้อะไรบ้างในปัจจุบันโดยเฉพาะในภูมิภาคนี้ 3) รวมไปถึงอะไรคือความเชื่อมโยงระหว่างการเกิดขึ้นของเทคโนโลยีใหม่อย่าง AI กับปัญหาการละเมิดสิทธิมนุษยชน 4) และยุทธศาสตร์การทำงานที่จะช่วยบรรเทาปัญหาการละเมิดสิทธิมนุษยชนจะเป็นอย่างไร

บทความนี้เป็นหนึ่งในชุดบทความที่เกี่ยวกับผลกระทบด้านสิทธิมนุษยชนที่เกี่ยวข้องกับปัญญาประดิษฐ์ (AI) ในภูมิภาคเอเชียตะวันออกเฉียงใต้ โดยมีจุดประสงค์เพื่อการสร้างความตระหนักรู้และกระตุ้นการมีส่วนร่วมของภาคประชาสังคมที่ทำงานร่วมกับชุมชนชายขอบ ทั้งในการรณรงค์เรื่องสิทธิต่างๆ และการแก้ไขปัญหาที่เกี่ยวกับการพัฒนาทั้งในมิติผลกระทบด้านสาธารณสุข ความยากจน และสิ่งแวดล้อม

AI คืออะไร

คำว่า Artificial Intelligence (AI) เป็นศัพท์ที่มีความหมายกว้างและตีความได้หลายแบบ อันที่จริงบทความทางวิชาการที่เขียนเกี่ยวกับ AI ส่วนใหญ่เริ่มต้นด้วยการอธิบายว่า ในปัจจุบันยังไม่มีคำนิยามที่ยอมรับกันอย่างเป็นสากลว่า AI หมายถึงอะไร

ถ้าจะพูดถึง AI อย่างกว้างๆ อาจหมายถึง “ศาสตร์ของการศึกษาเกี่ยวกับอุปกรณ์ดิจิทัลต่างๆ ที่พัฒนาขึ้นมาเพื่อให้มีความสามารถในการเรียนรู้และทำความเข้าใจสภาพแวดล้อมที่อยู่โดยรอบ และกำหนดแนวทางการการดำเนินการในช่วงระยะเวลาหนึ่งเพื่อเพิ่มโอกาสในการบรรลุเป้าหมายที่กำหนดไว้” (World Wide Web Foundation, 2017).

ในทางปฏิบัติแล้ว การเรียนรู้ของเครื่องจักร (Machine Learning หรือ ML) เป็นหนึ่งในศาสตร์ของการศึกษา AI ซึ่งมีการนำมาประยุกต์ใช้อย่างแพร่หลาย

AI คือศาสตร์ของการศึกษาเกี่ยวกับอุปกรณ์ดิจิทัลต่างๆ ที่พัฒนาขึ้นมาเพื่อให้มีความสามารถในการเรียนรู้และทำความเข้าใจสภาพแวดล้อมที่อยู่โดยรอบ และสามารถกำหนดแนวทางในการแก้ไขปัญหาที่ต้องการ

Internet Society 2017 ได้อธิบายเกี่ยวกับ Machine Learning ไว้ว่า แทนที่จะใช้วิธีการให้เครื่องคอมพิวเตอร์แก้ไขปัญหาแบบทีละขั้นตอน นักพัฒนาโปรแกรมที่เป็นมนุษย์ได้เลือกใช้วิธีป้อนรูปแบบชุดคำสั่งและเงื่อนไขต่างๆ ให้แก่คอมพิวเตอร์ให้ได้เรียนรู้ จากข้อมูลที่ป้อนให้นั้น คอมพิวเตอร์จะเริ่มฝึกสร้างกฎใหม่ๆเอง เพื่อเสนอข้อมูลและบริการต่างๆ

ส่วนสิ่งที่เรียกว่า อัลกอริทึม (algorithm) คือ “วิธีการคิดแบบเป็นลำดับขั้นตอนของคำสั่งเพื่อให้คอมพิวเตอร์ได้เรียนรู้ และใช้ในการแก้ไขปัญหาต่างๆ” จึงทำให้เครื่องจักรหรือคอมพิวเตอร์ สามารถแก้ปัญหาที่สลับซับซ้อนในแบบที่วิธีการแบบปกติอาจไม่สามารถแก้ไขปัญหานั้นได้ง่ายๆ

ผลกระทบด้านสิทธิมนุษยชนของ AI

นักวิชาการจากศูนย์ Berkman Klein Center for Internet & Society ของมหาวิทยาลัย Harvard ได้ชี้ว่า Machine Learning มีทั้งข้อดีและข้อเสียที่มีผลกระทบด้านสิทธิมนุษยชน ซึ่งมีอย่างน้อยมี 3 ปัจจัยหลักด้วยกัน ได้แก่

  1. คุณภาพของข้อมูล: นี่เป็นปัญหาที่รู้จักกันดีในคำกล่าวที่ว่า “garbage in, garbage out” (ถ้าใส่ขยะเข้าไป ผลลัพธ์ก็ได้จะขยะออกมา) เพราะถึงแม้จะมีอัลกอริทึม (algorithm) ที่ถูกเขียนมาอย่างดีที่สุดก็อาจจะให้ผลลัพธ์ที่ผิดเพี้ยนถ้าหากข้อมูลตั้งต้นที่ป้อนเข้าเพื่อฝึก Machine Learning มีความลำเอียงหรืออคติอยู่ก่อนแล้ว
  2. การออกแบบระบบ: เมื่อมนุษย์คือผู้ออกแบบระบบ AI ให้เรียนรู้สิ่งต่างๆ ซึ่งก็อาจจะป้อนค่านิยมของตนเองลงไปในการออกแบบระบบด้วย เช่น การให้ความสำคัญตัวแปรบางตัวมากกว่าตัวแปรตัวอื่นๆ
  3. การปฏิสัมพันธ์ที่ซับซ้อน: ระบบ AI อาจจะโต้ตอบต่อสภาพแวดล้อมของตนเองรับรู้ในแบบที่นำไปสู่ผลลัพธ์ที่คาดการณ์ได้ยาก

งานวิจัยเดียวกันนี้ยังเสนออีก 6 ตัวอย่างกรณีศึกษาของการนำ AI มาใช้ในการตัดสินใจในประเด็นทางสังคมต่างๆ นับตั้งแต่กระบวนการยุติธรรมไปจนถึงการวินิจฉัยโรค ผลกระทบเหล่านี้ถือว่าอยู่ภายใต้กรอบของสิทธิมนุษยชน พร้อมยังได้นำเสนอตัวอย่างที่เป็นรูปธรรมเกี่ยวกับสิทธิบางประการที่ได้รับผลกระทบจากการใช้ AI

ยังคงต้องกล่าวว่า ความมีประสิทธิภาพของ AI นั้นขึ้นอยู่กับที่ความแตกต่างของฟังก์ชันต่างๆ ในบางกรณีนั้นก็ดูจะพูดเกินความเป็นจริงของผลลัพธ์เชิงบวกจากการใช้ AI

นี่เป็นสิ่งที่ต้องตระหนักว่า ความไม่ถูกต้องในคาดการณ์ผลโดยใช้ AI อาจส่งผลร้ายอย่างยิ่งต่อชีวิตและศักดิ์ศรีความเป็นมนุษย์

ในการนำเสนองานวิจัยที่ชื่อว่า “How to Recognise AI Snake Oil“ของศาสตราจารย์ Arvind Narayanan จากมหาวิทยาลัย Princeton ได้ระบุว่าขณะที่ AI ได้ถูกนำมาประยุกต์ใช้อย่างสำเร็จในสาขาวิชาด้านการรับรู้ (เช่น การระบุเนื้อหาข้อความ ระบบจดจำใบหน้า การวินิจฉัยโรคผ่านภาพสแกน) และใช้ในด้านการคาดการณ์ทางสังคมต่างๆ (เช่น ความเป็นไปได้ในการก่ออาชญากรรม หรือ ประสิทธิภาพในการทำงาน) นั่นยังถือว่า “มีความน่าสงสัย”

นี่เป็นสิ่งที่ต้องตระหนักว่า ความไม่ถูกต้องในคาดการณ์ผลโดยใช้ AI อาจส่งผลร้ายอย่างยิ่งต่อชีวิตและศักดิ์ศรีความเป็นมนุษย์

เครดิตภาพ: "kecerdasan" (intelligence) ภายใต้ลิขสิทธิ์ CC0 1.0
เครดิตภาพ: "kecerdasan" (intelligence) ภายใต้ลิขสิทธิ์ CC0 1.0

AI ในบริบทของเอเชียอุษาคเนย์

ดูเหมือนว่า แทบจะไม่มีงานวิจัยและการศึกษามากนักที่เกี่ยวกับประเด็นสิทธิมนุษยชนและผลกระทบจากการใช้ AI ในบริบทของภาคเอเชียตะวันออกเฉียงใต้ ขณะที่การถกเถียงเกี่ยวประเด็นเรื่องจริยธรรมและหลักการในการใช้ AI ส่วนใหญ่เกิดขึ้นในกลุ่มประเทศที่พัฒนาแล้วและประเทศจีน เพราะถือเป็นต้นกำเนิดแห่งเทคโนโลยีใหม่ๆ

จากการศึกษาเรื่อง Principled Artificial Intelligence ของมหาวิทยาลัย Harvard ได้แสดงข้อมูลภาพที่รวบรวมหลักจริยธรรมของการใช้ AI ทั้งหมด 32 หลักหรือข้อแนะนำสำหรับจริยธรรมในการใช้ AI ซึ่งสะท้อนมุมมองความคิดเห็นจากทั้งฝั่งรัฐบาล บริษัทเอกชน กลุ่มรณรงค์ทางสังคม และผู้ที่เกี่ยวข้องต่างๆ ทว่าในจำนวนเสียงสะท้อนเหล่านั้นไม่มีตัวแทนจากภูมิภาคเอเชียตะวันออกเฉียงใต้เลย สะท้อนให้เห็นหนึ่งในความท้าทายของการศึกษาเรื่องการใช้ AI ในภูมิภาคนี้ซึ่งอาจจะเผชิญปัญหาที่แตกต่างจากบริบทในภูมิภาคอื่นของโลก ต่อไปนี้เป็นข้อพิจารณาบางประการที่เกี่ยวข้องกับเรื่องนี้

เผด็จการอำนาจนิยมแบบดิจิทัล ผ่านเทคโนโลยี AI:

รายงานล่าสุดจากกลุ่ม Civicus Monitor แสดงให้เห็นว่า ไม่มีประเทศใดในทั้งหมด 11 ประเทศในภูมิภาคนี้ได้รับการจัดลำดับให้อยู่ในสถานะที่สิทธิพลเมืองสูงกว่าสถานะ “ลิดรอนสิทธิเสรีภาพ” (obstructed) ขณะที่รายงาน The Freedom on the Net report ประจำปี 2561 ได้ประเมิน 8 ประเทศในภูมิภาคนี้ว่า ไม่มีประเทศใดอยู่ในสถานะ “มีเสรีภาพ” ทางอินเตอร์เน็ต รายงานเหล่านี้ชี้ให้เห็นว่า ภาคประชาสังคมในภูมิภาคนี้ส่วนใหญ่ที่มีความระมัดระวังเกี่ยวกับการประยุกต์ใช้ AI ในลักษณะที่มาจำกัดสิทธิพลเมืองและทางการเมือง เช่น การสอดส่องติดตามทางดิจิทัล ดังนั้น ผลกระทบทางสิทธิมนุษยชนจากการประยุกต์ใช้ AI จึงมีมากไปกว่าปัญหาทางเทคโนโลยี (ตามที่กล่าวมาข้างต้น) และครอบคลุมไปจนถึงกระบวนการที่ทำให้ AI กลายมาเป็นอาวุธที่มาทำลายเสรีภาพของประชาชน

ผลกระทบทางสิทธิมนุษยชนเกี่ยวกับ AI จึงมีมากไปกว่าปัญหาทางเทคโนโลยี

...การไม่รวมทุกคนเข้าไปในชุดข้อมูล ถือว่าเป็นข้อกังวลมากกว่าความเป็นไปได้ในการใช้ข้อมูลในทางที่ไม่เป็นธรรม

การขาดสัดส่วนชุดข้อมูลจากตัวแทนฝั่งเอเชีย:

ในที่ประชุมของ the Internet Governance Forum 2017 ในหัวข้อ “AI in Asia: What’s Similar, What’s Different?” ชี้ให้เห็นถึงการที่ไม่ได้รวมชุดข้อมูลของประเทศเอเชียบางประเทศ (กรณีตัวอย่าง เช่น อินเดียและมาเลเซีย) จึงมีความกังวลว่าการไม่ได้รวมข้อมูลจากกลุ่มประเทศเหล่านี้ ถือว่าเป็นข้อกังวลถึงความเป็นไปได้ในการใช้ข้อมูลในทางที่ไม่เป็นธรรม รวมไปถึงประเด็นเรื่องการไม่นับรวมชุดข้อมูลของประเทศเอเชียบางประเทศที่ขัดแย้งกับแนวทางในเรื่องการคุ้มครองข้อมูล และความเป็นส่วนตัวที่เป็นแนวทางจากโลกตะวันตก ซึ่งเรื่องการขาดข้อมูลที่มีคุณภาพจากทวีปเอเชียนี้ถือว่าเป็น “ความท้าทายที่สำคัญ” ต่อการริเริ่มการพัฒนาในด้าน Machine Learning ซึ่งมักถูกบังคับให้ป้อนข้อมูลที่มาจากประเทศฝั่งสหรัฐอเมริกา และสหราชอาณาจักร เพื่อการฝึก machines ต่างๆ ซึ่งนำไปสู่ปัญหาเรื่องความลำเอียงของข้อมูล และทำให้อาจจะนำมาใช้กับบริบทท้องถิ่นไม่ได้

ผลกระทบทางสังคมและเศรษฐกิจที่มาจาก AI:

จากรายงานชิ้นหนึ่งของ McKinsey เมื่อปี 2560 ซึ่งตั้งข้อสังเกตว่า AI มีศักยภาพที่จะทำงานได้ครึ่งหนึ่งของจำนวนงานทั้งหมดด้วยตัวเอง (มีมูลค่าเทียบเท่ากับค่าจ้างงานจำนวน 900 พันล้านดอลลาร์สหรัฐ) ใน 4 ประเทศยักษ์ใหญ่ทางเศรษฐกิจของกลุ่มประเทศอาเซียน ได้แก่ อินโดนีเซีย (52%) มาเลเซีย (51%) ฟิลิปปินส์ (48%) และประเทศไทย (55%) ในปี 2560 World Wide Web Foundation ยังได้กล่าวถึงเงินลงทุนที่จะเป็นตัวกำหนดถึงสถานที่ในการผลิต AI ไม่ใช่แค่ต้นทุนค่าแรงงาน แต่การเปลี่ยนแปลงนี้จะส่งผลกระทบทางสังคมและเศรษฐกิจ โดยเฉพาะสัดส่วนการจ้างงานของผู้หญิงที่ทำงานอยู่ในด้านออฟฟิศและงานเสมียน

AI มีศักยภาพที่จะทำงานครึ่งหนึ่งของจำนวนงานทั้งหมดด้วยตัวเอง

การขาดความสามารถด้านเทคนิคทางคอมพิวเตอร์เป็นอีกหนึ่งปัจจัยสำคัญที่ขัดขวางการมีส่วนร่วมในการกำกับดูแล

การมีส่วนร่วมในกระบวนการกำกับดูแล AI:

สหรัฐอเมริกาและจีนถือเป็นผู้เล่นสำคัญของโลกในเรื่อง AI แม้ว่าอาจจะพอมีกิจกรรมที่เกี่ยวกับ AI ในบางประเทศสมาชิกของกลุ่มอาเซียน(McKinsey Global Institute 2560) แต่การอยู่ห่างจากศูนย์กลางทางเทคโนโลยีทั้งทางภูมิศาสตร์และอำนาจทางการเมืองของประชาชนในภูมิภาคอุษาอาคเนย์ จึงทำให้เรามีสิทธิในการออกเสียงมีน้อยมากในการแสดงความคิดเห็นเกี่ยวกับการออกแบบและการกำกับดูแล AI รวมไปถึงเรื่องอำนาจในการควบคุมข้อมูลส่วนตัว และร่องรอยทางดิจิทัลเมื่อยามที่เราใช้แอปพลิเคชันต่างๆที่ถูกพัฒนามาจากฝั่งสหรัฐอเมริกาและจีน การขาดแคลนความสามารถทางด้านเทคนิคทางคอมพิวเตอร์เป็นอีกหนึ่งปัจจัยสำคัญที่ขัดขวางการมีส่วนร่วมในการกำกับดูแลนี้ ตามที่ระบุในงานวิจัยของผู้เขียนเกี่ยวกับความเคลื่อนไหวทางด้านสิทธิมนุษยชนทางด้านดิจิทัลในภาคเอเชียตะวันออกเฉียงใต้ เมื่อปี 2562

ประเด็นข้างต้นมิได้จบเพียงเท่านี้ แต่เป็นเพียงการเริ่มในการเก็บรวบรวมข้อกังวลที่เกี่ยวกับ AI และ Machine Learning ในภูมิภาคนี้ จะเห็นได้ว่า AI จะเปลี่ยนสิ่งต่างๆในภูมิภาคนี้อย่างอย่างรวดเร็วในอนาคตอันใกล้ และภาคประชาสังคมจำเป็นต้องก้าวให้ทันกับความก้าวหน้าทางเทคโนโลยีให้ท่วงที เพื่อที่จะเข้าใจในโอกาสและความเสี่ยงที่มาพร้อมกับเทคโนโลยีใหม่ๆ ที่ส่งผลต่อกับงานที่เราทำอยู่ – ไม่ทางใดก็ทางหนึ่ง

"идея" (idea) is licensed under CC0 1.0
"идея" (idea) is licensed under CC0 1.0

บทความนี้เป็นหนึ่งในชุดบทความที่เกี่ยวกับสถานการณ์ของ AI ที่มีผลกระทบต่อสิทธิมนุษยชนในภูมิภาคเอเชียตะวันออกเฉียงใต้ โดยบทความต่อไปผู้เขียนจะเจาะลึกถึงประเด็นเชิงนโยบาย การประยุกต์ใช้งาน และผลกระทบที่เกี่ยวกับ AI ที่เกิดขึ้นในภูมิภาคนี้ โดยเป็นส่วนหนึ่งของโครงการวิจัยนี้ที่เรากำลังรวบรวมรายชื่อหนังสือและบทความ และผู้เขียนจะพยายามปรับปรุงหรือเพิ่มรายชื่ออย่างสม่ำเสมอ เพื่อการเผยแพร่ทางสาธารณะต่อไป ซึ่งผู้ที่สนใจสามารถค้นหาเพื่ออ่านเพิ่มเติมได้

เกี่ยวกับผู้เขียน

Dr. Jun-E Tan เป็นนักวิจัยอิสระ อาศัยอยู่ในเมืองกัวลาลัมเปอร์ ประเทศมาเลเซีย งานวิจัยและการสนับสนุนของ Jun-E นั้นเกี่ยวกับประเด็นการสื่อสารทางดิจิทัล สิทธิมนุษยชน และการพัฒนาที่ยั่งยืน บทความในปีวิจัยล่าสุดของ Jun-E มีชื่อว่า “สิทธิมนุษยชนทางดิจิทัลในภูมิภาคเอเชียอาคเนย์: กรอบแนวคิดและการสร้างขบวนการเคลื่อนไหว” (Digital Rights in Southeast Asia: Conceptual Framework and Movement Building) ได้เผยแพร่ในหนังสือ open access (สามารถ download เพื่ออ่านได้ฟรี) ที่มีชื่อว่า “การสำรวจความเกี่ยวเนื่องระหว่างเทคโนโลยีต่างๆและสิทธิมนุษยชน: โอกาสและความท้าทายที่หลากหลายในเอเชียอาคเนย์” (Exploring the Nexus Between Technologies and Human Rights: Opportunities and Challenges in Southeast Asia) จัดพิมพ์โดยสำนักพิมพ์ SHAPE-SEA เมื่อเดือนธันวาคม 2562 นอกจากนี้ Jun-E ยังได้เขียนบทความลงในบล็อกของตนเองอยู่เป็นประจำ

The views expressed in this post do not necessarily reflect the views of the Coconet community, EngageMedia, APC, or their funders. Copyright of the article is held by the author(s) of each article. Check out our Contribution Guidelines for more information. Want to translate this piece to a different language? Contact us via this form. This publication is licensed with Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International.