Jun-E Tan – Coconet https://coconet.social A Platform for Digital Rights Movement Building in the Asia-Pacific Thu, 12 Aug 2021 04:21:08 +0000 en-US hourly 1 https://wordpress.org/?v=5.8.1 https://coconet.social/wp-content/uploads/2019/07/favicon-150x150.png Jun-E Tan – Coconet https://coconet.social 32 32 เมื่อ AI กลายเป็นอาวุธที่มีผลกระทบต่อสิทธิพลเมืองและสิทธิทางการเมือง https://coconet.social/2020/ai-weapon-civil-political-rights-th/ https://coconet.social/2020/ai-weapon-civil-political-rights-th/#respond Tue, 11 Aug 2020 07:56:57 +0000 https://coconet.social/?p=5535 ในบทความนี้ เราจะมาพิจารณากันในรายละเอียดว่า จะเกิดอะไรขึ้นเมื่อ AI ถูกพัฒนาเพื่อนำมาใช้เป็นอาวุธเพื่อนำมาละเมิดสิทธิพลเมืองและสิทธิทางการเมือง (civil and political rights – CPR) เช่น สิทธิในการมีชีวิตและสิทธิในการกำหนดชะตากรรมตนเอง และรวมทั้งสิทธิในการแสดงออก เสรีภาพของปัจเจกบุคคล สิทธิในการนับถือศาสนา การสมาคม และสิทธิอื่นๆ

The post เมื่อ AI กลายเป็นอาวุธที่มีผลกระทบต่อสิทธิพลเมืองและสิทธิทางการเมือง appeared first on Coconet.

]]>

Read this article in English / อ่านบทความนี้ใน ภาษาอังกฤษ

แปลไทยโดย ธีรดา ณ จัตุรัส

บทความนี้เป็นชิ้นที่สามของซีรีย์บทความที่เกี่ยวกับผลกระทบทางสิทธิมนุษยชนที่เกิดจากปัญญาประดิษฐ์ (Artificial intelligence: AI) ในบริบทของเอเชียตะวันออกเฉียงใต้ ความเดิมจากบทความที่แล้ว เราได้พูดถึงนัยยะสำคัญของ AI ที่มีผลกระทบต่อสิทธิทางเศรษฐกิจ สังคม และวัฒนธรรม โดยได้กล่าวถึงประโยชน์ของการใช้ AI ในด้านการพัฒนาหากนำไปใช้อย่างเหมาะสม แต่ยังคงมีความกังวลทางด้านสิทธิมนุษยชนที่เกี่ยวกับความปลอดภัยของ AI และผลลัพธ์อันไม่พึงประสงค์ที่อาจจะเกิดขึ้นได้

ในบทความนี้ เราจะมาพิจารณากันในรายละเอียดว่า จะเกิดอะไรขึ้นเมื่อ AI ถูกพัฒนาเพื่อนำมาใช้เป็นอาวุธที่ละเมิดสิทธิพลเมืองและสิทธิทางการเมือง (civil and political rights – CPR) เช่น สิทธิในการมีชีวิตและสิทธิในการกำหนดชะตากรรมตนเอง และรวมทั้งสิทธิในการแสดงออก เสรีภาพของปัจเจกบุคคล สิทธิในการนับถือศาสนา การสมาคม และสิทธิอื่นๆ

ด้วยพื้นที่อันจำกัดในบทความชิ้นนี้ จึงเป็นไม่ได้ที่กล่าวถึงผลกระทบต่อสิทธิพลเมืองและสิทธิทางการเมืองได้ทุกประเด็น แต่เราจะเน้นถึง 3 ภัยคุกคามหลัก คือ การสอดส่องมวลชนโดยรัฐ (mass surveillance) เทคนิคการเจาะกลุ่มเป้าหมายเฉพาะเพื่อมุ่งเปลี่ยนแปลงผลการเลือกตั้ง และการใช้ AI ในการสร้างข้อมูลที่ตั้งใจผิดหรือทำให้เข้าใจผิด (disinformation) ส่วนผู้ที่สนใจค้นหาเพิ่มเติมสามารถดูได้ที่รายงานเกี่ยวกับการนำ AI มาใช้ในทางที่ไม่ดีที่ส่งผลกระทบให้เกิดอันตรายทางดิจิทัล ทางร่างกาย และทางความมั่นคงทางการเมือง

AI สามารถนำมาใช้เป็นอาวุธเพื่อนำมาละเมิดสิทธิพลเมืองและสิทธิทางการเมือง

AI ถูกนำมาใช้เพื่อการสอดส่องมวลชนโดยรัฐบาล

ความเป็นส่วนตัวถือเป็นสิทธิมนุษยชนขั้นพื้นฐาน และการละเมิดสิทธิความเป็นส่วนตัวย่อมส่งผลกระทบต่อสิทธิอื่นๆ เช่น สิทธิทางการแสดงออก การชุมนุม และการรวมกลุ่มสมาคม ในภูมิภาคเอเชียตะวันออกเฉียงใต้ หากพิจารณาบรรทัดฐานของประชาธิปไตยของรัฐบาลเกือบทุกประเทศมีแนวโน้มเอนเอียงไปทางฝั่งอำนาจนิยม รัฐบาลเหล่านี้ได้แสดงให้เห็นว่าสามารถขยายการปราบปรามผู้ที่เห็นต่างทางการเมืองอย่างกว้างขวาง เช่น การบังคับใช้กฎหมายที่รุนแรงในการลงโทษ หรือการใช้มาตรการนอกกฎหมายที่มาคุกคามผู้ที่เห็นต่าง

เมื่อพิจารณาความสามารถของ Machine Learning ทำให้การโยกย้ายชุดข้อมูลมหาศาลเป็นเรื่องทำที่ได้ง่ายดายและราคาไม่แพงแบบที่ไม่เคยมีมาก่อน เป็นผลทำให้การสอดส่องมวลชนมีราคาถูกลงและมีประสิทธิภาพเพิ่มมากขึ้นอีกด้วย ภายใต้เงื่อนไขเหล่านี้ทำให้บุคคลที่มีอิทธิพลสามารถที่จะสืบทอดอำนาจได้ง่ายมากขึ้น

ตารางด้านล่างนี้ได้นำข้อมูลมาจาก AI Global Surveillance Index (AIGS 2019) โดยได้คัดเลือก 7 ประเทศจากภูมิภาคเอเชียตะวันออกเฉียงใต้ (ซึ่งไม่รวมถึงบรูไน เวียดนาม กัมพูชา และติมอร์เลสเต เนื่องจากไม่มีการเก็บข้อมูล) จากดัชนีนี้ พบว่าเกือบทุกประเทศในภูมิภาคนี้โดยมากจะใช้เทคโนโลยีเพื่อสอดส่องอย่างสองประเภทหรือมากกว่านั้น เช่น ในรูปแบบการใช้เทคโนโลยีการสอดส่องในเมืองอัจฉริยะ (smart city) หรือเมืองที่ปลอดภัย การใช้เทคโนโลยีจดจำใบหน้า (facial recognition) และวิธีการตรวจตราแบบ smart policing จากดัชนีนี้เรายังพบอีกว่า ประเทศทั้งหมดเหล่านี้ได้นำเข้าเทคโนโลยีเพื่อสอดส่องมาจากประเทศจีน รวมถึงการซื้อเทคโนโลยีจากสหรัฐอเมริกาอีกด้วยถึงแม้ว่าจะน้อยกว่าจีนก็ตาม

Table adapted from the AI Global Surveillance Index (AIGS 2019)

เพื่อให้ภาพที่กว้างขึ้น มีอย่างน้อย 75 ประเทศใน 176 ประเทศที่ปรากฏอยู่ในรายงาน AIGS 2019 กำลังใช้ AI เพื่อการสอดส่องประชาชน และหลายประเทศก็จัดอยู่ในกลุ่มประเทศแนวเสรีนิยมประชาธิปไตยด้วย โดยดัชนีนี้ไม่ได้แบ่งแยกการใช้ AI แบบที่ถูกกฎหมายหรือผิดกฎหมาย แต่เมื่อกลับมาพิจารณาบริบทของเอเชียตะวันออกเฉียงใต้ ภาคประชาสังคมอาจต้องเตรียมพร้อมในการเฝ้าระวังการใช้ AI เพื่อจุดประสงค์ในการสอดส่องโดยรัฐบาล

รายงานฉบับหนึ่งจาก CSIS ชี้ให้เห็นถึงการใช้ “Safe City” ซึ่งพัฒนาโดยบริษัทยักษ์ใหญ่ Huawei กลายมาเป็นทางเลือกให้หลายประเทศในกลุ่มที่อยู่ในสถานะไม่มีเสรีภาพ และเป็นที่น่ากังวลว่าประเทศจีนกำลังส่งออกระบอบอำนาจนิยม (authoritarianism) ไปในต่างประเทศ ทางประเทศจีนเองได้ใช้เทคโนโลยีการจดจำใบหน้า (ซึ่งพัฒนาโดยบริษัทจีนที่มีความเชี่ยวชาญทาง AI อาทิ Yitu, Megvii, SenseTime และ CloudWalk) ซึ่งนำมาใช้ทำโปรไฟล์และติดตามชาวมุสลิมอุยกูร์ และนั่นยังเป็นที่รู้จักกันดีว่าชาวอุยกูร์จำนวนเกือบถึงหนึ่งล้านคนได้ถูกคุมขังในค่ายกักกันแบบเผด็จการเพื่อปรับทัศนคติให้นักโทษ (“re-education camps”) ทำให้เห็นภาพของความเป็นไปได้ที่กลายเป็นข้อกังวลของการละเมิดสิทธิมนุษยชนและการสอดส่องมวลชน

13 ประเทศในภูมิภาคเอเชียมีการสอดส่องทางโซเชียลมีเดีย

นอกจากนี้ยังมีรูปแบบการสอดส่องโดยรัฐที่รวมไปถึงการสอดส่องผ่านโซเซียลมีเดียและการใช้ AI ในการเก็บและวิเคราะห์ข้อมูลส่วนบุคคล รวมไปถึงเมตะดาต้าจากแพลตฟอร์มของโซเซียลมีเดียต่างๆ รายงาน Freedom on the Net (FOTN) ประจำปี 2562 ระบุว่า 13 ประเทศ จาก 15 ประเทศในภูมิภาคเอเชียที่กำลังมีการสอดส่องทางโซเซียลมีเดียหรืออยู่ในช่วงที่กำลังพัฒนาโปรแกรม AI เพื่อจุดประสงค์นี้อยู่ แต่รายงานไม่ได้ระบุว่าประเทศไหนจัดอยูในกลุ่มที่กำลังใช้ หรือกำลังพัฒนาโปรแกรม AI นี้อยู่ แต่ก็มีความเป็นไปได้ค่อนข้างสูงสำหรับ 8 ประเทศที่อยู่ในรายงานฉบับนี้ ได้แก่ ฟิลิปปินส์ มาเลเซีย สิงคโปร์ อินโดนีเซีย กัมพูชา เมียนมา ไทย และเวียดนาม

โดยรายงาน Freedom on the Net ยังได้เน้นไปที่ฟิลิปปินส์และเวียดนาม ซึ่งจากรายงานเมื่อปี 2561 เวียดนามได้ประกาศจัดตั้งหน่วยงานแห่งชาติที่มีจุดประสงค์ในการสอดส่องดูแลโดยเฉพาะ โดยมีการติดตั้งเครื่องมือเทคโนโลยีที่ช่วยในการวิเคราะห์ ประเมินผล และคัดกรองโพสต์หลายล้านข้อความจากโซเซียลมีเดีย และในปีเดียวกันนี้ กองทัพสหรัฐฯได้ฝึกเจ้าหน้าที่ทางการของฟิลิปปินส์ เพื่อก่อตั้งหน่วยงานใหม่ที่ไว้สอดส่องทางโซเซียลมีเดีย ซึ่งรายงานระบุว่า หน่วยงานนี้จะป้องกันการแพร่กระจายของข้อความที่บิดเบือนโดยกลุ่มผู้ก่อการร้าย

การสอดส่องทางดิจิทัลโดยรัฐบาลยังมีผลกว้างออกไปนอกจากแพลตฟอร์มโซเซียลมีเดีย โดยในปี 2561 หน่วยต่อต้านอาชญากรรมแก่เยาวชนบนอินเตอร์เน็ตแห่งมาเลเซีย (Malaysia Internet Crime Against Children – Micac) ที่อยู่ภายใต้สังกัดกรมตำรวจแห่งประเทศมาเลเซีย ได้แสดงความสามารถทางการสอดส่องของหน่วยงานให้แก่นักข่าวท้องถิ่น โดยการติดตามผู้ใช้ที่มีเนื้อหาอนาจารในลักษณะแบบเรียลไทม์ และได้สร้างสิ่งที่เรียกว่า “ห้องสมุดแห่งข้อมูลของบัญชีผู้ใช้โซเซียลมีเดีย” (data library) นี่ถือเป็นการละเมิดสิทธิความเป็นส่วนตัว เช่นเดียวกับแถลงการณ์โดยกลุ่มภาคประชาสังคมใน ASEAN

Image by Bark 003 via Cool SILH. Public Domain .

เทคนิคการเจาะจงกลุ่มเป้าหมาย เพื่อเปลี่ยนพฤติกรรมของผู้มีสิทธิเลือกตั้ง

ในภูมิภาคเอเชียตะวันออกเฉียงใต้นี้ ภาคประชาสังคมได้มุ่งจับตามองการสอดส่องจากรัฐมากกว่าจากบริษัทเอกชน อย่างไรก็ดี ผลกระทบที่มาจากการสอดส่องที่ส่งเสริมโดยบริษัทต่างๆ โดยเฉพาะบริษัทเทคโนโลยียักษ์ใหญ่อย่าง Facebook และ Google อาจจะมีผลกระทบที่เช่นเดียวกับการสอดส่องจากรัฐ หรือแม้แต่การสอดส่องที่ส่งเสริมโดยบริษัทต่างๆ จะมีผลกระทบมากกว่า ลองคิดดูสิว่า เมื่อมีเทคโนโลยี AI เข้ามาเกี่ยวข้องกับข้อมูลมากมายอย่างที่จินตนาการไม่ถึง เทคโนโลยี AI นี่เองที่จะช่วยให้การบริการภาคธุรกิจเพื่อการคาดการณ์และนำมาเปลี่ยนพฤติกรรมของผู้ใช้บริการเพื่อตอบสนองต่อบริษัทโฆษณา ปัญหานี้มีนัยยะที่สำคัญ เมื่อบริษัทโฆษณาทั้งหลายได้ผันตัวเองมาเป็นผู้บริการด้านโฆษณาทางดิจิทัลให้กับกลุ่มการเมืองต่างๆ ซึ่งตั้งเป้าหมายเพื่อเปลี่ยนความคิดเห็นของผู้คน หรือพฤติกรรมของผู้มีสิทธิเลือกตั้ง และการเปลี่ยนความคิดเห็นสาธารณะหรือพฤติกรรมการเลือกตั้ง ย่อมกระทบต่อสิทธิในการเลือกตั้งของปัจเจกบุคคล

เมื่อ 5 ปีก่อน นักวิจัยหลายคนพบว่า machines สามารถล่วงรู้เกี่ยวกับตัวคุณเองได้ดีกว่าใครๆ ซึ่งเรียนรู้มาจากการที่คุณกด Like บน Facebook นั่นเอง (เพียงแค่ machines ดูจากการที่คุณกด Like จำนวน 300 ครั้งเท่านั้น machines สามารถคาดการณ์จากพฤติกรรมของคุณมากกว่าแฟนของคุณเสียอีก และข้อมูลเพียงแค่จากการที่คุณกด Link จำนวน 10 ครั้งเท่านั้นก็ทำให้ machines ประมวลผลและรู้จักตัวคุณดีกว่าเพื่อนร่วมงานของคุณเสียอีก) นับตั้งแต่ที่มีข่าวอื้อฉาวเกี่ยวกับ AI ใน Facebook อย่างกรณีการละเมิดความเป็นส่วนตัวของผู้ใช้บริการโดยบริษัท Cambridge Analytica ซึ่งสามารถเข้าถึงข้อมูลส่วนตัวของผู้ใช้บริการบน Facebook เป็นจำนวนสิบๆล้านคนอย่างผิดกฏหมาย โดยที่บริษัทสามารถเก็บและสร้างข้อมูลของผู้ใช้ Facebook ที่คลิกตอบแบบทดสอบบุคคลิกภาพของ Cambridge Analytica แล้วนำข้อมูลนั้นมาจัดทำโปรไฟล์เกี่ยวกับลักษณะทางจิตวิทยาของผู้บริโภค ทำเกิดการใช้เทคนิคเลือกกลุ่มเป้าหมายที่เฉพาะเจาะจง เพื่อมีจุดประสงค์ในการโน้มน้าวการตัดสินใจลงคะแนนเสียงต่อผู้เข้าแข่งชิงตำแหน่งพรรคนั้นๆ หรือที่เรียกว่า microtargeting ด้วยข้อความโฆษณาหลากหลายที่ทำให้ผลการเลือกตั้งประธานาธิบดีในสหรัฐอเมริกาเมื่อปี 2559 มีความผันผวน ยังมีการกล่าวถึงด้วยอีกว่า กลยุทธ์แบบเดียวกันนี้ได้ถูกนำมาใช้ในการจูงใจผู้เลือกตั้งในสหราชอาณาจักร และส่งผลกระทบต่อผลการลงประชามติจากการออกจากยุโรปของสหราชอาณาจักร หรือ Brexit

ด้วยการมีผู้ใช้บริการถึง 2 พันล้านคน Facebook ได้ใช้ข้อมูลมโหฬารเหล่านี้ในการฝึกระบบ Machine Learning เพื่อการทำนายพฤติกรรมต่างๆ ของผู้ใช้บริการ

นับแต่ตั้งแต่ที่ Cambridge Analytica ได้ปิดตัวลง แต่เรื่องอื้อฉาวนี้ได้ทำให้มีการวิจารณ์ถกเถียงเกี่ยวกับโมเดลธุรกิจของบริษัทที่นำการใช้ microtargeting ในการโฆษณาทางการเมือง ผู้วิจารณ์ทางการเมืองได้ชี้แจงว่าทาง Facebook เองก็ได้ใช้โมเดลธุรกิจแบบ microtargeting เป็นทุนเดิมอยู่แล้ว จะต่างก็ตรงที่โมเดลธุรกิจของ Facebook มีขนาดใหญ่กว่าและมีพลังมากว่า ด้วยขนาดข้อมูลผู้ใช้บริการที่มีจำนวนมหาศาลถึง 2 พันล้านคนได้เอื้ออำนวยให้ Facebook สามารถทำโมเดลธุรกิจแบบ microtargeting นี้ได้ ยิ่งไปกว่านั้น Facebook ได้ใช้ข้อมูลมโหฬารเหล่านี้ในการฝึกระบบ Machine Learning เพื่อการทำนาย เช่น เมื่อผู้ใช้รายบุคคลกำลังจะเปลี่ยนไปใช้สินค้ายี่ห้ออื่นๆ และ Facebook เองยังเปิดให้บริการระบบอัฉริยะที่นำมาทำนายอุปนิสัยการจับจ่ายออนไลน์ของผู้ใช้นี้ให้แก่บริษัทอื่นๆ ที่ยอมจ่ายค่าบริการ นี่แทบจะไม่ต่างกันเลยระหว่างการใช้โมเดลธุรกิจเพื่อการโฆษณา และการโฆษณาทางการเมือง และทำให้ Twitter ได้ประกาศยับยั้งการโฆษณาทางการเมืองแล้ว และ Google เองก็หยุดการใช้ microtargeting ในการโฆษณาทางการเมืองอีกด้วย

จากสถิติ พบว่า 86% ของผู้ที่ใช้อินเตอร์เน็ตในภูมิภาคเอเชียตะวันออกเฉียงใต้มีบัญชี Facebook และทำให้เกิดความกังวลเกี่ยวกับการใช้ microtargeting ที่ส่งผลกระทบต่อผลการเลือกตั้งหลายๆแห่งภายในภูมิภาคนี้ จากรายงานฉบับหนึ่งซึ่งได้ติดตามประเด็นการบิดเบือนข้อมูลทางดิจิทัลในช่วงการเลือกตั้งกลางเทอมในฟิลิปปินส์ เมื่อปี 2562 ซึ่งได้ชี้แจงว่า Facebook Boosts (ซึ่งเป็นกลไกทางโฆษณาของ Facebook นั่นเอง) เป็นปัจจัยสำคัญต่อการรณรงค์เลือกตั้งในท้องถิ่น นอกจากนี้ กลไกทางโฆษณาลักษณะ Facebook Boosts นี้ยังได้ถูกนำมาใช้ประชาสัมพันธ์เนื้อหาในแง่ลบเพื่อการโจมตีคู่แข่งทางการเมืองจากฝ่ายตรงข้าม ในอินโดนีเชีย ผู้เชี่ยวชาญได้เตือนเกี่ยวกับการตั้งเป้าพฤติกรรมของผู้เลือกตั้ง และการนำยุทธศาสตร์ต่างๆ เกี่ยวกับการใช้ microtargeting เพื่อการหาประโยชน์จากข้อมูลส่วนตัวของผู้เลือกตั้งในอินโดนีเชีย และเพื่อส่งผลกระทบต่อผลการเลือกตั้งในช่วงระยะเวลาการเลือกตั้งทั่วไปในปี 2562

Image via SVG Silh. Public Domain.
Image via SVG Silh. Public Domain.

เนื้อหาที่สร้างโดย AI ยิ่งเติมเชื้อเพลิงให้กับแคมเปญที่สร้างข้อมูลบิดเบือน

ในยุคดิจิทัล ข่าวลือได้ถูกทำให้มีประสิทธิผลมากขึ้นกว่าแต่ก่อน ด้วยธรรมชาติของเครือข่ายในการติดต่อสื่อสาร ด้วยเหตุผลนี้ทำให้เกิดการบิดเบือนข้อมูลหรือข่าวปลอม (fake news) ได้กลายมาเป็นปัญหาใหญ่ทั่วโลก รวมทั้งในภูมิภาคเอเชียตะวันออกเฉียงใต้เองด้วย ตัวอย่างที่เศร้าใจที่สุด เห็นได้จากการผลกระทบที่ทำให้เกิดการฆ่าล้างเผ่าพันธุ์ของชาวโรฮิงยาในเมียนมา ซึ่งมีรายงานว่าปัญหานี้เกิดมาจากการกระพือข้อมูลที่บิดเบือนและคำพูดที่สร้างความเกลียดชัง (hate speech) บนโซเซียลมีเดีย

ยิ่งไปกว่านั้น ธุรกิจแห่งการสร้างข้อมูลที่บิดเบือนยังได้งอกงามภายในภูมิภาคนี้ เช่น ในอินโดนีเชีย แหล่งผลิตข่าวปลอมหลายแห่งถูกใช้ปั่นเนื้อหาออกมาเป็นจำนวนมาก โดยตั้งเป้าโจมตีคู่แข่งทางการเมืองฝั่งตรงข้าม และเพื่อสนับสนุนบริการให้กับลูกค้าของแหล่งผลิตข่าวปลอมนั้นๆ อย่างเช่น ในฟิลิปปินส์ บริษัทประชาสัมพันธ์หลายแห่ง ได้ปลูกฝังค่านิยมในชุมชนออนไลน์พร้อมทั้งได้ใส่ข้อความที่บิดเบือนและข้อความที่เกี่ยวกับการเมือง โดยที่บริษัทเหล่านี้ได้รับการช่วยเหลือจากกลุ่มคนที่มีผู้ติดตามออนไลน์จำนวนมาก (influencers) ในกลุ่มที่มีลักษณะมีความเชี่ยวชาญเรื่องใดเรื่องหนึ่งเป็นพิเศษ ทั้งแบบเป็น micro และ nano เมื่อผู้ที่เกี่ยวข้องกับธุรกิจที่ดำเนินงานแบบไร้จรรยาบรรณเหล่านี้ได้สร้างโครงสร้างเพื่อการผลิตข้อมูลที่บิดเบือนและกอบโกยกำไร ทำให้การใช้ AI ในธุรกิจประเภทนี้ยิ่งจะสร้างข้อมูลที่บิดเบือนได้ง่ายและซับซ้อนมากยิ่งขึ้น

อีกหนึ่งเทคโนโลยีที่น่ากลัวคือสิ่งที่เรียกว่า deepfake โดยมีการสร้างเนื้อหาวิดีโอด้วยระบบ AI หรือรู้จักในว่า “synthetic media” ซึ่งเป็นสื่อแบบผสมผสานรวมทั้งการตัดต่อไฟล์วิดีโอหรือไฟล์เสียงเพื่อทำให้ดูและฟังดูเหมือนราวกับว่ามาจากแหล่งข้อมูลที่แท้จริง เทคโนโลยี deepfake ได้สร้างความจริงในช่วงเวลาหนึ่งที่ยังไม่มีใครสามารถแยกแยะได้ว่านี่ไม่ใช่แหล่งข้อมูลจริง ซึ่งบางทีกว่าจะมีคนรู้ว่าเป็นข้อมูลปลอมก็เป็นผ่านไปเป็นเดือน และด้วยต้นทุนที่ราคาถูกในการผลิตยิ่งทำให้มือใหม่เกิดขึ้นได้ง่ายในการสร้าง deepfake ซึ่งในตอนนี้ได้มีคนนำเทคนิคนี้มาใช้ผลิตคลิปวิดีโออนาจารของเหล่าคนดัง และมีความเป็นไปได้หลายแบบที่ deepfake จะถูกนำมาใช้ในการสร้างข้อมูลที่บิดเบือนภายในภูมิภาคนี้ อย่างน้อยมีหนึ่งในตัวอย่างคือ การที่นักการเมืองในประเทศมาเลเซียผู้หนึ่งอ้างว่า ได้มีคลิปวิดีโอ sex ของเขาถูกผลิตโดย deepfake เพื่อการโจมตีทางการเมือง

คลิปวิดีโอข้างต้นได้อธิบายให้เห็นว่าทำไมเทคโนโลยี deepfake จึงเป็นเรื่องที่น่ากังวลและทำไมพวกเราควรต้องระมัดระวังในเรื่องนี้ องค์กร WITNESS ได้เก็บรวบรวมแหล่งข้อมูลที่น่าสนใจสำหรับผู้ที่สนใจประเด็นเกี่ยวการสร้างวิดีโอแบบ deepfake

อีกกรณีคือที่ AI สามารถทำอะไรได้อีกบ้างในการผลิตเนื้อหาที่สมจริงออกมา ในบทความนี้ New York Times ได้เล่าถึงการคลิกเพียงปุ่มเดียว ก็สามารถผลิตคอมเมนต์ทางการเมืองหรือข้อมูลใดๆที่บิดเบือนออกมาได้ อย่างที่พอจะเห็นได้ว่ามีการลงทุนในการสร้างกองกำลังไซเบอร์เพื่อรุมโจมตีความคิดเห็นของฝ่ายตรงข้ามและหากใช้ machines มาใช้ทดแทนคนจริงๆ เพื่อการผลิตเนื้อหาที่สมจริงออกมาให้ดูเหมือนราวกับว่าเป็นมนุษย์เองที่เขียนข้อความเหล่านั้น ในรายงานอีกฉบับหนึ่งยังได้เตือนถึงความน่ากลัวของการทำข่าวปลอมที่ผลิตโดย AI มาอีกด้วย และระบบนั้นเรียกว่า GROVER ที่สามารถผลิตบทความปลอมที่เขียนขึ้นมาจากพาดหัวข่าวชิ้นเดียวเท่านั้น ทั้งยังสามารถเลียนแบบข่าวต่างๆที่รายงานโดยสำนักงานข่าวชั้นนำอย่าง The Washington Post หรือ The New York Times อีกด้วย

ในยุคที่เรียกว่า “ยุคหลังความจริง” หรือ “post-truth” นั้นยังต้องเผชิญกับอีกหลากหลายความท้าทาย คุณสามารถเช็ครูปถ่ายของใบหน้าของบุคคลต่างๆที่ผลิตโดยคอมพิวเตอร์แล้วอัพโหลดไปบนเว็บไซต์ดังต่อไปนี้ ThisPersonDoesNotExist.com หรือ WhichFaceIsReal.com ลองดูถึงความสมจริงของรูปเหล่านี้ เว็บไซต์เหล่านี้เองยังช่วยผลิตรูปภาพนั้นๆได้อย่างง่ายดายเพื่อนำไปใช้ในโปรไฟล์ปลอมบนโซเชียลมีเดีย

บทสรุป

ดังที่บทความนี้ได้กล่าวไปว่าความสามารถของ AI ได้นำมาใช้ในฐานะที่เปรียบเสมือนอาวุธ เพื่อบรรลุวัตถุจุดประสงค์ที่ขัดกับสิทธิพลเมืองและสิทธิทางการเมืองได้ ขณะที่ฝั่งภาคประชาสังคมในภูมิภาคนี้ยังคงต้องคอยจับตามองเพื่อติดตามเทรนด์ของเทคโนโลยีและแอปพลิเคชันใหม่ๆของ AI เพื่อจะไม่ให้ผู้เล่นอื่นนำไปใช้ในทางผิดแบบที่เราไม่ทันสังเกตเห็น เพราะด้วยประสิทธิภาพของเทคโนโลยี Machine Learning และ AI ที่เดินหน้าพัฒนาอย่างต่อเนื่อง ภาคประชาสังคมและนักปกป้องสิทธิมนุษยชนจำเป็นต้องเข้าไปมีส่วนร่วมเพื่อออกแบบระบอบการกำกับดูแลของ AI และผลักดันให้บริษัทเทคโนโลยีทั้งหลายต้องมีความรับผิดชอบต่อการพัฒนาเทคโนโลยีของตน เพื่อมุ่งให้เป็นอาวุธในแบบที่ช่วยปกป้องและส่งเสริมสิทธิมนุษยชนทั่วโลกได้

เกี่ยวกับผู้เขียน

Dr. Jun-E Tan เป็นนักวิจัยอิสระ อาศัยอยู่ในเมืองกัวลาลัมเปอร์ ประเทศมาเลเซีย งานวิจัยและการสนับสนุนของ Jun-E นั้นเกี่ยวกับประเด็นการสื่อสารทางดิจิทัล สิทธิมนุษยชน และการพัฒนาที่ยั่งยืน บทความในปีวิจัยล่าสุดของ Jun-E มีชื่อว่า “สิทธิมนุษยชนทางดิจิทัลในภูมิภาคเอเชียอาคเนย์: กรอบแนวคิดและการสร้างขบวนการเคลื่อนไหว” (Digital Rights in Southeast Asia: Conceptual Framework and Movement Building) ได้เผยแพร่ในหนังสือ open access (สามารถ download เพื่ออ่านได้ฟรี) ที่มีชื่อว่า “การสำรวจความเกี่ยวเนื่องระหว่างเทคโนโลยีต่างๆและสิทธิมนุษยชน: โอกาสและความท้าทายที่หลากหลายในเอเชียอาคเนย์” (Exploring the Nexus Between Technologies and Human Rights: Opportunities and Challenges in Southeast Asia) จัดพิมพ์โดยสำนักพิมพ์ SHAPE-SEA เมื่อเดือนธันวาคม 2562 นอกจากนี้ Jun-E ยังได้เขียนบทความลงในบล็อกของตนเองอยู่เป็นประจำ

คุณสามารถอ่าน บทความแรก และบทความที่สองในซีรีย์เดียวกันนี้ที่เกี่ยวกับผลกระทบสิทธิมนุษยชนที่มาจากปัญญาประดิษฐ์ (Artificial Intelligence – AI) ในบริบทของเอเชียตะวันออกเฉียงใต้

The post เมื่อ AI กลายเป็นอาวุธที่มีผลกระทบต่อสิทธิพลเมืองและสิทธิทางการเมือง appeared first on Coconet.

]]>
https://coconet.social/2020/ai-weapon-civil-political-rights-th/feed/ 0
เมื่อ AI กลายเป็นอาวุธที่มีผลกระทบต่อสิทธิพลเมืองและสิทธิทางการเมือง https://coconet.social/2020/%e0%b9%80%e0%b8%a1%e0%b8%b7%e0%b9%88%e0%b8%ad-ai-%e0%b8%81%e0%b8%a5%e0%b8%b2%e0%b8%a2%e0%b9%80%e0%b8%9b%e0%b9%87%e0%b8%99%e0%b8%ad%e0%b8%b2%e0%b8%a7%e0%b8%b8%e0%b8%98%e0%b8%97%e0%b8%b5%e0%b9%88/ https://coconet.social/2020/%e0%b9%80%e0%b8%a1%e0%b8%b7%e0%b9%88%e0%b8%ad-ai-%e0%b8%81%e0%b8%a5%e0%b8%b2%e0%b8%a2%e0%b9%80%e0%b8%9b%e0%b9%87%e0%b8%99%e0%b8%ad%e0%b8%b2%e0%b8%a7%e0%b8%b8%e0%b8%98%e0%b8%97%e0%b8%b5%e0%b9%88/#respond Tue, 11 Aug 2020 07:56:25 +0000 https://coconet.social/2020/%e0%b9%80%e0%b8%a1%e0%b8%b7%e0%b9%88%e0%b8%ad-ai-%e0%b8%81%e0%b8%a5%e0%b8%b2%e0%b8%a2%e0%b9%80%e0%b8%9b%e0%b9%87%e0%b8%99%e0%b8%ad%e0%b8%b2%e0%b8%a7%e0%b8%b8%e0%b8%98%e0%b8%97%e0%b8%b5%e0%b9%88/ ในบทความนี้ เราจะมาพิจารณากันในรายละเอียดว่า จะเกิดอะไรขึ้นเมื่อ AI ถูกพัฒนาเพื่อนำมาใช้เป็นอาวุธเพื่อนำมาละเมิดสิทธิพลเมืองและสิทธิทางการเมือง (civil and political rights – CPR) เช่น สิทธิในการมีชีวิตและสิทธิในการกำหนดชะตากรรมตนเอง และรวมทั้งสิทธิในการแสดงออก เสรีภาพของปัจเจกบุคคล สิทธิในการนับถือศาสนา การสมาคม และสิทธิอื่นๆ

The post เมื่อ AI กลายเป็นอาวุธที่มีผลกระทบต่อสิทธิพลเมืองและสิทธิทางการเมือง appeared first on Coconet.

]]>

Read this article in English

แปลไทยโดย ธีรดา ณ จัตุรัส

บทความนี้เป็นชิ้นที่สามของซีรีย์บทความที่เกี่ยวกับผลกระทบทางสิทธิมนุษยชนที่เกิดจากปัญญาประดิษฐ์ (Artificial intelligence: AI) ในบริบทของเอเชียตะวันออกเฉียงใต้ ความเดิมจากบทความที่แล้ว เราได้พูดถึงนัยยะสำคัญของ AI ที่มีผลกระทบต่อสิทธิทางเศรษฐกิจ สังคม และวัฒนธรรม โดยได้กล่าวถึงประโยชน์ของการใช้ AI ในด้านการพัฒนาหากนำไปใช้อย่างเหมาะสม แต่ยังคงมีความกังวลทางด้านสิทธิมนุษยชนที่เกี่ยวกับความปลอดภัยของ AI และผลลัพธ์อันไม่พึงประสงค์ที่อาจจะเกิดขึ้นได้

ในบทความนี้ เราจะมาพิจารณากันในรายละเอียดว่า จะเกิดอะไรขึ้นเมื่อ AI ถูกพัฒนาเพื่อนำมาใช้เป็นอาวุธที่ละเมิดสิทธิพลเมืองและสิทธิทางการเมือง (civil and political rights – CPR) เช่น สิทธิในการมีชีวิตและสิทธิในการกำหนดชะตากรรมตนเอง และรวมทั้งสิทธิในการแสดงออก เสรีภาพของปัจเจกบุคคล สิทธิในการนับถือศาสนา การสมาคม และสิทธิอื่นๆ

ด้วยพื้นที่อันจำกัดในบทความชิ้นนี้ จึงเป็นไม่ได้ที่กล่าวถึงผลกระทบต่อสิทธิพลเมืองและสิทธิทางการเมืองได้ทุกประเด็น แต่เราจะเน้นถึง 3 ภัยคุกคามหลัก คือ การสอดส่องมวลชนโดยรัฐ (mass surveillance) เทคนิคการเจาะกลุ่มเป้าหมายเฉพาะเพื่อมุ่งเปลี่ยนแปลงผลการเลือกตั้ง และการใช้ AI ในการสร้างข้อมูลที่ตั้งใจผิดหรือทำให้เข้าใจผิด (disinformation) ส่วนผู้ที่สนใจค้นหาเพิ่มเติมสามารถดูได้ที่รายงานเกี่ยวกับการนำ AI มาใช้ในทางที่ไม่ดีที่ส่งผลกระทบให้เกิดอันตรายทางดิจิทัล ทางร่างกาย และทางความมั่นคงทางการเมือง

AI สามารถนำมาใช้เป็นอาวุธเพื่อนำมาละเมิดสิทธิพลเมืองและสิทธิทางการเมือง

AI ถูกนำมาใช้เพื่อการสอดส่องมวลชนโดยรัฐบาล

ความเป็นส่วนตัวถือเป็นสิทธิมนุษยชนขั้นพื้นฐาน และการละเมิดสิทธิความเป็นส่วนตัวย่อมส่งผลกระทบต่อสิทธิอื่นๆ เช่น สิทธิทางการแสดงออก การชุมนุม และการรวมกลุ่มสมาคม ในภูมิภาคเอเชียตะวันออกเฉียงใต้ หากพิจารณาบรรทัดฐานของประชาธิปไตยของรัฐบาลเกือบทุกประเทศมีแนวโน้มเอนเอียงไปทางฝั่งอำนาจนิยม รัฐบาลเหล่านี้ได้แสดงให้เห็นว่าสามารถขยายการปราบปรามผู้ที่เห็นต่างทางการเมืองอย่างกว้างขวาง เช่น การบังคับใช้กฎหมายที่รุนแรงในการลงโทษ หรือการใช้มาตรการนอกกฎหมายที่มาคุกคามผู้ที่เห็นต่าง

เมื่อพิจารณาความสามารถของ Machine Learning ทำให้การโยกย้ายชุดข้อมูลมหาศาลเป็นเรื่องทำที่ได้ง่ายดายและราคาไม่แพงแบบที่ไม่เคยมีมาก่อน เป็นผลทำให้การสอดส่องมวลชนมีราคาถูกลงและมีประสิทธิภาพเพิ่มมากขึ้นอีกด้วย ภายใต้เงื่อนไขเหล่านี้ทำให้บุคคลที่มีอิทธิพลสามารถที่จะสืบทอดอำนาจได้ง่ายมากขึ้น

ตารางด้านล่างนี้ได้นำข้อมูลมาจาก AI Global Surveillance Index (AIGS 2019) โดยได้คัดเลือก 7 ประเทศจากภูมิภาคเอเชียตะวันออกเฉียงใต้ (ซึ่งไม่รวมถึงบรูไน เวียดนาม กัมพูชา และติมอร์เลสเต เนื่องจากไม่มีการเก็บข้อมูล) จากดัชนีนี้ พบว่าเกือบทุกประเทศในภูมิภาคนี้โดยมากจะใช้เทคโนโลยีเพื่อสอดส่องอย่างสองประเภทหรือมากกว่านั้น เช่น ในรูปแบบการใช้เทคโนโลยีการสอดส่องในเมืองอัจฉริยะ (smart city) หรือเมืองที่ปลอดภัย การใช้เทคโนโลยีจดจำใบหน้า (facial recognition) และวิธีการตรวจตราแบบ smart policing จากดัชนีนี้เรายังพบอีกว่า ประเทศทั้งหมดเหล่านี้ได้นำเข้าเทคโนโลยีเพื่อสอดส่องมาจากประเทศจีน รวมถึงการซื้อเทคโนโลยีจากสหรัฐอเมริกาอีกด้วยถึงแม้ว่าจะน้อยกว่าจีนก็ตาม

Table adapted from the AI Global Surveillance Index (AIGS 2019)

เพื่อให้ภาพที่กว้างขึ้น มีอย่างน้อย 75 ประเทศใน 176 ประเทศที่ปรากฏอยู่ในรายงาน AIGS 2019 กำลังใช้ AI เพื่อการสอดส่องประชาชน และหลายประเทศก็จัดอยู่ในกลุ่มประเทศแนวเสรีนิยมประชาธิปไตยด้วย โดยดัชนีนี้ไม่ได้แบ่งแยกการใช้ AI แบบที่ถูกกฎหมายหรือผิดกฎหมาย แต่เมื่อกลับมาพิจารณาบริบทของเอเชียตะวันออกเฉียงใต้ ภาคประชาสังคมอาจต้องเตรียมพร้อมในการเฝ้าระวังการใช้ AI เพื่อจุดประสงค์ในการสอดส่องโดยรัฐบาล

รายงานฉบับหนึ่งจาก CSIS ชี้ให้เห็นถึงการใช้ “Safe City” ซึ่งพัฒนาโดยบริษัทยักษ์ใหญ่ Huawei กลายมาเป็นทางเลือกให้หลายประเทศในกลุ่มที่อยู่ในสถานะไม่มีเสรีภาพ และเป็นที่น่ากังวลว่าประเทศจีนกำลังส่งออกระบอบอำนาจนิยม (authoritarianism) ไปในต่างประเทศ ทางประเทศจีนเองได้ใช้เทคโนโลยีการจดจำใบหน้า (ซึ่งพัฒนาโดยบริษัทจีนที่มีความเชี่ยวชาญทาง AI อาทิ Yitu, Megvii, SenseTime และ CloudWalk) ซึ่งนำมาใช้ทำโปรไฟล์และติดตามชาวมุสลิมอุยกูร์ และนั่นยังเป็นที่รู้จักกันดีว่าชาวอุยกูร์จำนวนเกือบถึงหนึ่งล้านคนได้ถูกคุมขังในค่ายกักกันแบบเผด็จการเพื่อปรับทัศนคติให้นักโทษ (“re-education camps”) ทำให้เห็นภาพของความเป็นไปได้ที่กลายเป็นข้อกังวลของการละเมิดสิทธิมนุษยชนและการสอดส่องมวลชน

13 ประเทศในภูมิภาคเอเชียมีการสอดส่องทางโซเชียลมีเดีย

นอกจากนี้ยังมีรูปแบบการสอดส่องโดยรัฐที่รวมไปถึงการสอดส่องผ่านโซเซียลมีเดียและการใช้ AI ในการเก็บและวิเคราะห์ข้อมูลส่วนบุคคล รวมไปถึงเมตะดาต้าจากแพลตฟอร์มของโซเซียลมีเดียต่างๆ รายงาน Freedom on the Net (FOTN) ประจำปี 2562 ระบุว่า 13 ประเทศ จาก 15 ประเทศในภูมิภาคเอเชียที่กำลังมีการสอดส่องทางโซเซียลมีเดียหรืออยู่ในช่วงที่กำลังพัฒนาโปรแกรม AI เพื่อจุดประสงค์นี้อยู่ แต่รายงานไม่ได้ระบุว่าประเทศไหนจัดอยูในกลุ่มที่กำลังใช้ หรือกำลังพัฒนาโปรแกรม AI นี้อยู่ แต่ก็มีความเป็นไปได้ค่อนข้างสูงสำหรับ 8 ประเทศที่อยู่ในรายงานฉบับนี้ ได้แก่ ฟิลิปปินส์ มาเลเซีย สิงคโปร์ อินโดนีเซีย กัมพูชา เมียนมา ไทย และเวียดนาม

โดยรายงาน Freedom on the Net ยังได้เน้นไปที่ฟิลิปปินส์และเวียดนาม ซึ่งจากรายงานเมื่อปี 2561 เวียดนามได้ประกาศจัดตั้งหน่วยงานแห่งชาติที่มีจุดประสงค์ในการสอดส่องดูแลโดยเฉพาะ โดยมีการติดตั้งเครื่องมือเทคโนโลยีที่ช่วยในการวิเคราะห์ ประเมินผล และคัดกรองโพสต์หลายล้านข้อความจากโซเซียลมีเดีย และในปีเดียวกันนี้ กองทัพสหรัฐฯได้ฝึกเจ้าหน้าที่ทางการของฟิลิปปินส์ เพื่อก่อตั้งหน่วยงานใหม่ที่ไว้สอดส่องทางโซเซียลมีเดีย ซึ่งรายงานระบุว่า หน่วยงานนี้จะป้องกันการแพร่กระจายของข้อความที่บิดเบือนโดยกลุ่มผู้ก่อการร้าย

การสอดส่องทางดิจิทัลโดยรัฐบาลยังมีผลกว้างออกไปนอกจากแพลตฟอร์มโซเซียลมีเดีย โดยในปี 2561 หน่วยต่อต้านอาชญากรรมแก่เยาวชนบนอินเตอร์เน็ตแห่งมาเลเซีย (Malaysia Internet Crime Against Children – Micac) ที่อยู่ภายใต้สังกัดกรมตำรวจแห่งประเทศมาเลเซีย ได้แสดงความสามารถทางการสอดส่องของหน่วยงานให้แก่นักข่าวท้องถิ่น โดยการติดตามผู้ใช้ที่มีเนื้อหาอนาจารในลักษณะแบบเรียลไทม์ และได้สร้างสิ่งที่เรียกว่า “ห้องสมุดแห่งข้อมูลของบัญชีผู้ใช้โซเซียลมีเดีย” (data library) นี่ถือเป็นการละเมิดสิทธิความเป็นส่วนตัว เช่นเดียวกับแถลงการณ์โดยกลุ่มภาคประชาสังคมใน ASEAN

Image by Bark 003 via Cool SILH. Public Domain .

เทคนิคการเจาะจงกลุ่มเป้าหมาย เพื่อเปลี่ยนพฤติกรรมของผู้มีสิทธิเลือกตั้ง

ในภูมิภาคเอเชียตะวันออกเฉียงใต้นี้ ภาคประชาสังคมได้มุ่งจับตามองการสอดส่องจากรัฐมากกว่าจากบริษัทเอกชน อย่างไรก็ดี ผลกระทบที่มาจากการสอดส่องที่ส่งเสริมโดยบริษัทต่างๆ โดยเฉพาะบริษัทเทคโนโลยียักษ์ใหญ่อย่าง Facebook และ Google อาจจะมีผลกระทบที่เช่นเดียวกับการสอดส่องจากรัฐ หรือแม้แต่การสอดส่องที่ส่งเสริมโดยบริษัทต่างๆ จะมีผลกระทบมากกว่า ลองคิดดูสิว่า เมื่อมีเทคโนโลยี AI เข้ามาเกี่ยวข้องกับข้อมูลมากมายอย่างที่จินตนาการไม่ถึง เทคโนโลยี AI นี่เองที่จะช่วยให้การบริการภาคธุรกิจเพื่อการคาดการณ์และนำมาเปลี่ยนพฤติกรรมของผู้ใช้บริการเพื่อตอบสนองต่อบริษัทโฆษณา ปัญหานี้มีนัยยะที่สำคัญ เมื่อบริษัทโฆษณาทั้งหลายได้ผันตัวเองมาเป็นผู้บริการด้านโฆษณาทางดิจิทัลให้กับกลุ่มการเมืองต่างๆ ซึ่งตั้งเป้าหมายเพื่อเปลี่ยนความคิดเห็นของผู้คน หรือพฤติกรรมของผู้มีสิทธิเลือกตั้ง และการเปลี่ยนความคิดเห็นสาธารณะหรือพฤติกรรมการเลือกตั้ง ย่อมกระทบต่อสิทธิในการเลือกตั้งของปัจเจกบุคคล

เมื่อ 5 ปีก่อน นักวิจัยหลายคนพบว่า machines สามารถล่วงรู้เกี่ยวกับตัวคุณเองได้ดีกว่าใครๆ ซึ่งเรียนรู้มาจากการที่คุณกด Like บน Facebook นั่นเอง (เพียงแค่ machines ดูจากการที่คุณกด Like จำนวน 300 ครั้งเท่านั้น machines สามารถคาดการณ์จากพฤติกรรมของคุณมากกว่าแฟนของคุณเสียอีก และข้อมูลเพียงแค่จากการที่คุณกด Link จำนวน 10 ครั้งเท่านั้นก็ทำให้ machines ประมวลผลและรู้จักตัวคุณดีกว่าเพื่อนร่วมงานของคุณเสียอีก) นับตั้งแต่ที่มีข่าวอื้อฉาวเกี่ยวกับ AI ใน Facebook อย่างกรณีการละเมิดความเป็นส่วนตัวของผู้ใช้บริการโดยบริษัท Cambridge Analytica ซึ่งสามารถเข้าถึงข้อมูลส่วนตัวของผู้ใช้บริการบน Facebook เป็นจำนวนสิบๆล้านคนอย่างผิดกฏหมาย โดยที่บริษัทสามารถเก็บและสร้างข้อมูลของผู้ใช้ Facebook ที่คลิกตอบแบบทดสอบบุคคลิกภาพของ Cambridge Analytica แล้วนำข้อมูลนั้นมาจัดทำโปรไฟล์เกี่ยวกับลักษณะทางจิตวิทยาของผู้บริโภค ทำเกิดการใช้เทคนิคเลือกกลุ่มเป้าหมายที่เฉพาะเจาะจง เพื่อมีจุดประสงค์ในการโน้มน้าวการตัดสินใจลงคะแนนเสียงต่อผู้เข้าแข่งชิงตำแหน่งพรรคนั้นๆ หรือที่เรียกว่า microtargeting ด้วยข้อความโฆษณาหลากหลายที่ทำให้ผลการเลือกตั้งประธานาธิบดีในสหรัฐอเมริกาเมื่อปี 2559 มีความผันผวน ยังมีการกล่าวถึงด้วยอีกว่า กลยุทธ์แบบเดียวกันนี้ได้ถูกนำมาใช้ในการจูงใจผู้เลือกตั้งในสหราชอาณาจักร และส่งผลกระทบต่อผลการลงประชามติจากการออกจากยุโรปของสหราชอาณาจักร หรือ Brexit

ด้วยการมีผู้ใช้บริการถึง 2 พันล้านคน Facebook ได้ใช้ข้อมูลมโหฬารเหล่านี้ในการฝึกระบบ Machine Learning เพื่อการทำนายพฤติกรรมต่างๆ ของผู้ใช้บริการ

นับแต่ตั้งแต่ที่ Cambridge Analytica ได้ปิดตัวลง แต่เรื่องอื้อฉาวนี้ได้ทำให้มีการวิจารณ์ถกเถียงเกี่ยวกับโมเดลธุรกิจของบริษัทที่นำการใช้ microtargeting ในการโฆษณาทางการเมือง ผู้วิจารณ์ทางการเมืองได้ชี้แจงว่าทาง Facebook เองก็ได้ใช้โมเดลธุรกิจแบบ microtargeting เป็นทุนเดิมอยู่แล้ว จะต่างก็ตรงที่โมเดลธุรกิจของ Facebook มีขนาดใหญ่กว่าและมีพลังมากว่า ด้วยขนาดข้อมูลผู้ใช้บริการที่มีจำนวนมหาศาลถึง 2 พันล้านคนได้เอื้ออำนวยให้ Facebook สามารถทำโมเดลธุรกิจแบบ microtargeting นี้ได้ ยิ่งไปกว่านั้น Facebook ได้ใช้ข้อมูลมโหฬารเหล่านี้ในการฝึกระบบ Machine Learning เพื่อการทำนาย เช่น เมื่อผู้ใช้รายบุคคลกำลังจะเปลี่ยนไปใช้สินค้ายี่ห้ออื่นๆ และ Facebook เองยังเปิดให้บริการระบบอัฉริยะที่นำมาทำนายอุปนิสัยการจับจ่ายออนไลน์ของผู้ใช้นี้ให้แก่บริษัทอื่นๆ ที่ยอมจ่ายค่าบริการ นี่แทบจะไม่ต่างกันเลยระหว่างการใช้โมเดลธุรกิจเพื่อการโฆษณา และการโฆษณาทางการเมือง และทำให้ Twitter ได้ประกาศยับยั้งการโฆษณาทางการเมืองแล้ว และ Google เองก็หยุดการใช้ microtargeting ในการโฆษณาทางการเมืองอีกด้วย

จากสถิติ พบว่า 86% ของผู้ที่ใช้อินเตอร์เน็ตในภูมิภาคเอเชียตะวันออกเฉียงใต้มีบัญชี Facebook และทำให้เกิดความกังวลเกี่ยวกับการใช้ microtargeting ที่ส่งผลกระทบต่อผลการเลือกตั้งหลายๆแห่งภายในภูมิภาคนี้ จากรายงานฉบับหนึ่งซึ่งได้ติดตามประเด็นการบิดเบือนข้อมูลทางดิจิทัลในช่วงการเลือกตั้งกลางเทอมในฟิลิปปินส์ เมื่อปี 2562 ซึ่งได้ชี้แจงว่า Facebook Boosts (ซึ่งเป็นกลไกทางโฆษณาของ Facebook นั่นเอง) เป็นปัจจัยสำคัญต่อการรณรงค์เลือกตั้งในท้องถิ่น นอกจากนี้ กลไกทางโฆษณาลักษณะ Facebook Boosts นี้ยังได้ถูกนำมาใช้ประชาสัมพันธ์เนื้อหาในแง่ลบเพื่อการโจมตีคู่แข่งทางการเมืองจากฝ่ายตรงข้าม ในอินโดนีเชีย ผู้เชี่ยวชาญได้เตือนเกี่ยวกับการตั้งเป้าพฤติกรรมของผู้เลือกตั้ง และการนำยุทธศาสตร์ต่างๆ เกี่ยวกับการใช้ microtargeting เพื่อการหาประโยชน์จากข้อมูลส่วนตัวของผู้เลือกตั้งในอินโดนีเชีย และเพื่อส่งผลกระทบต่อผลการเลือกตั้งในช่วงระยะเวลาการเลือกตั้งทั่วไปในปี 2562

Image via SVG Silh. Public Domain.
Image via SVG Silh. Public Domain.

เนื้อหาที่สร้างโดย AI ยิ่งเติมเชื้อเพลิงให้กับแคมเปญที่สร้างข้อมูลบิดเบือน

ในยุคดิจิทัล ข่าวลือได้ถูกทำให้มีประสิทธิผลมากขึ้นกว่าแต่ก่อน ด้วยธรรมชาติของเครือข่ายในการติดต่อสื่อสาร ด้วยเหตุผลนี้ทำให้เกิดการบิดเบือนข้อมูลหรือข่าวปลอม (fake news) ได้กลายมาเป็นปัญหาใหญ่ทั่วโลก รวมทั้งในภูมิภาคเอเชียตะวันออกเฉียงใต้เองด้วย ตัวอย่างที่เศร้าใจที่สุด เห็นได้จากการผลกระทบที่ทำให้เกิดการฆ่าล้างเผ่าพันธุ์ของชาวโรฮิงยาในเมียนมา ซึ่งมีรายงานว่าปัญหานี้เกิดมาจากการกระพือข้อมูลที่บิดเบือนและคำพูดที่สร้างความเกลียดชัง (hate speech) บนโซเซียลมีเดีย

ยิ่งไปกว่านั้น ธุรกิจแห่งการสร้างข้อมูลที่บิดเบือนยังได้งอกงามภายในภูมิภาคนี้ เช่น ในอินโดนีเชีย แหล่งผลิตข่าวปลอมหลายแห่งถูกใช้ปั่นเนื้อหาออกมาเป็นจำนวนมาก โดยตั้งเป้าโจมตีคู่แข่งทางการเมืองฝั่งตรงข้าม และเพื่อสนับสนุนบริการให้กับลูกค้าของแหล่งผลิตข่าวปลอมนั้นๆ อย่างเช่น ในฟิลิปปินส์ บริษัทประชาสัมพันธ์หลายแห่ง ได้ปลูกฝังค่านิยมในชุมชนออนไลน์พร้อมทั้งได้ใส่ข้อความที่บิดเบือนและข้อความที่เกี่ยวกับการเมือง โดยที่บริษัทเหล่านี้ได้รับการช่วยเหลือจากกลุ่มคนที่มีผู้ติดตามออนไลน์จำนวนมาก (influencers) ในกลุ่มที่มีลักษณะมีความเชี่ยวชาญเรื่องใดเรื่องหนึ่งเป็นพิเศษ ทั้งแบบเป็น micro และ nano เมื่อผู้ที่เกี่ยวข้องกับธุรกิจที่ดำเนินงานแบบไร้จรรยาบรรณเหล่านี้ได้สร้างโครงสร้างเพื่อการผลิตข้อมูลที่บิดเบือนและกอบโกยกำไร ทำให้การใช้ AI ในธุรกิจประเภทนี้ยิ่งจะสร้างข้อมูลที่บิดเบือนได้ง่ายและซับซ้อนมากยิ่งขึ้น

อีกหนึ่งเทคโนโลยีที่น่ากลัวคือสิ่งที่เรียกว่า deepfake โดยมีการสร้างเนื้อหาวิดีโอด้วยระบบ AI หรือรู้จักในว่า “synthetic media” ซึ่งเป็นสื่อแบบผสมผสานรวมทั้งการตัดต่อไฟล์วิดีโอหรือไฟล์เสียงเพื่อทำให้ดูและฟังดูเหมือนราวกับว่ามาจากแหล่งข้อมูลที่แท้จริง เทคโนโลยี deepfake ได้สร้างความจริงในช่วงเวลาหนึ่งที่ยังไม่มีใครสามารถแยกแยะได้ว่านี่ไม่ใช่แหล่งข้อมูลจริง ซึ่งบางทีกว่าจะมีคนรู้ว่าเป็นข้อมูลปลอมก็เป็นผ่านไปเป็นเดือน และด้วยต้นทุนที่ราคาถูกในการผลิตยิ่งทำให้มือใหม่เกิดขึ้นได้ง่ายในการสร้าง deepfake ซึ่งในตอนนี้ได้มีคนนำเทคนิคนี้มาใช้ผลิตคลิปวิดีโออนาจารของเหล่าคนดัง และมีความเป็นไปได้หลายแบบที่ deepfake จะถูกนำมาใช้ในการสร้างข้อมูลที่บิดเบือนภายในภูมิภาคนี้ อย่างน้อยมีหนึ่งในตัวอย่างคือ การที่นักการเมืองในประเทศมาเลเซียผู้หนึ่งอ้างว่า ได้มีคลิปวิดีโอ sex ของเขาถูกผลิตโดย deepfake เพื่อการโจมตีทางการเมือง

คลิปวิดีโอข้างต้นได้อธิบายให้เห็นว่าทำไมเทคโนโลยี deepfake จึงเป็นเรื่องที่น่ากังวลและทำไมพวกเราควรต้องระมัดระวังในเรื่องนี้ องค์กร WITNESS ได้เก็บรวบรวมแหล่งข้อมูลที่น่าสนใจสำหรับผู้ที่สนใจประเด็นเกี่ยวการสร้างวิดีโอแบบ deepfake

อีกกรณีคือที่ AI สามารถทำอะไรได้อีกบ้างในการผลิตเนื้อหาที่สมจริงออกมา ในบทความนี้ New York Times ได้เล่าถึงการคลิกเพียงปุ่มเดียว ก็สามารถผลิตคอมเมนต์ทางการเมืองหรือข้อมูลใดๆที่บิดเบือนออกมาได้ อย่างที่พอจะเห็นได้ว่ามีการลงทุนในการสร้างกองกำลังไซเบอร์เพื่อรุมโจมตีความคิดเห็นของฝ่ายตรงข้ามและหากใช้ machines มาใช้ทดแทนคนจริงๆ เพื่อการผลิตเนื้อหาที่สมจริงออกมาให้ดูเหมือนราวกับว่าเป็นมนุษย์เองที่เขียนข้อความเหล่านั้น ในรายงานอีกฉบับหนึ่งยังได้เตือนถึงความน่ากลัวของการทำข่าวปลอมที่ผลิตโดย AI มาอีกด้วย และระบบนั้นเรียกว่า GROVER ที่สามารถผลิตบทความปลอมที่เขียนขึ้นมาจากพาดหัวข่าวชิ้นเดียวเท่านั้น ทั้งยังสามารถเลียนแบบข่าวต่างๆที่รายงานโดยสำนักงานข่าวชั้นนำอย่าง The Washington Post หรือ The New York Times อีกด้วย

ในยุคที่เรียกว่า “ยุคหลังความจริง” หรือ “post-truth” นั้นยังต้องเผชิญกับอีกหลากหลายความท้าทาย คุณสามารถเช็ครูปถ่ายของใบหน้าของบุคคลต่างๆที่ผลิตโดยคอมพิวเตอร์แล้วอัพโหลดไปบนเว็บไซต์ดังต่อไปนี้ ThisPersonDoesNotExist.com หรือ WhichFaceIsReal.com ลองดูถึงความสมจริงของรูปเหล่านี้ เว็บไซต์เหล่านี้เองยังช่วยผลิตรูปภาพนั้นๆได้อย่างง่ายดายเพื่อนำไปใช้ในโปรไฟล์ปลอมบนโซเชียลมีเดีย

บทสรุป

ดังที่บทความนี้ได้กล่าวไปว่าความสามารถของ AI ได้นำมาใช้ในฐานะที่เปรียบเสมือนอาวุธ เพื่อบรรลุวัตถุจุดประสงค์ที่ขัดกับสิทธิพลเมืองและสิทธิทางการเมืองได้ ขณะที่ฝั่งภาคประชาสังคมในภูมิภาคนี้ยังคงต้องคอยจับตามองเพื่อติดตามเทรนด์ของเทคโนโลยีและแอปพลิเคชันใหม่ๆของ AI เพื่อจะไม่ให้ผู้เล่นอื่นนำไปใช้ในทางผิดแบบที่เราไม่ทันสังเกตเห็น เพราะด้วยประสิทธิภาพของเทคโนโลยี Machine Learning และ AI ที่เดินหน้าพัฒนาอย่างต่อเนื่อง ภาคประชาสังคมและนักปกป้องสิทธิมนุษยชนจำเป็นต้องเข้าไปมีส่วนร่วมเพื่อออกแบบระบอบการกำกับดูแลของ AI และผลักดันให้บริษัทเทคโนโลยีทั้งหลายต้องมีความรับผิดชอบต่อการพัฒนาเทคโนโลยีของตน เพื่อมุ่งให้เป็นอาวุธในแบบที่ช่วยปกป้องและส่งเสริมสิทธิมนุษยชนทั่วโลกได้

เกี่ยวกับผู้เขียน

Dr. Jun-E Tan เป็นนักวิจัยอิสระ อาศัยอยู่ในเมืองกัวลาลัมเปอร์ ประเทศมาเลเซีย งานวิจัยและการสนับสนุนของ Jun-E นั้นเกี่ยวกับประเด็นการสื่อสารทางดิจิทัล สิทธิมนุษยชน และการพัฒนาที่ยั่งยืน บทความในปีวิจัยล่าสุดของ Jun-E มีชื่อว่า “สิทธิมนุษยชนทางดิจิทัลในภูมิภาคเอเชียอาคเนย์: กรอบแนวคิดและการสร้างขบวนการเคลื่อนไหว” (Digital Rights in Southeast Asia: Conceptual Framework and Movement Building) ได้เผยแพร่ในหนังสือ open access (สามารถ download เพื่ออ่านได้ฟรี) ที่มีชื่อว่า “การสำรวจความเกี่ยวเนื่องระหว่างเทคโนโลยีต่างๆและสิทธิมนุษยชน: โอกาสและความท้าทายที่หลากหลายในเอเชียอาคเนย์” (Exploring the Nexus Between Technologies and Human Rights: Opportunities and Challenges in Southeast Asia) จัดพิมพ์โดยสำนักพิมพ์ SHAPE-SEA เมื่อเดือนธันวาคม 2562 นอกจากนี้ Jun-E ยังได้เขียนบทความลงในบล็อกของตนเองอยู่เป็นประจำ

คุณสามารถอ่าน บทความแรก และบทความที่สองในซีรีย์เดียวกันนี้ที่เกี่ยวกับผลกระทบสิทธิมนุษยชนที่มาจากปัญญาประดิษฐ์ (Artificial Intelligence – AI) ในบริบทของเอเชียตะวันออกเฉียงใต้

The post เมื่อ AI กลายเป็นอาวุธที่มีผลกระทบต่อสิทธิพลเมืองและสิทธิทางการเมือง appeared first on Coconet.

]]>
https://coconet.social/2020/%e0%b9%80%e0%b8%a1%e0%b8%b7%e0%b9%88%e0%b8%ad-ai-%e0%b8%81%e0%b8%a5%e0%b8%b2%e0%b8%a2%e0%b9%80%e0%b8%9b%e0%b9%87%e0%b8%99%e0%b8%ad%e0%b8%b2%e0%b8%a7%e0%b8%b8%e0%b8%98%e0%b8%97%e0%b8%b5%e0%b9%88/feed/ 0
เราจะอยู่ร่วมกับ AI ได้หรือไม่: ปัญญาประดิษฐ์ (Artificial Intelligence) กับผลกระทบต่อสิทธิทางเศรษฐกิจ สังคม และวัฒนธรรม https://coconet.social/2020/%e0%b9%80%e0%b8%a3%e0%b8%b2%e0%b8%88%e0%b8%b0%e0%b8%ad%e0%b8%a2%e0%b8%b9%e0%b9%88%e0%b8%a3%e0%b9%88%e0%b8%a7%e0%b8%a1%e0%b8%81%e0%b8%b1%e0%b8%9a-ai-%e0%b9%84%e0%b8%94%e0%b9%89%e0%b8%ab%e0%b8%a3/ https://coconet.social/2020/%e0%b9%80%e0%b8%a3%e0%b8%b2%e0%b8%88%e0%b8%b0%e0%b8%ad%e0%b8%a2%e0%b8%b9%e0%b9%88%e0%b8%a3%e0%b9%88%e0%b8%a7%e0%b8%a1%e0%b8%81%e0%b8%b1%e0%b8%9a-ai-%e0%b9%84%e0%b8%94%e0%b9%89%e0%b8%ab%e0%b8%a3/#respond Tue, 11 Aug 2020 03:33:56 +0000 https://coconet.social/2020/%e0%b9%80%e0%b8%a3%e0%b8%b2%e0%b8%88%e0%b8%b0%e0%b8%ad%e0%b8%a2%e0%b8%b9%e0%b9%88%e0%b8%a3%e0%b9%88%e0%b8%a7%e0%b8%a1%e0%b8%81%e0%b8%b1%e0%b8%9a-ai-%e0%b9%84%e0%b8%94%e0%b9%89%e0%b8%ab%e0%b8%a3/ บทความนี้เป็นบทความที่สองในซีรีย์บทความที่เกี่ยวกับผลกระทบสิทธิมนุษยชนที่มาจากปัญญาประดิษฐ์ (Artificial Intelligence หรือ AI) ในบริบทของภูมิภาคเอเชียตะวันออกเฉียงใต้ โดยมีจุดประสงค์เพื่อการสร้างความตระหนักรู้และการมีส่วนร่วมของภาคประชาสังคมในประเด็นนี้

The post เราจะอยู่ร่วมกับ AI ได้หรือไม่: ปัญญาประดิษฐ์ (Artificial Intelligence) กับผลกระทบต่อสิทธิทางเศรษฐกิจ สังคม และวัฒนธรรม appeared first on Coconet.

]]>

Read this article in English

แปลไทยโดย ธีรดา ณ จัตุรัส

บทความนี้เป็นบทความที่สองในซีรีย์บทความที่เกี่ยวกับผลกระทบด้านสิทธิมนุษยชนที่มาจากปัญญาประดิษฐ์ (Artificial Intelligence หรือ AI) ในบริบทของภูมิภาคเอเชียตะวันออกเฉียงใต้ โดยมีจุดประสงค์เพื่อการสร้างความตระหนักรู้และการมีส่วนร่วมของภาคประชาสังคมในประเด็นนี้

จากบทความก่อนหน้านี้ เราได้กล่าวถึงคำนิยามของ AI และ Machine Learning พร้อมทั้งยังได้พิจารณาประเด็นของการประยุกต์ใช้เทคโนโลยีเหล่านี้ภายในภูมิภาคเอเชียตะวันออกเฉียงใต้ไปแล้ว ส่วนในบทความนี้และบทความถัดไป เราจะกล่าวถึงต่อในเรื่องผลกระทบที่มีต่อ 1. สิทธิทางเศรษฐกิจ สังคม วัฒนธรรม (Economic, Social, and Cultural Rights – ESCR) และ 2. สิทธิทางพลเมืองและสิทธิทางการเมือง (Civil and Political Rights – CPR) เพื่อทำความเข้าใจความเชื่อมโยงที่เกี่ยวกับเรื่องนี้ โดยในบทความนี้จะเน้นถึงผลกระทบที่มีต่อประเด็นสิทธิทางเศรษฐกิจ สังคม วัฒนธรรม (ESCR)

สิทธิทางเศรษฐกิจ สังคม วัฒนธรรม (ESCR) คืออะไร

จากกติการะหว่างประเทศว่าด้วยสิทธิทางเศรษฐกิจ สังคม และวัฒนธรรม (International Covenant of Economic, Social and Cultural Rights – ICESCR) ซึ่งรวมไปถึงสิทธิในการเข้าถึงการรักษาพยาบาล การศึกษา ประกันสังคม เงื่อนไขการทำงานที่เหมาะสม คุณภาพชีวิตที่ดี และการมีส่วนร่วมทางวัฒนธรรมและกิจกรรมสร้างสรรค์อื่นๆ สิทธิต่างๆเหล่านี้จัดว่าเป็นสิทธิเชิงบวก (positive rights) ซึ่งจำเป็นที่จะต้องมีแนวทางปฏิบัติเพื่อเติมเต็มให้สิทธิเหล่านี้เกิดขึ้น เช่น การจัดหางานที่ดีให้ สิทธิเชิงบวกนี้ตรงกันข้ามกับสิทธิพลเมืองและสิทธิทางการเมือง ซึ่งจำเป็นต้องมีการละเว้นกระทำและไม่ขัดขวางอันเป็นการละเมิดสิทธิในทางนี้ เช่น การไม่ละเมิดเสรีภาพในการแสดงออก

ข้อสังเกตสำคัญก็คือ ความหมายของ ESCR ที่เกี่ยวข้องกับ AI ไม่ได้ตีความแบบสองขั้ว เช่น “ดี” หรือ “เลว” แม้ว่าจะนำหลักการนี้ไปใช้แบบเดียวกัน แต่ผลลัพธ์ที่ได้อาจแตกต่างกันไปในแต่ละกรณี บางคนได้รับผลดีแต่บางคนอาจได้รับผลกระทบเชิงลบ ตัวอย่างที่เห็นได้คือ การใช้ AI ช่วยในการตัดสินใจเลือกลูกค้าที่มีเครดิตที่น่าไว้วางใจโดยพิจารณาจากชุดข้อมูลเท่าที่มีอยู่ ทั้งนี้อาจจะไม่ได้ส่งผลดีต่อผู้ที่ไม่มีกำลังซื้อมากนัก เพราะกลุ่มคนเหล่านี้อาจจะมีกำลังซื้อน้อยกว่ากลุ่มที่มีรายได้สูงและทำให้มีข้อมูลประวัติการใช้จ่ายที่ไม่เพียงพอต่อการวิเคราะห์ถึงประวัติการมีเครดิตที่น่าไว้วางใจ แต่การใช้ชุดข้อมูลอื่นที่มีขอบเขตกว้างขวางกว่าประวัติเรื่องเครดิตก็อาจทำให้เกิดการเลือกปฏิบัติจากการใช้ชุดข้อมูลที่ไม่เกี่ยวข้องหรือบางครั้งอาจเกิดการใช้ข้อมูลโดยพลการ เช่น กรณีที่ใช้ AI มาวิเคราะห์และให้ผลคะแนนต่ำถ้าผู้สมัครคนนั้นพิมพ์อักษรตัวพิมพ์ใหญ่ทั้งหมด (all-caps) ส่งผลให้เกิดความเสี่ยงสูงต่อค่าเริ่มต้น

บทความนี้จะมองผลกระทบของ AI ที่มีต่อ ESCR แบ่งออกมาเป็น 2 แบบ คือ 1. ผลกระทบเมื่อไม่ใช้ AI เพื่อการพัฒนา และ 2. ผลกระทบทางลบจากการใช้ AI

"fikiran" is licensed under CC0 1.0

ประโยชน์ด้านการพัฒนาของ AI

หากใช้ AI แบบมียุทธศาสตร์และเป็นไปอย่างเหมาะสมแล้วย่อมสามารถเพิ่มผลประโยชน์ได้ ทางการพัฒนาอย่างมหาศาล รวมไปถึงการเติบโตทางเศรษฐกิจด้วย แต่ความเป็นจริงแล้ว AI ยังสามารถพัฒนาคุณภาพชีวิตของผู้คนในอีกหลายด้าน เช่นเดียวกับตัวอย่างดังต่อไปนี้ที่ทำให้เห็นว่าเทคโนโลยีได้ช่วยให้เกิดผลสำเร็จด้านการพัฒนาได้อย่างไรในภูมิภาคเอเชียตะวันออกเฉียงใต้

  • ด้านสุขภาพ: ในสิงคโปร์ บริษัท start-up ที่ชื่อว่า Kronikare ร่วมมือกับ AI Singapore พัฒนาระบบที่ช่วยรวบรวมข้อมูล วิเคราะห์ และวินิจฉัยบาดแผลที่มีสภาพเรื้อรัง ระบบนี้ได้มีการใช้อย่างกว้างขวาง รวมทั้งในโรงพยาบาลและบ้านพักผู้สูงอายุบางแห่งในสิงคโปร์
  • ด้านการจราจร: ในกัวลาลัมเปอร์ บริษัท Malaysia City Brain ร่วมมือกับบริษัท Alibaba, Malaysia Digital Economy Corporation และสภาเมืองของกัวลาลัมเปอร์ ได้ตั้งเป้าในการลดการจราจรที่ติดขัดในเขตเมือง โดยบริษัท City Brain ในเมือง Hangzhaou ประเทศจีน ได้ริเริ่มใช้โครงการนี้ไปแล้วและทำให้บริหารสภาพคล่องทางการจราจรเร็วขึ้นกว่าเดิมถึง 15% ในบางพื้นที่
  • ด้านการศึกษา: แพลตฟอร์มเพื่อการศึกษาที่ชื่อว่า Ruangguruในอินโดนีเซีย ช่วยให้นักเรียนและครูสามารถดำเนินการเรียนการสอน พร้อมทั้งมีวิดีโอสื่อการสอนในหลายวิชา และยังได้ใช้ AI เพื่อการออกแบบบทเรียนที่เฉพาะเจาะจงสำหรับนักเรียนได้ โดยสามารถรองรับนักเรียนได้ประมาณ 15 ล้านคน และ 80% ของนักเรียนกลุ่มนี้อาศัยอยู่นอกเขตเมือง
  • ด้านความมั่นคงทางอาหาร: ในเวียดนาม บริษัท start-up หลายแห่งกำลังใช้ AI และระบบเซ็นเซอร์ของ Internet of Things (IoT) เพื่อเพิ่มการผลิตทางการเกษตร การประหยัดการใช้น้ำ และการให้ปุ๋ย บริษัท start-up ที่ชื่อว่า Sero ระบุว่าถึง 70% – 90% ของความแม่นยำในการจำแนกชนิดโรคของพืชได้ถึง 20 ชนิด ซึ่งทำให้สามารถลดปริมาณความเสียหายในการปลูกพืชลงไปได้

แต่เมื่อพิจารณาทั้งหมด 11 ประเทศทั่วภูมิภาคเอเชียตะวันออกเฉียงใต้นั้นต่างมีความไม่เท่าเทียมกันในระดับการประยุกต์ใช้และความสามารถในการใช้ AI ความไม่เท่าเทียมกันนี้เห็นได้จากรายงาน AI Government Readiness Index ซึ่งจัดทำโดยศูนย์วิจัย Oxford Insights and the International Development โดยได้จัดลำดับรัฐบาลต่างๆโดยพิจารณาจากความพร้อมในการใช้ AI ทั้งในด้านบริหารรัฐกิจและการส่งมอบงาน จากการจัดลำดับในรายงานฉบับนี้ระบุว่า ประเทศสิงคโปร์ถือเป็นผู้นำในระดับโลก ส่วนอีก 6 ประเทศในภูมิภาคเอเชียตะวันออกเฉียงใต้ที่ติดอยู่ใน 100 อันดับประเทศที่รัฐบาลมีความพร้อมในการนำ AI มาใช้งาน ได้แก่ มาเลเซีย (อันดับ 22), ฟิลิปปินส์ (อันดับ 50), ประเทศไทย (อันดับ 56), อินโดนีเซีย (อันดับ 57) และเวียดนาม (อันดับ 70)

ประเทศ (อันดับในโลก)

คะแนน

Singapore (1)
~9.186
Malaysia (22)
~7.108
Philippines (50)
~5.704
Thailand (56)
~5.458
Indonesia (57)
~5.420
Vietnam (70)
~5.081
Brunei Darussalam (121)
~3.143
Cambodia (125)
~2.810
Laos (137)
~2.314
Myanmar (159)
~1.385
Timor Leste (173)
~0.694

โดยประเทศที่ได้รับการจัดลำดับให้อยู่ในอันดับต้นๆนั้นต่างมียุทธศาสตร์แห่งชาติหรือกำลังร่างขึ้นมา โดยตั้งเป้าหมายในเรื่องการสนับสนุนการพัฒนา AI ให้เกิดขึ้นภายในประเทศของตน เพื่อจะเป็นข้อได้เปรียบทางเทคโนโลยีและมุ่งสร้างสิ่งแวดล้อมที่เอื้ออำนวยต่อการพัฒนา AI เพื่อขับเคลื่อนความคิดริเริ่มต่างๆทางด้านการพัฒนา AI กรณีประเทศสิงคโปร์มียุทธศาสตร์เรื่องปัญญาประดิษฐ์แห่งชาติ (National Artificial Intelligence Strategy) ซึ่งมุ่งเป้าไปที่การเป็นผู้นำในด้านการพัฒนา AI ภายในปี 2573 นี้ ยุทศศาสตร์นี้ยังได้ทำให้ระบบนิเวศของ AI มีความเข้มแข็งยิ่งขี้น ทั้งยังได้เสนอความช่วยเหลือทางการเงินมากกว่า 500 ล้านดอลล่าร์สิงคโปร์ ส่วนประเทศอื่นในภูมิภาคเอเชียตะวันออกเฉียงใต้นั้นที่มีนโยบายทางด้านการพัฒนา AI เช่น ประเทศมาเลเซีย (ซึ่งมีกรอบแนวทางปัญญาประดิษฐ์แห่งชาติ หรือ National AI Framework ในปี 2563 และนโยบายทางด้านข้อมูลและ AI แห่งชาติ หรือ National Data and AI Policy ที่ได้รับการเสนอในคณะรัฐมนตรี) และประเทศอินโดนีเซีย (ที่ตั้งเป้าไปที่การสร้างกลยุทธ์ปัญญาประดิษฐ์ให้แล้วเสร็จภายในปี 2563 นี้)

ขณะที่กลุ่มประเทศกำลังพัฒนาอื่นๆกลับยังคงต้องเผชิญความท้าทายในเรื่องการเข้าถึงอินเตอร์เน็ต เช่น ติมอร์-เลสเต ที่มีสัดส่วนประชากรที่สามารถเข้าถึงอินเตอร์เน็ตเพียง 30.3% ของจำนวนประชากรทั้งหมด ส่วนประเทศเมียนมามีจำนวน 33.1% และประเทศลาวมีจำนวน 35.4% นั่นทำให้เห็นว่าปัญหาความไม่เท่าเทียมกันระหว่างประเทศที่เข้าถึงเทคโนโลยีกับประเทศไม่สามารถเข้าถึงได้

ขณะที่รัฐบาลอาจจะมีความพร้อมที่ช้าในด้านการพัฒนา AI แต่ฝั่งภาคเอกชนกลับเร่งเดินหน้าเพื่อเสนอบริการด้าน AI เพราะต้องการที่จะกระโดดเข้าร่วมกระแส “smart” ซึ่งรวมไปถึงการใช้ AI ในการพัฒนาสินค้าและบริการ ส่วนการเปิดตัวเครือข่ายเมืองอัจริยะแห่งอาเซียน (ASEAN Smart Cities Network – ASCN)เมื่อปี 2561 ได้มีสมาชิกเข้าร่วมจาก 26 เมืองทั่วทั้งเอเชียตะวันออกเฉียงใต้ โดยมีจุดประสงค์เพื่อจะใช้เทคโนโลยีในการพัฒนาของเมือง ซึ่งหนึ่งในเป้าหมายของเครือข่ายนี้ยังเน้นไปยังการเชื่อมต่อเมืองเหล่านี้เข้ากับผู้ให้บริการภาคเอกชนที่มีความสามารถในการแก้ปัญหาทางเทคโนโลยี

ในภาพรวมจากแผนการและวิสัยทัศน์ต่างๆ ดูเหมือนจะเป็นความหวัง จากการเป็นพื้นที่ศูนย์กลางการพัฒนาของเครือข่าย ASCN ที่ต้องการสร้างความร่วมมือด้านสังคมและวัฒนธรรม สุขภาพและคุณภาพชีวิต ความปลอดภัยสาธารณะ การรักษาสิ่งแวดล้อม การสร้างสาธารณูปโภค รวมทั้งอุตสาหกรรมและนวัตกรรมใหม่

Artificial Intelligence & AI & Machine Learning
Artificial Intelligence & AI & Machine Learning. Image by Mike MacKenzie via www.vpnsrus.com

ความเสี่ยงซึ่งอาจเกิดจาก AI ที่ส่งผลกระทบต่อ ESCR

ประโยชน์ด้านการพัฒนาที่เกิดจาก AI นั้นย่อมขึ้นอยู่กับการนำไปใช้ นี่คือจุดที่มีความเสี่ยงมากมาย แม้ว่าจะยังไม่มีกรณีตัวอย่างที่ชัดเจนเกี่ยวกับเรื่องความปลอดภัยและอันตรายจากการใช้ AI ในภูมิภาคของเรา เพราะนี่ถือเป็นช่วงเริ่มแรกของการพัฒนาทางเทคโนโลยีทว่าพวกเรายังคงต้องจับตาดูปัญหาที่เกิดขึ้นในพื้นที่อื่นๆ เพื่อเรียนรู้และเท่าทัน

เช่นกรณีตัวอย่างที่ปรากฏในบทความที่มีชื่อว่า Automating Poverty ของ The Guardian เล่าถึงผลกระทบที่เกิดในประเทศอินเดีย สหราชอาณาจักร สหรัฐอเมริกา และออสเตรเลีย จากการใช้ระบบ AI ที่มีความสามารถในการตัดสินใจด้วยตัวเอง โดยได้นำมาปรับใช้กับระบบประกันสังคม ผลลัพธ์กลับทำให้เกิดการลดทอนคุณค่าความเป็นมนุษย์และเป็นการลงโทษกลุ่มคนชายขอบมากขึ้นไปอีก โดยเฉพาะกรณีของอินเดียทำให้เห็นผลกระทบที่ตามมาอย่างรุนแรงในการนำ AI ไปใช้ในทางที่ผิดที่เกิดขึ้นในบริบทของประเทศกำลังพัฒนา จากการเปลี่ยนผ่านจากระบบกระดาษไปสู่ระบบดิจิทัลยิ่งทำให้กลุ่มคนยากจนมีความเปราะบางมากขึ้นในเรื่องของการใช้เทคโนโลยี นับตั้งแต่ปัญหาเรื่องไฟดับ ความไม่เสถียรของอินเตอร์เน็ตไปจนถึงการที่ไม่รู้ว่าทำไมตนเองถึงถูกปฏิเสธจากระบบประกันสังคม ทั้งที่ระบบนั้นควรต้องครอบคลุมถึงการคุ้มครองทางสังคมและการขอเงินค่ารักษาพยาบาลคืนแก่คนจน โดยความผิดพลาดต่างๆที่เกิดขึ้นอาจะนำไปสู่ความตายและความหิวโหย

ระบบที่เอนเอียง และการเข้าถึง

การตัดสินใจที่ไม่โปร่งใสเรื่องประกันสังคมด้วย AI จะทำให้เกิดผลลัพธ์ที่อันตรายและสร้างความเดือดร้อนแก่ผู้คน การใช้เทคโนโลยี AI เข้ามาช่วยในการตัดสินใจที่เกิดขึ้นในภูมิภาคตะวันออกเฉียงใต้นี้ยังจำเป็นต้องได้รับการพัฒนา โดยมีอย่างน้อย 2 ด้าน ได้แก่ หนึ่งคือการมีชุดข้อมูลที่ดีพอสำหรับ Machine Learning ซึ่งยังเป็นเรื่องที่ภูมิภาคนี้ยังขาด เพราะประชากรอีกจำนวนมากยังเข้าไม่ถึงอินเตอร์เน็ต หรือคุณภาพของข้อมูลยังดีไม่พอ อย่างที่สองคือการที่หลายประเทศในภูมิภาคนี้ยังจำเป็นต้องนำเข้าเทคโนโลยี AI นั่นหมายความว่า วิศวกรที่ออกแบบไม่ได้เข้าใจบริบทภายในประเทศของภูมิภาคนี้ อย่างที่ได้กล่าวไปแล้วในบทความชิ้นแรกปัญหาเหล่านี้นำไปสู่ปัญหาที่อาจกระทบต่อประเด็นสิทธิมนุษยชน

วิศวกรผู้พัฒนาโดยมากแล้วจะเป็นคนนอกพื้นที่ ซึ่งอาจจะไม่เข้าใจบริบทท้องถิ่นนั้นๆ

เมื่อผู้คนต่างพึ่งพาเทคโนโลยีเพื่อเข้าถึงชีวิตทางเศรษฐกิจ สังคม และการเมืองแล้ว พวกเขาจึงจำเป็นต้องพึ่งพาความพร้อมใช้งานและความมีเสถียรภาพของเทคโนโลยีด้วย ตามที่กล่าวในข้างต้น เรื่องความเหลื่อมล้ำทางสังคมที่เพิ่มมากขึ้นระหว่างกลุ่มคนที่มีและคนไม่มี ซึ่งกลุ่มคนที่มีข้อจำกัดในการพัฒนาเทคโนโลยีอาจจำเป็นต้องพึ่งพาการใช้เทคโนโลยีที่ไม่ได้ถูกออกแบบให้เข้าถึงและใช้งานได้อย่างสะดวกหรือเหมาะกับการใช้งานในบริบทของตนเอง การเข้าถึงระบบ AI นั้นอาจจะมองได้หลายแง่มุม ซึ่งในภูมิภาคที่มีความหลากหลายทางวัฒนธรรมและภาษาเช่นนี้ จึงจำเป็นอย่างยิ่งที่ต้องให้ความสำคัญในเรื่องนี้ แต่ก็ต้องใช้เงินลงทุนสูงและบางครั้งอาจจะนำไปใช้งานจริงไม่ได้อีกด้วย ยิ่งไปกว่านั้นอาจจะเกิดจากอุปสรรคจากเรื่องของความบกพร่องในเชิงทางกายภาพหรือจิตใจ รวมไปถึงผู้ที่มีระดับการศึกษาน้อย ผู้ที่ไม่ได้มีความเท่าทันเรื่องดิจิทัลหรือแม้กระทั่งการเข้าไม่ถึงสาธารณูปโภคขั้นพื้นฐานต่างๆ

ปัญหาขั้นพื้นฐานเหล่านี้จำเป็นที่จะต้องพิจารณาอย่างจริงจังก่อนจะตัดสินใจแก้ปัญหาด้วยการใช้ AI เพื่อหาทางออก

ทุกปัญหาไม่สามารถแก้ไขด้วยเทคโนโลยีเพียงอย่างเดียว

เทคโนโลยีไม่ใช่ยาวิเศษที่ตอบปัญหาได้ทุกปัญหา

ไม่ใช่ทุกปัญหาจะได้รับการแก้ไขด้วยการประยุกต์ใช้เทคโนโลยีเพียงอย่างเดียว ตามที่ได้กล่าวถึงในบทความของ The Guardian ที่ได้ยกกรณีศึกษาจากประเทศอินเดีย เพื่อชี้ให้เห็นถึงต้นตอของปัญหาที่มาจากความไม่มีประสิทธิภาพของระบบที่มีมาก่อนหน้า ซึ่งเป็นเรื่องการทุจริตและการบริหารจัดการที่ไม่มีประสิทธิภาพของผู้บริหารระดับสูง และปัญหาเรื่องบัตรประชาชนปลอมที่เป็นปัญหาของ Aadhaar เมื่อกลายเป็นปัญหาที่ซับซ้อนในเชิงโครงสร้างและการแก้ปัญหาด้วยการใช้เทคโนโลยีอาจทำให้เบี่ยงประเด็นความสนใจในการแก้ไขปัญหาที่แท้จริงและยังเป็นการสร้างปัญหาใหม่เพิ่มขึ้นมาอีก

เมื่อมองในภูมิภาคเอเชียตะวันออกเฉียงใต้นี้ที่มีความกระตือรือร้นอย่างมากที่จะพยายามปรับการใช้ AI กับหลายสิ่ง จนนำไปสู่ออกแถลงการณ์ของผู้นำระดับสูงที่ต้องการสร้างแนวทางในการใช้ AI ในหลายภาคส่วน เช่น ประธานาธิบดีโจโกวีของอินโดนีเซียที่ออกมาประกาศว่า จะใช้การบริหารงานราชการด้วยการใช้ AI แทนเจ้าหน้าที่รัฐ ขณะที่รัฐมนตรีศึกษาธิการของมาเลเซียออกมากล่าวว่า จะใช้ Machines มาช่วยให้คำแนะนำทางด้านการวางแผนวิชาชีพให้แก่นักเรียนในอนาคต ซึ่งประเด็นนี้ยังเป็นที่ถกเถียงกันอยู่ว่า นี่เป็นวิธีที่เหมาะสมหรือไม่ในการแก้ปัญหาที่ประเทศของตนกำลังเผชิญหน้าอยู่ แต่ไม่ว่าจะใช้วิธีใหนย่อมจำเป็นอย่างยิ่งที่จะต้องปรึกษาหารือกับหลายภาคส่วนที่เกี่ยวข้องและการประเมินผลกระทบต่อประเด็นเรื่องสิทธิมนุษยชนด้วย

ความกังวลเรื่องความเหลื่อมล้ำที่มากขึ้นจากการใช้ AI

ท้ายที่สุด เมื่อมีการพูดถึง AI ในบริบทของภูมิภาคนี้ AI ก็มักจะถูกมองจากมุมของการเพิ่มความเติบโตทางเศรษฐกิจ หรือไม่ก็ AI จะเข้ามาทดแทนแรงงานคน การมองแบบนี้เปรียบเสมือนมองเหรียญสองด้าน นั่นคือบริษัทเอกชนจะเข้ามาแสวงหากำไรจากการทดแทนแรงงานมนุษย์ด้วย Machines แม้ว่ายังมีแรงงานที่ยังไม่ได้ทดแทนด้วย Machines แต่พวกเราต่างเริ่มเห็นแนวโน้มของระบบเศรษฐกิจที่เรียกว่า gig economy เช่นการเกิดขึ้น Grab และ Go-Jek หรือแพลตฟอร์มออนไลน์อื่นๆสำหรับผู้มีอาชีพอิสระ โดยมากแล้วแพลตฟอร์มเหล่านี้รัฐบาลต่างๆยังไม่มีการออกกฎเพื่อมาควบคุมในภูมิภาคเอเชียตะวันออกเฉียงใต้นี้ ทำให้มีความกังวลในเรื่องการเอารัดเอาเปรียบผู้ใช้แรงงาน โดยผ่านการที่บริษัทเทคโนโลยีเหล่านี้นำอัลกอริทึมมาปรับใช้

รัฐบาลในอาเซียนส่วนใหญ่มองว่า AI เป็นเหมือนตัวขับเคลื่อนเพื่อการพัฒนาทางเศรษฐกิจมากกว่าเป็นการพัฒนาทางสังคม

จากการตั้งข้อสังเกตของเวทีการพูดคุยต่างๆเกี่ยวกับ AI ซึ่งทำให้เห็นว่า หลายรัฐบาลในภูมิภาคาอาเซียนได้ใช้ AI ในฐานะตัวขับเคลื่อนทางเศรษฐกิจมากกว่าการพัฒนาทางสังคม จึงเป็นเรื่องที่น่ากังวลว่า การนำ AI มาใช้เพื่อเพิ่มประสิทธิภาพต่อการแสวงหากำไรของเจ้าของบริษัทเทคโนโลยีหลายแห่งซึ่งส่งผลกระทบด้านลบต่อผู้อื่นและโลกของเรา สถานการณ์ที่กล่าวถึงนี้ก็เป็นสิ่งที่เกิดขึ้นแล้วในทุกวันนี้ เพียงแต่ AI จะเข้ามาเพิ่มอัตราเร่งที่รวดเร็วกว่าหลายเท่าตัว

บทสรุป

ในเรื่องผลกระทบจาก AI ต่อสิทธิต่างๆในทางเศรษฐกิจ สังคม และวัฒนธรรมนั้น ผู้เขียนได้ให้คำตอบสั้นๆต่อคำถามที่ว่า AI เป็นสิ่งที่ดีหรือเป็นอันตรายในบริบทเอเชียตะวันออกเฉียงใต้ ซึ่งคำตอบก็คือ “ก็ขึ้นอยู่กับว่าจะนำ AI ไปใช้ทำอะไร” ส่วนภาคประชาสังคมในภูมิภาคนี้ยังคงต้องทำความเข้าใจมากขึ้นและสร้างพื้นที่การถกเถียงร่วมกันในประเด็นนี้ให้มากขึ้น ทั้งในมุมข้อดี ข้อเสีย ความท้าทาย ที่มีต่อเงื่อนไขของแต่ละประเทศในภูมิภาคนี้

ส่วนคำถามที่ว่า AI จะช่วยทำให้ชีวิตความเป็นอยู่ของผู้คนดีขึ้นหรือแย่ลง หรือความเกี่ยวข้องกับประเด็นเรื่องความเป็นส่วนตัว ประเด็นเหล่านี้จะกล่าวถึงในบทความต่อไปที่ชวนคิดถึงเรื่องผลกระทบของ AI ต่อสิทธิพลเมืองและทางการเมือง

เกี่ยวกับผู้เขียน

Dr. Jun-E Tan เป็นนักวิจัยอิสระ อาศัยอยู่ในเมืองกัวลาลัมเปอร์ ประเทศมาเลเซีย งานวิจัยและการสนับสนุนของ Jun-E นั้นเกี่ยวกับประเด็นการสื่อสารทางดิจิทัล สิทธิมนุษยชน และการพัฒนาที่ยั่งยืน บทความในปีวิจัยล่าสุดของ Jun-E มีชื่อว่า “สิทธิมนุษยชนทางดิจิทัลในภูมิภาคเอเชียอาคเนย์: กรอบแนวคิดและการสร้างขบวนการเคลื่อนไหว” (Digital Rights in Southeast Asia: Conceptual Framework and Movement Building) ได้เผยแพร่ในหนังสือ open access (สามารถ download เพื่ออ่านได้ฟรี) ที่มีชื่อว่า “การสำรวจความเกี่ยวเนื่องระหว่างเทคโนโลยีต่างๆและสิทธิมนุษยชน: โอกาสและความท้าทายที่หลากหลายในเอเชียอาคเนย์” (Exploring the Nexus Between Technologies and Human Rights: Opportunities and Challenges in Southeast Asia) จัดพิมพ์โดยสำนักพิมพ์ SHAPE-SEA เมื่อเดือนธันวาคม 2562 นอกจากนี้ Jun-E ยังได้เขียนบทความลงในบล็อกของตนเองอยู่เป็นประจำ

The post เราจะอยู่ร่วมกับ AI ได้หรือไม่: ปัญญาประดิษฐ์ (Artificial Intelligence) กับผลกระทบต่อสิทธิทางเศรษฐกิจ สังคม และวัฒนธรรม appeared first on Coconet.

]]>
https://coconet.social/2020/%e0%b9%80%e0%b8%a3%e0%b8%b2%e0%b8%88%e0%b8%b0%e0%b8%ad%e0%b8%a2%e0%b8%b9%e0%b9%88%e0%b8%a3%e0%b9%88%e0%b8%a7%e0%b8%a1%e0%b8%81%e0%b8%b1%e0%b8%9a-ai-%e0%b9%84%e0%b8%94%e0%b9%89%e0%b8%ab%e0%b8%a3/feed/ 0
เราจะอยู่ร่วมกับ AI ได้หรือไม่: ปัญญาประดิษฐ์ (Artificial Intelligence) กับผลกระทบต่อสิทธิทางเศรษฐกิจ สังคม และวัฒนธรรม https://coconet.social/2020/ai-impacts-economic-social-cultural-rights-th/ https://coconet.social/2020/ai-impacts-economic-social-cultural-rights-th/#respond Tue, 11 Aug 2020 03:33:05 +0000 https://coconet.social/?p=5538 บทความนี้เป็นบทความที่สองในซีรีย์บทความที่เกี่ยวกับผลกระทบสิทธิมนุษยชนที่มาจากปัญญาประดิษฐ์ (Artificial Intelligence หรือ AI) ในบริบทของภูมิภาคเอเชียตะวันออกเฉียงใต้ โดยมีจุดประสงค์เพื่อการสร้างความตระหนักรู้และการมีส่วนร่วมของภาคประชาสังคมในประเด็นนี้

The post เราจะอยู่ร่วมกับ AI ได้หรือไม่: ปัญญาประดิษฐ์ (Artificial Intelligence) กับผลกระทบต่อสิทธิทางเศรษฐกิจ สังคม และวัฒนธรรม appeared first on Coconet.

]]>

Read this article in English / อ่านบทความนี้ใน ภาษาอังกฤษ

แปลไทยโดย ธีรดา ณ จัตุรัส

บทความนี้เป็นบทความที่สองในซีรีย์บทความที่เกี่ยวกับผลกระทบด้านสิทธิมนุษยชนที่มาจากปัญญาประดิษฐ์ (Artificial Intelligence หรือ AI) ในบริบทของภูมิภาคเอเชียตะวันออกเฉียงใต้ โดยมีจุดประสงค์เพื่อการสร้างความตระหนักรู้และการมีส่วนร่วมของภาคประชาสังคมในประเด็นนี้

จากบทความก่อนหน้านี้ เราได้กล่าวถึงคำนิยามของ AI และ Machine Learning พร้อมทั้งยังได้พิจารณาประเด็นของการประยุกต์ใช้เทคโนโลยีเหล่านี้ภายในภูมิภาคเอเชียตะวันออกเฉียงใต้ไปแล้ว ส่วนในบทความนี้และบทความถัดไป เราจะกล่าวถึงต่อในเรื่องผลกระทบที่มีต่อ 1. สิทธิทางเศรษฐกิจ สังคม วัฒนธรรม (Economic, Social, and Cultural Rights – ESCR) และ 2. สิทธิทางพลเมืองและสิทธิทางการเมือง (Civil and Political Rights – CPR) เพื่อทำความเข้าใจความเชื่อมโยงที่เกี่ยวกับเรื่องนี้ โดยในบทความนี้จะเน้นถึงผลกระทบที่มีต่อประเด็นสิทธิทางเศรษฐกิจ สังคม วัฒนธรรม (ESCR)

สิทธิทางเศรษฐกิจ สังคม วัฒนธรรม (ESCR) คืออะไร

จากกติการะหว่างประเทศว่าด้วยสิทธิทางเศรษฐกิจ สังคม และวัฒนธรรม (International Covenant of Economic, Social and Cultural Rights – ICESCR) ซึ่งรวมไปถึงสิทธิในการเข้าถึงการรักษาพยาบาล การศึกษา ประกันสังคม เงื่อนไขการทำงานที่เหมาะสม คุณภาพชีวิตที่ดี และการมีส่วนร่วมทางวัฒนธรรมและกิจกรรมสร้างสรรค์อื่นๆ สิทธิต่างๆเหล่านี้จัดว่าเป็นสิทธิเชิงบวก (positive rights) ซึ่งจำเป็นที่จะต้องมีแนวทางปฏิบัติเพื่อเติมเต็มให้สิทธิเหล่านี้เกิดขึ้น เช่น การจัดหางานที่ดีให้ สิทธิเชิงบวกนี้ตรงกันข้ามกับสิทธิพลเมืองและสิทธิทางการเมือง ซึ่งจำเป็นต้องมีการละเว้นกระทำและไม่ขัดขวางอันเป็นการละเมิดสิทธิในทางนี้ เช่น การไม่ละเมิดเสรีภาพในการแสดงออก

ข้อสังเกตสำคัญก็คือ ความหมายของ ESCR ที่เกี่ยวข้องกับ AI ไม่ได้ตีความแบบสองขั้ว เช่น “ดี” หรือ “เลว” แม้ว่าจะนำหลักการนี้ไปใช้แบบเดียวกัน แต่ผลลัพธ์ที่ได้อาจแตกต่างกันไปในแต่ละกรณี บางคนได้รับผลดีแต่บางคนอาจได้รับผลกระทบเชิงลบ ตัวอย่างที่เห็นได้คือ การใช้ AI ช่วยในการตัดสินใจเลือกลูกค้าที่มีเครดิตที่น่าไว้วางใจโดยพิจารณาจากชุดข้อมูลเท่าที่มีอยู่ ทั้งนี้อาจจะไม่ได้ส่งผลดีต่อผู้ที่ไม่มีกำลังซื้อมากนัก เพราะกลุ่มคนเหล่านี้อาจจะมีกำลังซื้อน้อยกว่ากลุ่มที่มีรายได้สูงและทำให้มีข้อมูลประวัติการใช้จ่ายที่ไม่เพียงพอต่อการวิเคราะห์ถึงประวัติการมีเครดิตที่น่าไว้วางใจ แต่การใช้ชุดข้อมูลอื่นที่มีขอบเขตกว้างขวางกว่าประวัติเรื่องเครดิตก็อาจทำให้เกิดการเลือกปฏิบัติจากการใช้ชุดข้อมูลที่ไม่เกี่ยวข้องหรือบางครั้งอาจเกิดการใช้ข้อมูลโดยพลการ เช่น กรณีที่ใช้ AI มาวิเคราะห์และให้ผลคะแนนต่ำถ้าผู้สมัครคนนั้นพิมพ์อักษรตัวพิมพ์ใหญ่ทั้งหมด (all-caps) ส่งผลให้เกิดความเสี่ยงสูงต่อค่าเริ่มต้น

บทความนี้จะมองผลกระทบของ AI ที่มีต่อ ESCR แบ่งออกมาเป็น 2 แบบ คือ 1. ผลกระทบเมื่อไม่ใช้ AI เพื่อการพัฒนา และ 2. ผลกระทบทางลบจากการใช้ AI

"fikiran" is licensed under CC0 1.0

ประโยชน์ด้านการพัฒนาของ AI

หากใช้ AI แบบมียุทธศาสตร์และเป็นไปอย่างเหมาะสมแล้วย่อมสามารถเพิ่มผลประโยชน์ได้ ทางการพัฒนาอย่างมหาศาล รวมไปถึงการเติบโตทางเศรษฐกิจด้วย แต่ความเป็นจริงแล้ว AI ยังสามารถพัฒนาคุณภาพชีวิตของผู้คนในอีกหลายด้าน เช่นเดียวกับตัวอย่างดังต่อไปนี้ที่ทำให้เห็นว่าเทคโนโลยีได้ช่วยให้เกิดผลสำเร็จด้านการพัฒนาได้อย่างไรในภูมิภาคเอเชียตะวันออกเฉียงใต้

  • ด้านสุขภาพ: ในสิงคโปร์ บริษัท start-up ที่ชื่อว่า Kronikare ร่วมมือกับ AI Singapore พัฒนาระบบที่ช่วยรวบรวมข้อมูล วิเคราะห์ และวินิจฉัยบาดแผลที่มีสภาพเรื้อรัง ระบบนี้ได้มีการใช้อย่างกว้างขวาง รวมทั้งในโรงพยาบาลและบ้านพักผู้สูงอายุบางแห่งในสิงคโปร์
  • ด้านการจราจร: ในกัวลาลัมเปอร์ บริษัท Malaysia City Brain ร่วมมือกับบริษัท Alibaba, Malaysia Digital Economy Corporation และสภาเมืองของกัวลาลัมเปอร์ ได้ตั้งเป้าในการลดการจราจรที่ติดขัดในเขตเมือง โดยบริษัท City Brain ในเมือง Hangzhaou ประเทศจีน ได้ริเริ่มใช้โครงการนี้ไปแล้วและทำให้บริหารสภาพคล่องทางการจราจรเร็วขึ้นกว่าเดิมถึง 15% ในบางพื้นที่
  • ด้านการศึกษา: แพลตฟอร์มเพื่อการศึกษาที่ชื่อว่า Ruangguruในอินโดนีเซีย ช่วยให้นักเรียนและครูสามารถดำเนินการเรียนการสอน พร้อมทั้งมีวิดีโอสื่อการสอนในหลายวิชา และยังได้ใช้ AI เพื่อการออกแบบบทเรียนที่เฉพาะเจาะจงสำหรับนักเรียนได้ โดยสามารถรองรับนักเรียนได้ประมาณ 15 ล้านคน และ 80% ของนักเรียนกลุ่มนี้อาศัยอยู่นอกเขตเมือง
  • ด้านความมั่นคงทางอาหาร: ในเวียดนาม บริษัท start-up หลายแห่งกำลังใช้ AI และระบบเซ็นเซอร์ของ Internet of Things (IoT) เพื่อเพิ่มการผลิตทางการเกษตร การประหยัดการใช้น้ำ และการให้ปุ๋ย บริษัท start-up ที่ชื่อว่า Sero ระบุว่าถึง 70% – 90% ของความแม่นยำในการจำแนกชนิดโรคของพืชได้ถึง 20 ชนิด ซึ่งทำให้สามารถลดปริมาณความเสียหายในการปลูกพืชลงไปได้

แต่เมื่อพิจารณาทั้งหมด 11 ประเทศทั่วภูมิภาคเอเชียตะวันออกเฉียงใต้นั้นต่างมีความไม่เท่าเทียมกันในระดับการประยุกต์ใช้และความสามารถในการใช้ AI ความไม่เท่าเทียมกันนี้เห็นได้จากรายงาน AI Government Readiness Index ซึ่งจัดทำโดยศูนย์วิจัย Oxford Insights and the International Development โดยได้จัดลำดับรัฐบาลต่างๆโดยพิจารณาจากความพร้อมในการใช้ AI ทั้งในด้านบริหารรัฐกิจและการส่งมอบงาน จากการจัดลำดับในรายงานฉบับนี้ระบุว่า ประเทศสิงคโปร์ถือเป็นผู้นำในระดับโลก ส่วนอีก 6 ประเทศในภูมิภาคเอเชียตะวันออกเฉียงใต้ที่ติดอยู่ใน 100 อันดับประเทศที่รัฐบาลมีความพร้อมในการนำ AI มาใช้งาน ได้แก่ มาเลเซีย (อันดับ 22), ฟิลิปปินส์ (อันดับ 50), ประเทศไทย (อันดับ 56), อินโดนีเซีย (อันดับ 57) และเวียดนาม (อันดับ 70)

ประเทศ (อันดับในโลก)

คะแนน

Singapore (1)
~9.186
Malaysia (22)
~7.108
Philippines (50)
~5.704
Thailand (56)
~5.458
Indonesia (57)
~5.420
Vietnam (70)
~5.081
Brunei Darussalam (121)
~3.143
Cambodia (125)
~2.810
Laos (137)
~2.314
Myanmar (159)
~1.385
Timor Leste (173)
~0.694

โดยประเทศที่ได้รับการจัดลำดับให้อยู่ในอันดับต้นๆนั้นต่างมียุทธศาสตร์แห่งชาติหรือกำลังร่างขึ้นมา โดยตั้งเป้าหมายในเรื่องการสนับสนุนการพัฒนา AI ให้เกิดขึ้นภายในประเทศของตน เพื่อจะเป็นข้อได้เปรียบทางเทคโนโลยีและมุ่งสร้างสิ่งแวดล้อมที่เอื้ออำนวยต่อการพัฒนา AI เพื่อขับเคลื่อนความคิดริเริ่มต่างๆทางด้านการพัฒนา AI กรณีประเทศสิงคโปร์มียุทธศาสตร์เรื่องปัญญาประดิษฐ์แห่งชาติ (National Artificial Intelligence Strategy) ซึ่งมุ่งเป้าไปที่การเป็นผู้นำในด้านการพัฒนา AI ภายในปี 2573 นี้ ยุทศศาสตร์นี้ยังได้ทำให้ระบบนิเวศของ AI มีความเข้มแข็งยิ่งขี้น ทั้งยังได้เสนอความช่วยเหลือทางการเงินมากกว่า 500 ล้านดอลล่าร์สิงคโปร์ ส่วนประเทศอื่นในภูมิภาคเอเชียตะวันออกเฉียงใต้นั้นที่มีนโยบายทางด้านการพัฒนา AI เช่น ประเทศมาเลเซีย (ซึ่งมีกรอบแนวทางปัญญาประดิษฐ์แห่งชาติ หรือ National AI Framework ในปี 2563 และนโยบายทางด้านข้อมูลและ AI แห่งชาติ หรือ National Data and AI Policy ที่ได้รับการเสนอในคณะรัฐมนตรี) และประเทศอินโดนีเซีย (ที่ตั้งเป้าไปที่การสร้างกลยุทธ์ปัญญาประดิษฐ์ให้แล้วเสร็จภายในปี 2563 นี้)

ขณะที่กลุ่มประเทศกำลังพัฒนาอื่นๆกลับยังคงต้องเผชิญความท้าทายในเรื่องการเข้าถึงอินเตอร์เน็ต เช่น ติมอร์-เลสเต ที่มีสัดส่วนประชากรที่สามารถเข้าถึงอินเตอร์เน็ตเพียง 30.3% ของจำนวนประชากรทั้งหมด ส่วนประเทศเมียนมามีจำนวน 33.1% และประเทศลาวมีจำนวน 35.4% นั่นทำให้เห็นว่าปัญหาความไม่เท่าเทียมกันระหว่างประเทศที่เข้าถึงเทคโนโลยีกับประเทศไม่สามารถเข้าถึงได้

ขณะที่รัฐบาลอาจจะมีความพร้อมที่ช้าในด้านการพัฒนา AI แต่ฝั่งภาคเอกชนกลับเร่งเดินหน้าเพื่อเสนอบริการด้าน AI เพราะต้องการที่จะกระโดดเข้าร่วมกระแส “smart” ซึ่งรวมไปถึงการใช้ AI ในการพัฒนาสินค้าและบริการ ส่วนการเปิดตัวเครือข่ายเมืองอัจริยะแห่งอาเซียน (ASEAN Smart Cities Network – ASCN)เมื่อปี 2561 ได้มีสมาชิกเข้าร่วมจาก 26 เมืองทั่วทั้งเอเชียตะวันออกเฉียงใต้ โดยมีจุดประสงค์เพื่อจะใช้เทคโนโลยีในการพัฒนาของเมือง ซึ่งหนึ่งในเป้าหมายของเครือข่ายนี้ยังเน้นไปยังการเชื่อมต่อเมืองเหล่านี้เข้ากับผู้ให้บริการภาคเอกชนที่มีความสามารถในการแก้ปัญหาทางเทคโนโลยี

ในภาพรวมจากแผนการและวิสัยทัศน์ต่างๆ ดูเหมือนจะเป็นความหวัง จากการเป็นพื้นที่ศูนย์กลางการพัฒนาของเครือข่าย ASCN ที่ต้องการสร้างความร่วมมือด้านสังคมและวัฒนธรรม สุขภาพและคุณภาพชีวิต ความปลอดภัยสาธารณะ การรักษาสิ่งแวดล้อม การสร้างสาธารณูปโภค รวมทั้งอุตสาหกรรมและนวัตกรรมใหม่

Artificial Intelligence & AI & Machine Learning
Artificial Intelligence & AI & Machine Learning. Image by Mike MacKenzie via www.vpnsrus.com

ความเสี่ยงซึ่งอาจเกิดจาก AI ที่ส่งผลกระทบต่อ ESCR

ประโยชน์ด้านการพัฒนาที่เกิดจาก AI นั้นย่อมขึ้นอยู่กับการนำไปใช้ นี่คือจุดที่มีความเสี่ยงมากมาย แม้ว่าจะยังไม่มีกรณีตัวอย่างที่ชัดเจนเกี่ยวกับเรื่องความปลอดภัยและอันตรายจากการใช้ AI ในภูมิภาคของเรา เพราะนี่ถือเป็นช่วงเริ่มแรกของการพัฒนาทางเทคโนโลยีทว่าพวกเรายังคงต้องจับตาดูปัญหาที่เกิดขึ้นในพื้นที่อื่นๆ เพื่อเรียนรู้และเท่าทัน

เช่นกรณีตัวอย่างที่ปรากฏในบทความที่มีชื่อว่า Automating Poverty ของ The Guardian เล่าถึงผลกระทบที่เกิดในประเทศอินเดีย สหราชอาณาจักร สหรัฐอเมริกา และออสเตรเลีย จากการใช้ระบบ AI ที่มีความสามารถในการตัดสินใจด้วยตัวเอง โดยได้นำมาปรับใช้กับระบบประกันสังคม ผลลัพธ์กลับทำให้เกิดการลดทอนคุณค่าความเป็นมนุษย์และเป็นการลงโทษกลุ่มคนชายขอบมากขึ้นไปอีก โดยเฉพาะกรณีของอินเดียทำให้เห็นผลกระทบที่ตามมาอย่างรุนแรงในการนำ AI ไปใช้ในทางที่ผิดที่เกิดขึ้นในบริบทของประเทศกำลังพัฒนา จากการเปลี่ยนผ่านจากระบบกระดาษไปสู่ระบบดิจิทัลยิ่งทำให้กลุ่มคนยากจนมีความเปราะบางมากขึ้นในเรื่องของการใช้เทคโนโลยี นับตั้งแต่ปัญหาเรื่องไฟดับ ความไม่เสถียรของอินเตอร์เน็ตไปจนถึงการที่ไม่รู้ว่าทำไมตนเองถึงถูกปฏิเสธจากระบบประกันสังคม ทั้งที่ระบบนั้นควรต้องครอบคลุมถึงการคุ้มครองทางสังคมและการขอเงินค่ารักษาพยาบาลคืนแก่คนจน โดยความผิดพลาดต่างๆที่เกิดขึ้นอาจะนำไปสู่ความตายและความหิวโหย

ระบบที่เอนเอียง และการเข้าถึง

การตัดสินใจที่ไม่โปร่งใสเรื่องประกันสังคมด้วย AI จะทำให้เกิดผลลัพธ์ที่อันตรายและสร้างความเดือดร้อนแก่ผู้คน การใช้เทคโนโลยี AI เข้ามาช่วยในการตัดสินใจที่เกิดขึ้นในภูมิภาคตะวันออกเฉียงใต้นี้ยังจำเป็นต้องได้รับการพัฒนา โดยมีอย่างน้อย 2 ด้าน ได้แก่ หนึ่งคือการมีชุดข้อมูลที่ดีพอสำหรับ Machine Learning ซึ่งยังเป็นเรื่องที่ภูมิภาคนี้ยังขาด เพราะประชากรอีกจำนวนมากยังเข้าไม่ถึงอินเตอร์เน็ต หรือคุณภาพของข้อมูลยังดีไม่พอ อย่างที่สองคือการที่หลายประเทศในภูมิภาคนี้ยังจำเป็นต้องนำเข้าเทคโนโลยี AI นั่นหมายความว่า วิศวกรที่ออกแบบไม่ได้เข้าใจบริบทภายในประเทศของภูมิภาคนี้ อย่างที่ได้กล่าวไปแล้วในบทความชิ้นแรกปัญหาเหล่านี้นำไปสู่ปัญหาที่อาจกระทบต่อประเด็นสิทธิมนุษยชน

วิศวกรผู้พัฒนาโดยมากแล้วจะเป็นคนนอกพื้นที่ ซึ่งอาจจะไม่เข้าใจบริบทท้องถิ่นนั้นๆ

เมื่อผู้คนต่างพึ่งพาเทคโนโลยีเพื่อเข้าถึงชีวิตทางเศรษฐกิจ สังคม และการเมืองแล้ว พวกเขาจึงจำเป็นต้องพึ่งพาความพร้อมใช้งานและความมีเสถียรภาพของเทคโนโลยีด้วย ตามที่กล่าวในข้างต้น เรื่องความเหลื่อมล้ำทางสังคมที่เพิ่มมากขึ้นระหว่างกลุ่มคนที่มีและคนไม่มี ซึ่งกลุ่มคนที่มีข้อจำกัดในการพัฒนาเทคโนโลยีอาจจำเป็นต้องพึ่งพาการใช้เทคโนโลยีที่ไม่ได้ถูกออกแบบให้เข้าถึงและใช้งานได้อย่างสะดวกหรือเหมาะกับการใช้งานในบริบทของตนเอง การเข้าถึงระบบ AI นั้นอาจจะมองได้หลายแง่มุม ซึ่งในภูมิภาคที่มีความหลากหลายทางวัฒนธรรมและภาษาเช่นนี้ จึงจำเป็นอย่างยิ่งที่ต้องให้ความสำคัญในเรื่องนี้ แต่ก็ต้องใช้เงินลงทุนสูงและบางครั้งอาจจะนำไปใช้งานจริงไม่ได้อีกด้วย ยิ่งไปกว่านั้นอาจจะเกิดจากอุปสรรคจากเรื่องของความบกพร่องในเชิงทางกายภาพหรือจิตใจ รวมไปถึงผู้ที่มีระดับการศึกษาน้อย ผู้ที่ไม่ได้มีความเท่าทันเรื่องดิจิทัลหรือแม้กระทั่งการเข้าไม่ถึงสาธารณูปโภคขั้นพื้นฐานต่างๆ

ปัญหาขั้นพื้นฐานเหล่านี้จำเป็นที่จะต้องพิจารณาอย่างจริงจังก่อนจะตัดสินใจแก้ปัญหาด้วยการใช้ AI เพื่อหาทางออก

ทุกปัญหาไม่สามารถแก้ไขด้วยเทคโนโลยีเพียงอย่างเดียว

เทคโนโลยีไม่ใช่ยาวิเศษที่ตอบปัญหาได้ทุกปัญหา

ไม่ใช่ทุกปัญหาจะได้รับการแก้ไขด้วยการประยุกต์ใช้เทคโนโลยีเพียงอย่างเดียว ตามที่ได้กล่าวถึงในบทความของ The Guardian ที่ได้ยกกรณีศึกษาจากประเทศอินเดีย เพื่อชี้ให้เห็นถึงต้นตอของปัญหาที่มาจากความไม่มีประสิทธิภาพของระบบที่มีมาก่อนหน้า ซึ่งเป็นเรื่องการทุจริตและการบริหารจัดการที่ไม่มีประสิทธิภาพของผู้บริหารระดับสูง และปัญหาเรื่องบัตรประชาชนปลอมที่เป็นปัญหาของ Aadhaar เมื่อกลายเป็นปัญหาที่ซับซ้อนในเชิงโครงสร้างและการแก้ปัญหาด้วยการใช้เทคโนโลยีอาจทำให้เบี่ยงประเด็นความสนใจในการแก้ไขปัญหาที่แท้จริงและยังเป็นการสร้างปัญหาใหม่เพิ่มขึ้นมาอีก

เมื่อมองในภูมิภาคเอเชียตะวันออกเฉียงใต้นี้ที่มีความกระตือรือร้นอย่างมากที่จะพยายามปรับการใช้ AI กับหลายสิ่ง จนนำไปสู่ออกแถลงการณ์ของผู้นำระดับสูงที่ต้องการสร้างแนวทางในการใช้ AI ในหลายภาคส่วน เช่น ประธานาธิบดีโจโกวีของอินโดนีเซียที่ออกมาประกาศว่า จะใช้การบริหารงานราชการด้วยการใช้ AI แทนเจ้าหน้าที่รัฐ ขณะที่รัฐมนตรีศึกษาธิการของมาเลเซียออกมากล่าวว่า จะใช้ Machines มาช่วยให้คำแนะนำทางด้านการวางแผนวิชาชีพให้แก่นักเรียนในอนาคต ซึ่งประเด็นนี้ยังเป็นที่ถกเถียงกันอยู่ว่า นี่เป็นวิธีที่เหมาะสมหรือไม่ในการแก้ปัญหาที่ประเทศของตนกำลังเผชิญหน้าอยู่ แต่ไม่ว่าจะใช้วิธีใหนย่อมจำเป็นอย่างยิ่งที่จะต้องปรึกษาหารือกับหลายภาคส่วนที่เกี่ยวข้องและการประเมินผลกระทบต่อประเด็นเรื่องสิทธิมนุษยชนด้วย

ความกังวลเรื่องความเหลื่อมล้ำที่มากขึ้นจากการใช้ AI

ท้ายที่สุด เมื่อมีการพูดถึง AI ในบริบทของภูมิภาคนี้ AI ก็มักจะถูกมองจากมุมของการเพิ่มความเติบโตทางเศรษฐกิจ หรือไม่ก็ AI จะเข้ามาทดแทนแรงงานคน การมองแบบนี้เปรียบเสมือนมองเหรียญสองด้าน นั่นคือบริษัทเอกชนจะเข้ามาแสวงหากำไรจากการทดแทนแรงงานมนุษย์ด้วย Machines แม้ว่ายังมีแรงงานที่ยังไม่ได้ทดแทนด้วย Machines แต่พวกเราต่างเริ่มเห็นแนวโน้มของระบบเศรษฐกิจที่เรียกว่า gig economy เช่นการเกิดขึ้น Grab และ Go-Jek หรือแพลตฟอร์มออนไลน์อื่นๆสำหรับผู้มีอาชีพอิสระ โดยมากแล้วแพลตฟอร์มเหล่านี้รัฐบาลต่างๆยังไม่มีการออกกฎเพื่อมาควบคุมในภูมิภาคเอเชียตะวันออกเฉียงใต้นี้ ทำให้มีความกังวลในเรื่องการเอารัดเอาเปรียบผู้ใช้แรงงาน โดยผ่านการที่บริษัทเทคโนโลยีเหล่านี้นำอัลกอริทึมมาปรับใช้

รัฐบาลในอาเซียนส่วนใหญ่มองว่า AI เป็นเหมือนตัวขับเคลื่อนเพื่อการพัฒนาทางเศรษฐกิจมากกว่าเป็นการพัฒนาทางสังคม

จากการตั้งข้อสังเกตของเวทีการพูดคุยต่างๆเกี่ยวกับ AI ซึ่งทำให้เห็นว่า หลายรัฐบาลในภูมิภาคาอาเซียนได้ใช้ AI ในฐานะตัวขับเคลื่อนทางเศรษฐกิจมากกว่าการพัฒนาทางสังคม จึงเป็นเรื่องที่น่ากังวลว่า การนำ AI มาใช้เพื่อเพิ่มประสิทธิภาพต่อการแสวงหากำไรของเจ้าของบริษัทเทคโนโลยีหลายแห่งซึ่งส่งผลกระทบด้านลบต่อผู้อื่นและโลกของเรา สถานการณ์ที่กล่าวถึงนี้ก็เป็นสิ่งที่เกิดขึ้นแล้วในทุกวันนี้ เพียงแต่ AI จะเข้ามาเพิ่มอัตราเร่งที่รวดเร็วกว่าหลายเท่าตัว

บทสรุป

ในเรื่องผลกระทบจาก AI ต่อสิทธิต่างๆในทางเศรษฐกิจ สังคม และวัฒนธรรมนั้น ผู้เขียนได้ให้คำตอบสั้นๆต่อคำถามที่ว่า AI เป็นสิ่งที่ดีหรือเป็นอันตรายในบริบทเอเชียตะวันออกเฉียงใต้ ซึ่งคำตอบก็คือ “ก็ขึ้นอยู่กับว่าจะนำ AI ไปใช้ทำอะไร” ส่วนภาคประชาสังคมในภูมิภาคนี้ยังคงต้องทำความเข้าใจมากขึ้นและสร้างพื้นที่การถกเถียงร่วมกันในประเด็นนี้ให้มากขึ้น ทั้งในมุมข้อดี ข้อเสีย ความท้าทาย ที่มีต่อเงื่อนไขของแต่ละประเทศในภูมิภาคนี้

ส่วนคำถามที่ว่า AI จะช่วยทำให้ชีวิตความเป็นอยู่ของผู้คนดีขึ้นหรือแย่ลง หรือความเกี่ยวข้องกับประเด็นเรื่องความเป็นส่วนตัว ประเด็นเหล่านี้จะกล่าวถึงในบทความต่อไปที่ชวนคิดถึงเรื่องผลกระทบของ AI ต่อสิทธิพลเมืองและทางการเมือง

เกี่ยวกับผู้เขียน

Dr. Jun-E Tan เป็นนักวิจัยอิสระ อาศัยอยู่ในเมืองกัวลาลัมเปอร์ ประเทศมาเลเซีย งานวิจัยและการสนับสนุนของ Jun-E นั้นเกี่ยวกับประเด็นการสื่อสารทางดิจิทัล สิทธิมนุษยชน และการพัฒนาที่ยั่งยืน บทความในปีวิจัยล่าสุดของ Jun-E มีชื่อว่า “สิทธิมนุษยชนทางดิจิทัลในภูมิภาคเอเชียอาคเนย์: กรอบแนวคิดและการสร้างขบวนการเคลื่อนไหว” (Digital Rights in Southeast Asia: Conceptual Framework and Movement Building) ได้เผยแพร่ในหนังสือ open access (สามารถ download เพื่ออ่านได้ฟรี) ที่มีชื่อว่า “การสำรวจความเกี่ยวเนื่องระหว่างเทคโนโลยีต่างๆและสิทธิมนุษยชน: โอกาสและความท้าทายที่หลากหลายในเอเชียอาคเนย์” (Exploring the Nexus Between Technologies and Human Rights: Opportunities and Challenges in Southeast Asia) จัดพิมพ์โดยสำนักพิมพ์ SHAPE-SEA เมื่อเดือนธันวาคม 2562 นอกจากนี้ Jun-E ยังได้เขียนบทความลงในบล็อกของตนเองอยู่เป็นประจำ

The post เราจะอยู่ร่วมกับ AI ได้หรือไม่: ปัญญาประดิษฐ์ (Artificial Intelligence) กับผลกระทบต่อสิทธิทางเศรษฐกิจ สังคม และวัฒนธรรม appeared first on Coconet.

]]>
https://coconet.social/2020/ai-impacts-economic-social-cultural-rights-th/feed/ 0
ปัญญาประดิษฐ์ (Artificial Intelligence: AI) กับข้อกังวลด้านสิทธิมนุษยชนในสังคมเอเชียตะวันออกเฉียงใต้: ภาพรวม https://coconet.social/2020/%e0%b8%9b%e0%b8%b1%e0%b8%8d%e0%b8%8d%e0%b8%b2%e0%b8%9b%e0%b8%a3%e0%b8%b0%e0%b8%94%e0%b8%b4%e0%b8%a9%e0%b8%90%e0%b9%8c-artificial-intelligence-ai-%e0%b8%81%e0%b8%b1%e0%b8%9a%e0%b8%82%e0%b9%89/ https://coconet.social/2020/%e0%b8%9b%e0%b8%b1%e0%b8%8d%e0%b8%8d%e0%b8%b2%e0%b8%9b%e0%b8%a3%e0%b8%b0%e0%b8%94%e0%b8%b4%e0%b8%a9%e0%b8%90%e0%b9%8c-artificial-intelligence-ai-%e0%b8%81%e0%b8%b1%e0%b8%9a%e0%b8%82%e0%b9%89/#respond Mon, 10 Aug 2020 08:56:26 +0000 https://coconet.social/2020/%e0%b8%9b%e0%b8%b1%e0%b8%8d%e0%b8%8d%e0%b8%b2%e0%b8%9b%e0%b8%a3%e0%b8%b0%e0%b8%94%e0%b8%b4%e0%b8%a9%e0%b8%90%e0%b9%8c-artificial-intelligence-ai-%e0%b8%81%e0%b8%b1%e0%b8%9a%e0%b8%82%e0%b9%89/ แม้เราจะเห็นคำว่าปัญญาประดิษฐ์ (Artificial Intelligence หรือ AI) ถูกนำมาใช้อย่างแพร่หลายไปทุกหนทุกแห่งในชีวิตประจำวัน รวมถึงการสื่อสารของเราในแต่ละวัน แต่ความเข้าใจเกี่ยวกับ AI ยังถือว่ามีอยู่น้อยมากในกลุ่มภาคประชาสังคมในภูมิภาคเอเชียตะวันออกเฉียงใต้ เช่นคำถามที่ว่า 1) AI คืออะไร 2) แล้วมีการนำ AI ไปประยุกต์ใช้อะไรบ้างในปัจจุบันโดยเฉพาะในภูมิภาคนี้ 3) รวมไปถึงอะไรคือความเชื่อมโยงระหว่างการเกิดขึ้นของเทคโนโลยีใหม่อย่าง AI กับปัญหาการละเมิดสิทธิมนุษยชน 4) และยุทธศาสตร์การทำงานที่จะช่วยบรรเทาปัญหาการละเมิดสิทธิมนุษยชนจะเป็นอย่างไร

The post ปัญญาประดิษฐ์ (Artificial Intelligence: AI) กับข้อกังวลด้านสิทธิมนุษยชนในสังคมเอเชียตะวันออกเฉียงใต้: ภาพรวม appeared first on Coconet.

]]>
"Inteligencia Artificial: ECI 33 (UBA)" by Juan Pablo Dellacha is licensed under CC BY-NC-ND 4.0
"Inteligencia Artificial: ECI 33 (UBA)" by Juan Pablo Dellacha is licensed under CC BY-NC-ND 4.0

Read this article in English

แปลไทยโดย ธีรดา ณ จัตุรัส

แม้เราจะเห็นคำว่าปัญญาประดิษฐ์ (Artificial Intelligence หรือ AI) ถูกนำมาใช้อย่างแพร่หลายไปทุกหนทุกแห่งในชีวิตประจำวัน รวมถึงการสื่อสารของเราในแต่ละวัน แต่ความเข้าใจเกี่ยวกับ AI ยังถือว่ามีอยู่น้อยมากในกลุ่มภาคประชาสังคมในภูมิภาคเอเชียตะวันออกเฉียงใต้ เช่นคำถามที่ว่า 1) AI คืออะไร 2) แล้วมีการนำ AI ไปประยุกต์ใช้อะไรบ้างในปัจจุบันโดยเฉพาะในภูมิภาคนี้ 3) รวมไปถึงอะไรคือความเชื่อมโยงระหว่างการเกิดขึ้นของเทคโนโลยีใหม่อย่าง AI กับปัญหาการละเมิดสิทธิมนุษยชน 4) และยุทธศาสตร์การทำงานที่จะช่วยบรรเทาปัญหาการละเมิดสิทธิมนุษยชนจะเป็นอย่างไร

บทความนี้เป็นหนึ่งในชุดบทความที่เกี่ยวกับผลกระทบด้านสิทธิมนุษยชนที่เกี่ยวข้องกับปัญญาประดิษฐ์ (AI) ในภูมิภาคเอเชียตะวันออกเฉียงใต้ โดยมีจุดประสงค์เพื่อการสร้างความตระหนักรู้และกระตุ้นการมีส่วนร่วมของภาคประชาสังคมที่ทำงานร่วมกับชุมชนชายขอบ ทั้งในการรณรงค์เรื่องสิทธิต่างๆ และการแก้ไขปัญหาที่เกี่ยวกับการพัฒนาทั้งในมิติผลกระทบด้านสาธารณสุข ความยากจน และสิ่งแวดล้อม

AI คืออะไร

คำว่า Artificial Intelligence (AI) เป็นศัพท์ที่มีความหมายกว้างและตีความได้หลายแบบ อันที่จริงบทความทางวิชาการที่เขียนเกี่ยวกับ AI ส่วนใหญ่เริ่มต้นด้วยการอธิบายว่า ในปัจจุบันยังไม่มีคำนิยามที่ยอมรับกันอย่างเป็นสากลว่า AI หมายถึงอะไร

ถ้าจะพูดถึง AI อย่างกว้างๆ อาจหมายถึง “ศาสตร์ของการศึกษาเกี่ยวกับอุปกรณ์ดิจิทัลต่างๆ ที่พัฒนาขึ้นมาเพื่อให้มีความสามารถในการเรียนรู้และทำความเข้าใจสภาพแวดล้อมที่อยู่โดยรอบ และกำหนดแนวทางการการดำเนินการในช่วงระยะเวลาหนึ่งเพื่อเพิ่มโอกาสในการบรรลุเป้าหมายที่กำหนดไว้” (World Wide Web Foundation, 2017).

ในทางปฏิบัติแล้ว การเรียนรู้ของเครื่องจักร (Machine Learning หรือ ML) เป็นหนึ่งในศาสตร์ของการศึกษา AI ซึ่งมีการนำมาประยุกต์ใช้อย่างแพร่หลาย

AI คือศาสตร์ของการศึกษาเกี่ยวกับอุปกรณ์ดิจิทัลต่างๆ ที่พัฒนาขึ้นมาเพื่อให้มีความสามารถในการเรียนรู้และทำความเข้าใจสภาพแวดล้อมที่อยู่โดยรอบ และสามารถกำหนดแนวทางในการแก้ไขปัญหาที่ต้องการ

Internet Society 2017 ได้อธิบายเกี่ยวกับ Machine Learning ไว้ว่า แทนที่จะใช้วิธีการให้เครื่องคอมพิวเตอร์แก้ไขปัญหาแบบทีละขั้นตอน นักพัฒนาโปรแกรมที่เป็นมนุษย์ได้เลือกใช้วิธีป้อนรูปแบบชุดคำสั่งและเงื่อนไขต่างๆ ให้แก่คอมพิวเตอร์ให้ได้เรียนรู้ จากข้อมูลที่ป้อนให้นั้น คอมพิวเตอร์จะเริ่มฝึกสร้างกฎใหม่ๆเอง เพื่อเสนอข้อมูลและบริการต่างๆ

ส่วนสิ่งที่เรียกว่า อัลกอริทึม (algorithm) คือ “วิธีการคิดแบบเป็นลำดับขั้นตอนของคำสั่งเพื่อให้คอมพิวเตอร์ได้เรียนรู้ และใช้ในการแก้ไขปัญหาต่างๆ” จึงทำให้เครื่องจักรหรือคอมพิวเตอร์ สามารถแก้ปัญหาที่สลับซับซ้อนในแบบที่วิธีการแบบปกติอาจไม่สามารถแก้ไขปัญหานั้นได้ง่ายๆ

ผลกระทบด้านสิทธิมนุษยชนของ AI

นักวิชาการจากศูนย์ Berkman Klein Center for Internet & Society ของมหาวิทยาลัย Harvard ได้ชี้ว่า Machine Learning มีทั้งข้อดีและข้อเสียที่มีผลกระทบด้านสิทธิมนุษยชน ซึ่งมีอย่างน้อยมี 3 ปัจจัยหลักด้วยกัน ได้แก่

  1. คุณภาพของข้อมูล: นี่เป็นปัญหาที่รู้จักกันดีในคำกล่าวที่ว่า “garbage in, garbage out” (ถ้าใส่ขยะเข้าไป ผลลัพธ์ก็ได้จะขยะออกมา) เพราะถึงแม้จะมีอัลกอริทึม (algorithm) ที่ถูกเขียนมาอย่างดีที่สุดก็อาจจะให้ผลลัพธ์ที่ผิดเพี้ยนถ้าหากข้อมูลตั้งต้นที่ป้อนเข้าเพื่อฝึก Machine Learning มีความลำเอียงหรืออคติอยู่ก่อนแล้ว
  2. การออกแบบระบบ: เมื่อมนุษย์คือผู้ออกแบบระบบ AI ให้เรียนรู้สิ่งต่างๆ ซึ่งก็อาจจะป้อนค่านิยมของตนเองลงไปในการออกแบบระบบด้วย เช่น การให้ความสำคัญตัวแปรบางตัวมากกว่าตัวแปรตัวอื่นๆ
  3. การปฏิสัมพันธ์ที่ซับซ้อน: ระบบ AI อาจจะโต้ตอบต่อสภาพแวดล้อมของตนเองรับรู้ในแบบที่นำไปสู่ผลลัพธ์ที่คาดการณ์ได้ยาก

งานวิจัยเดียวกันนี้ยังเสนออีก 6 ตัวอย่างกรณีศึกษาของการนำ AI มาใช้ในการตัดสินใจในประเด็นทางสังคมต่างๆ นับตั้งแต่กระบวนการยุติธรรมไปจนถึงการวินิจฉัยโรค ผลกระทบเหล่านี้ถือว่าอยู่ภายใต้กรอบของสิทธิมนุษยชน พร้อมยังได้นำเสนอตัวอย่างที่เป็นรูปธรรมเกี่ยวกับสิทธิบางประการที่ได้รับผลกระทบจากการใช้ AI

ยังคงต้องกล่าวว่า ความมีประสิทธิภาพของ AI นั้นขึ้นอยู่กับที่ความแตกต่างของฟังก์ชันต่างๆ ในบางกรณีนั้นก็ดูจะพูดเกินความเป็นจริงของผลลัพธ์เชิงบวกจากการใช้ AI

นี่เป็นสิ่งที่ต้องตระหนักว่า ความไม่ถูกต้องในคาดการณ์ผลโดยใช้ AI อาจส่งผลร้ายอย่างยิ่งต่อชีวิตและศักดิ์ศรีความเป็นมนุษย์

ในการนำเสนองานวิจัยที่ชื่อว่า “How to Recognise AI Snake Oil“ของศาสตราจารย์ Arvind Narayanan จากมหาวิทยาลัย Princeton ได้ระบุว่าขณะที่ AI ได้ถูกนำมาประยุกต์ใช้อย่างสำเร็จในสาขาวิชาด้านการรับรู้ (เช่น การระบุเนื้อหาข้อความ ระบบจดจำใบหน้า การวินิจฉัยโรคผ่านภาพสแกน) และใช้ในด้านการคาดการณ์ทางสังคมต่างๆ (เช่น ความเป็นไปได้ในการก่ออาชญากรรม หรือ ประสิทธิภาพในการทำงาน) นั่นยังถือว่า “มีความน่าสงสัย”

นี่เป็นสิ่งที่ต้องตระหนักว่า ความไม่ถูกต้องในคาดการณ์ผลโดยใช้ AI อาจส่งผลร้ายอย่างยิ่งต่อชีวิตและศักดิ์ศรีความเป็นมนุษย์

เครดิตภาพ: "kecerdasan" (intelligence) ภายใต้ลิขสิทธิ์ CC0 1.0
เครดิตภาพ: "kecerdasan" (intelligence) ภายใต้ลิขสิทธิ์ CC0 1.0

AI ในบริบทของเอเชียอุษาคเนย์

ดูเหมือนว่า แทบจะไม่มีงานวิจัยและการศึกษามากนักที่เกี่ยวกับประเด็นสิทธิมนุษยชนและผลกระทบจากการใช้ AI ในบริบทของภาคเอเชียตะวันออกเฉียงใต้ ขณะที่การถกเถียงเกี่ยวประเด็นเรื่องจริยธรรมและหลักการในการใช้ AI ส่วนใหญ่เกิดขึ้นในกลุ่มประเทศที่พัฒนาแล้วและประเทศจีน เพราะถือเป็นต้นกำเนิดแห่งเทคโนโลยีใหม่ๆ

จากการศึกษาเรื่อง Principled Artificial Intelligence ของมหาวิทยาลัย Harvard ได้แสดงข้อมูลภาพที่รวบรวมหลักจริยธรรมของการใช้ AI ทั้งหมด 32 หลักหรือข้อแนะนำสำหรับจริยธรรมในการใช้ AI ซึ่งสะท้อนมุมมองความคิดเห็นจากทั้งฝั่งรัฐบาล บริษัทเอกชน กลุ่มรณรงค์ทางสังคม และผู้ที่เกี่ยวข้องต่างๆ ทว่าในจำนวนเสียงสะท้อนเหล่านั้นไม่มีตัวแทนจากภูมิภาคเอเชียตะวันออกเฉียงใต้เลย สะท้อนให้เห็นหนึ่งในความท้าทายของการศึกษาเรื่องการใช้ AI ในภูมิภาคนี้ซึ่งอาจจะเผชิญปัญหาที่แตกต่างจากบริบทในภูมิภาคอื่นของโลก ต่อไปนี้เป็นข้อพิจารณาบางประการที่เกี่ยวข้องกับเรื่องนี้

เผด็จการอำนาจนิยมแบบดิจิทัล ผ่านเทคโนโลยี AI:

รายงานล่าสุดจากกลุ่ม Civicus Monitor แสดงให้เห็นว่า ไม่มีประเทศใดในทั้งหมด 11 ประเทศในภูมิภาคนี้ได้รับการจัดลำดับให้อยู่ในสถานะที่สิทธิพลเมืองสูงกว่าสถานะ “ลิดรอนสิทธิเสรีภาพ” (obstructed) ขณะที่รายงาน The Freedom on the Net report ประจำปี 2561 ได้ประเมิน 8 ประเทศในภูมิภาคนี้ว่า ไม่มีประเทศใดอยู่ในสถานะ “มีเสรีภาพ” ทางอินเตอร์เน็ต รายงานเหล่านี้ชี้ให้เห็นว่า ภาคประชาสังคมในภูมิภาคนี้ส่วนใหญ่ที่มีความระมัดระวังเกี่ยวกับการประยุกต์ใช้ AI ในลักษณะที่มาจำกัดสิทธิพลเมืองและทางการเมือง เช่น การสอดส่องติดตามทางดิจิทัล ดังนั้น ผลกระทบทางสิทธิมนุษยชนจากการประยุกต์ใช้ AI จึงมีมากไปกว่าปัญหาทางเทคโนโลยี (ตามที่กล่าวมาข้างต้น) และครอบคลุมไปจนถึงกระบวนการที่ทำให้ AI กลายมาเป็นอาวุธที่มาทำลายเสรีภาพของประชาชน

ผลกระทบทางสิทธิมนุษยชนเกี่ยวกับ AI จึงมีมากไปกว่าปัญหาทางเทคโนโลยี

...การไม่รวมทุกคนเข้าไปในชุดข้อมูล ถือว่าเป็นข้อกังวลมากกว่าความเป็นไปได้ในการใช้ข้อมูลในทางที่ไม่เป็นธรรม

การขาดสัดส่วนชุดข้อมูลจากตัวแทนฝั่งเอเชีย:

ในที่ประชุมของ the Internet Governance Forum 2017 ในหัวข้อ “AI in Asia: What’s Similar, What’s Different?” ชี้ให้เห็นถึงการที่ไม่ได้รวมชุดข้อมูลของประเทศเอเชียบางประเทศ (กรณีตัวอย่าง เช่น อินเดียและมาเลเซีย) จึงมีความกังวลว่าการไม่ได้รวมข้อมูลจากกลุ่มประเทศเหล่านี้ ถือว่าเป็นข้อกังวลถึงความเป็นไปได้ในการใช้ข้อมูลในทางที่ไม่เป็นธรรม รวมไปถึงประเด็นเรื่องการไม่นับรวมชุดข้อมูลของประเทศเอเชียบางประเทศที่ขัดแย้งกับแนวทางในเรื่องการคุ้มครองข้อมูล และความเป็นส่วนตัวที่เป็นแนวทางจากโลกตะวันตก ซึ่งเรื่องการขาดข้อมูลที่มีคุณภาพจากทวีปเอเชียนี้ถือว่าเป็น “ความท้าทายที่สำคัญ” ต่อการริเริ่มการพัฒนาในด้าน Machine Learning ซึ่งมักถูกบังคับให้ป้อนข้อมูลที่มาจากประเทศฝั่งสหรัฐอเมริกา และสหราชอาณาจักร เพื่อการฝึก machines ต่างๆ ซึ่งนำไปสู่ปัญหาเรื่องความลำเอียงของข้อมูล และทำให้อาจจะนำมาใช้กับบริบทท้องถิ่นไม่ได้

ผลกระทบทางสังคมและเศรษฐกิจที่มาจาก AI:

จากรายงานชิ้นหนึ่งของ McKinsey เมื่อปี 2560 ซึ่งตั้งข้อสังเกตว่า AI มีศักยภาพที่จะทำงานได้ครึ่งหนึ่งของจำนวนงานทั้งหมดด้วยตัวเอง (มีมูลค่าเทียบเท่ากับค่าจ้างงานจำนวน 900 พันล้านดอลลาร์สหรัฐ) ใน 4 ประเทศยักษ์ใหญ่ทางเศรษฐกิจของกลุ่มประเทศอาเซียน ได้แก่ อินโดนีเซีย (52%) มาเลเซีย (51%) ฟิลิปปินส์ (48%) และประเทศไทย (55%) ในปี 2560 World Wide Web Foundation ยังได้กล่าวถึงเงินลงทุนที่จะเป็นตัวกำหนดถึงสถานที่ในการผลิต AI ไม่ใช่แค่ต้นทุนค่าแรงงาน แต่การเปลี่ยนแปลงนี้จะส่งผลกระทบทางสังคมและเศรษฐกิจ โดยเฉพาะสัดส่วนการจ้างงานของผู้หญิงที่ทำงานอยู่ในด้านออฟฟิศและงานเสมียน

AI มีศักยภาพที่จะทำงานครึ่งหนึ่งของจำนวนงานทั้งหมดด้วยตัวเอง

การขาดความสามารถด้านเทคนิคทางคอมพิวเตอร์เป็นอีกหนึ่งปัจจัยสำคัญที่ขัดขวางการมีส่วนร่วมในการกำกับดูแล

การมีส่วนร่วมในกระบวนการกำกับดูแล AI:

สหรัฐอเมริกาและจีนถือเป็นผู้เล่นสำคัญของโลกในเรื่อง AI แม้ว่าอาจจะพอมีกิจกรรมที่เกี่ยวกับ AI ในบางประเทศสมาชิกของกลุ่มอาเซียน(McKinsey Global Institute 2560) แต่การอยู่ห่างจากศูนย์กลางทางเทคโนโลยีทั้งทางภูมิศาสตร์และอำนาจทางการเมืองของประชาชนในภูมิภาคอุษาอาคเนย์ จึงทำให้เรามีสิทธิในการออกเสียงมีน้อยมากในการแสดงความคิดเห็นเกี่ยวกับการออกแบบและการกำกับดูแล AI รวมไปถึงเรื่องอำนาจในการควบคุมข้อมูลส่วนตัว และร่องรอยทางดิจิทัลเมื่อยามที่เราใช้แอปพลิเคชันต่างๆที่ถูกพัฒนามาจากฝั่งสหรัฐอเมริกาและจีน การขาดแคลนความสามารถทางด้านเทคนิคทางคอมพิวเตอร์เป็นอีกหนึ่งปัจจัยสำคัญที่ขัดขวางการมีส่วนร่วมในการกำกับดูแลนี้ ตามที่ระบุในงานวิจัยของผู้เขียนเกี่ยวกับความเคลื่อนไหวทางด้านสิทธิมนุษยชนทางด้านดิจิทัลในภาคเอเชียตะวันออกเฉียงใต้ เมื่อปี 2562

ประเด็นข้างต้นมิได้จบเพียงเท่านี้ แต่เป็นเพียงการเริ่มในการเก็บรวบรวมข้อกังวลที่เกี่ยวกับ AI และ Machine Learning ในภูมิภาคนี้ จะเห็นได้ว่า AI จะเปลี่ยนสิ่งต่างๆในภูมิภาคนี้อย่างอย่างรวดเร็วในอนาคตอันใกล้ และภาคประชาสังคมจำเป็นต้องก้าวให้ทันกับความก้าวหน้าทางเทคโนโลยีให้ท่วงที เพื่อที่จะเข้าใจในโอกาสและความเสี่ยงที่มาพร้อมกับเทคโนโลยีใหม่ๆ ที่ส่งผลต่อกับงานที่เราทำอยู่ – ไม่ทางใดก็ทางหนึ่ง

"идея" (idea) is licensed under CC0 1.0
"идея" (idea) is licensed under CC0 1.0

บทความนี้เป็นหนึ่งในชุดบทความที่เกี่ยวกับสถานการณ์ของ AI ที่มีผลกระทบต่อสิทธิมนุษยชนในภูมิภาคเอเชียตะวันออกเฉียงใต้ โดยบทความต่อไปผู้เขียนจะเจาะลึกถึงประเด็นเชิงนโยบาย การประยุกต์ใช้งาน และผลกระทบที่เกี่ยวกับ AI ที่เกิดขึ้นในภูมิภาคนี้ โดยเป็นส่วนหนึ่งของโครงการวิจัยนี้ที่เรากำลังรวบรวมรายชื่อหนังสือและบทความ และผู้เขียนจะพยายามปรับปรุงหรือเพิ่มรายชื่ออย่างสม่ำเสมอ เพื่อการเผยแพร่ทางสาธารณะต่อไป ซึ่งผู้ที่สนใจสามารถค้นหาเพื่ออ่านเพิ่มเติมได้

เกี่ยวกับผู้เขียน

Dr. Jun-E Tan เป็นนักวิจัยอิสระ อาศัยอยู่ในเมืองกัวลาลัมเปอร์ ประเทศมาเลเซีย งานวิจัยและการสนับสนุนของ Jun-E นั้นเกี่ยวกับประเด็นการสื่อสารทางดิจิทัล สิทธิมนุษยชน และการพัฒนาที่ยั่งยืน บทความในปีวิจัยล่าสุดของ Jun-E มีชื่อว่า “สิทธิมนุษยชนทางดิจิทัลในภูมิภาคเอเชียอาคเนย์: กรอบแนวคิดและการสร้างขบวนการเคลื่อนไหว” (Digital Rights in Southeast Asia: Conceptual Framework and Movement Building) ได้เผยแพร่ในหนังสือ open access (สามารถ download เพื่ออ่านได้ฟรี) ที่มีชื่อว่า “การสำรวจความเกี่ยวเนื่องระหว่างเทคโนโลยีต่างๆและสิทธิมนุษยชน: โอกาสและความท้าทายที่หลากหลายในเอเชียอาคเนย์” (Exploring the Nexus Between Technologies and Human Rights: Opportunities and Challenges in Southeast Asia) จัดพิมพ์โดยสำนักพิมพ์ SHAPE-SEA เมื่อเดือนธันวาคม 2562 นอกจากนี้ Jun-E ยังได้เขียนบทความลงในบล็อกของตนเองอยู่เป็นประจำ

The post ปัญญาประดิษฐ์ (Artificial Intelligence: AI) กับข้อกังวลด้านสิทธิมนุษยชนในสังคมเอเชียตะวันออกเฉียงใต้: ภาพรวม appeared first on Coconet.

]]>
https://coconet.social/2020/%e0%b8%9b%e0%b8%b1%e0%b8%8d%e0%b8%8d%e0%b8%b2%e0%b8%9b%e0%b8%a3%e0%b8%b0%e0%b8%94%e0%b8%b4%e0%b8%a9%e0%b8%90%e0%b9%8c-artificial-intelligence-ai-%e0%b8%81%e0%b8%b1%e0%b8%9a%e0%b8%82%e0%b9%89/feed/ 0
ปัญญาประดิษฐ์ (Artificial Intelligence: AI) กับข้อกังวลด้านสิทธิมนุษยชนในสังคมเอเชียตะวันออกเฉียงใต้: ภาพรวม https://coconet.social/2020/human-rights-artificial-intelligence-southeast-asia-th/ https://coconet.social/2020/human-rights-artificial-intelligence-southeast-asia-th/#respond Mon, 10 Aug 2020 08:56:20 +0000 https://coconet.social/?p=5540 แม้เราจะเห็นคำว่าปัญญาประดิษฐ์ (Artificial Intelligence หรือ AI) ถูกนำมาใช้อย่างแพร่หลายไปทุกหนทุกแห่งในชีวิตประจำวัน รวมถึงการสื่อสารของเราในแต่ละวัน แต่ความเข้าใจเกี่ยวกับ AI ยังถือว่ามีอยู่น้อยมากในกลุ่มภาคประชาสังคมในภูมิภาคเอเชียตะวันออกเฉียงใต้ เช่นคำถามที่ว่า 1) AI คืออะไร 2) แล้วมีการนำ AI ไปประยุกต์ใช้อะไรบ้างในปัจจุบันโดยเฉพาะในภูมิภาคนี้ 3) รวมไปถึงอะไรคือความเชื่อมโยงระหว่างการเกิดขึ้นของเทคโนโลยีใหม่อย่าง AI กับปัญหาการละเมิดสิทธิมนุษยชน 4) และยุทธศาสตร์การทำงานที่จะช่วยบรรเทาปัญหาการละเมิดสิทธิมนุษยชนจะเป็นอย่างไร

The post ปัญญาประดิษฐ์ (Artificial Intelligence: AI) กับข้อกังวลด้านสิทธิมนุษยชนในสังคมเอเชียตะวันออกเฉียงใต้: ภาพรวม appeared first on Coconet.

]]>

Read this article in English / อ่านบทความนี้ใน ภาษาอังกฤษ

"Inteligencia Artificial: ECI 33 (UBA)" by Juan Pablo Dellacha is licensed under CC BY-NC-ND 4.0
"Inteligencia Artificial: ECI 33 (UBA)" by Juan Pablo Dellacha is licensed under CC BY-NC-ND 4.0

แปลไทยโดย ธีรดา ณ จัตุรัส

แม้เราจะเห็นคำว่าปัญญาประดิษฐ์ (Artificial Intelligence หรือ AI) ถูกนำมาใช้อย่างแพร่หลายไปทุกหนทุกแห่งในชีวิตประจำวัน รวมถึงการสื่อสารของเราในแต่ละวัน แต่ความเข้าใจเกี่ยวกับ AI ยังถือว่ามีอยู่น้อยมากในกลุ่มภาคประชาสังคมในภูมิภาคเอเชียตะวันออกเฉียงใต้ เช่นคำถามที่ว่า 1) AI คืออะไร 2) แล้วมีการนำ AI ไปประยุกต์ใช้อะไรบ้างในปัจจุบันโดยเฉพาะในภูมิภาคนี้ 3) รวมไปถึงอะไรคือความเชื่อมโยงระหว่างการเกิดขึ้นของเทคโนโลยีใหม่อย่าง AI กับปัญหาการละเมิดสิทธิมนุษยชน 4) และยุทธศาสตร์การทำงานที่จะช่วยบรรเทาปัญหาการละเมิดสิทธิมนุษยชนจะเป็นอย่างไร

บทความนี้เป็นหนึ่งในชุดบทความที่เกี่ยวกับผลกระทบด้านสิทธิมนุษยชนที่เกี่ยวข้องกับปัญญาประดิษฐ์ (AI) ในภูมิภาคเอเชียตะวันออกเฉียงใต้ โดยมีจุดประสงค์เพื่อการสร้างความตระหนักรู้และกระตุ้นการมีส่วนร่วมของภาคประชาสังคมที่ทำงานร่วมกับชุมชนชายขอบ ทั้งในการรณรงค์เรื่องสิทธิต่างๆ และการแก้ไขปัญหาที่เกี่ยวกับการพัฒนาทั้งในมิติผลกระทบด้านสาธารณสุข ความยากจน และสิ่งแวดล้อม

AI คืออะไร

คำว่า Artificial Intelligence (AI) เป็นศัพท์ที่มีความหมายกว้างและตีความได้หลายแบบ อันที่จริงบทความทางวิชาการที่เขียนเกี่ยวกับ AI ส่วนใหญ่เริ่มต้นด้วยการอธิบายว่า ในปัจจุบันยังไม่มีคำนิยามที่ยอมรับกันอย่างเป็นสากลว่า AI หมายถึงอะไร

ถ้าจะพูดถึง AI อย่างกว้างๆ อาจหมายถึง “ศาสตร์ของการศึกษาเกี่ยวกับอุปกรณ์ดิจิทัลต่างๆ ที่พัฒนาขึ้นมาเพื่อให้มีความสามารถในการเรียนรู้และทำความเข้าใจสภาพแวดล้อมที่อยู่โดยรอบ และกำหนดแนวทางการการดำเนินการในช่วงระยะเวลาหนึ่งเพื่อเพิ่มโอกาสในการบรรลุเป้าหมายที่กำหนดไว้” (World Wide Web Foundation, 2017).

ในทางปฏิบัติแล้ว การเรียนรู้ของเครื่องจักร (Machine Learning หรือ ML) เป็นหนึ่งในศาสตร์ของการศึกษา AI ซึ่งมีการนำมาประยุกต์ใช้อย่างแพร่หลาย

AI คือศาสตร์ของการศึกษาเกี่ยวกับอุปกรณ์ดิจิทัลต่างๆ ที่พัฒนาขึ้นมาเพื่อให้มีความสามารถในการเรียนรู้และทำความเข้าใจสภาพแวดล้อมที่อยู่โดยรอบ และสามารถกำหนดแนวทางในการแก้ไขปัญหาที่ต้องการ

Internet Society 2017 ได้อธิบายเกี่ยวกับ Machine Learning ไว้ว่า แทนที่จะใช้วิธีการให้เครื่องคอมพิวเตอร์แก้ไขปัญหาแบบทีละขั้นตอน นักพัฒนาโปรแกรมที่เป็นมนุษย์ได้เลือกใช้วิธีป้อนรูปแบบชุดคำสั่งและเงื่อนไขต่างๆ ให้แก่คอมพิวเตอร์ให้ได้เรียนรู้ จากข้อมูลที่ป้อนให้นั้น คอมพิวเตอร์จะเริ่มฝึกสร้างกฎใหม่ๆเอง เพื่อเสนอข้อมูลและบริการต่างๆ

ส่วนสิ่งที่เรียกว่า อัลกอริทึม (algorithm) คือ “วิธีการคิดแบบเป็นลำดับขั้นตอนของคำสั่งเพื่อให้คอมพิวเตอร์ได้เรียนรู้ และใช้ในการแก้ไขปัญหาต่างๆ” จึงทำให้เครื่องจักรหรือคอมพิวเตอร์ สามารถแก้ปัญหาที่สลับซับซ้อนในแบบที่วิธีการแบบปกติอาจไม่สามารถแก้ไขปัญหานั้นได้ง่ายๆ

ผลกระทบด้านสิทธิมนุษยชนของ AI

นักวิชาการจากศูนย์ Berkman Klein Center for Internet & Society ของมหาวิทยาลัย Harvard ได้ชี้ว่า Machine Learning มีทั้งข้อดีและข้อเสียที่มีผลกระทบด้านสิทธิมนุษยชน ซึ่งมีอย่างน้อยมี 3 ปัจจัยหลักด้วยกัน ได้แก่

  1. คุณภาพของข้อมูล: นี่เป็นปัญหาที่รู้จักกันดีในคำกล่าวที่ว่า “garbage in, garbage out” (ถ้าใส่ขยะเข้าไป ผลลัพธ์ก็ได้จะขยะออกมา) เพราะถึงแม้จะมีอัลกอริทึม (algorithm) ที่ถูกเขียนมาอย่างดีที่สุดก็อาจจะให้ผลลัพธ์ที่ผิดเพี้ยนถ้าหากข้อมูลตั้งต้นที่ป้อนเข้าเพื่อฝึก Machine Learning มีความลำเอียงหรืออคติอยู่ก่อนแล้ว
  2. การออกแบบระบบ: เมื่อมนุษย์คือผู้ออกแบบระบบ AI ให้เรียนรู้สิ่งต่างๆ ซึ่งก็อาจจะป้อนค่านิยมของตนเองลงไปในการออกแบบระบบด้วย เช่น การให้ความสำคัญตัวแปรบางตัวมากกว่าตัวแปรตัวอื่นๆ
  3. การปฏิสัมพันธ์ที่ซับซ้อน: ระบบ AI อาจจะโต้ตอบต่อสภาพแวดล้อมของตนเองรับรู้ในแบบที่นำไปสู่ผลลัพธ์ที่คาดการณ์ได้ยาก

งานวิจัยเดียวกันนี้ยังเสนออีก 6 ตัวอย่างกรณีศึกษาของการนำ AI มาใช้ในการตัดสินใจในประเด็นทางสังคมต่างๆ นับตั้งแต่กระบวนการยุติธรรมไปจนถึงการวินิจฉัยโรค ผลกระทบเหล่านี้ถือว่าอยู่ภายใต้กรอบของสิทธิมนุษยชน พร้อมยังได้นำเสนอตัวอย่างที่เป็นรูปธรรมเกี่ยวกับสิทธิบางประการที่ได้รับผลกระทบจากการใช้ AI

ยังคงต้องกล่าวว่า ความมีประสิทธิภาพของ AI นั้นขึ้นอยู่กับที่ความแตกต่างของฟังก์ชันต่างๆ ในบางกรณีนั้นก็ดูจะพูดเกินความเป็นจริงของผลลัพธ์เชิงบวกจากการใช้ AI

นี่เป็นสิ่งที่ต้องตระหนักว่า ความไม่ถูกต้องในคาดการณ์ผลโดยใช้ AI อาจส่งผลร้ายอย่างยิ่งต่อชีวิตและศักดิ์ศรีความเป็นมนุษย์

ในการนำเสนองานวิจัยที่ชื่อว่า “How to Recognise AI Snake Oil“ของศาสตราจารย์ Arvind Narayanan จากมหาวิทยาลัย Princeton ได้ระบุว่าขณะที่ AI ได้ถูกนำมาประยุกต์ใช้อย่างสำเร็จในสาขาวิชาด้านการรับรู้ (เช่น การระบุเนื้อหาข้อความ ระบบจดจำใบหน้า การวินิจฉัยโรคผ่านภาพสแกน) และใช้ในด้านการคาดการณ์ทางสังคมต่างๆ (เช่น ความเป็นไปได้ในการก่ออาชญากรรม หรือ ประสิทธิภาพในการทำงาน) นั่นยังถือว่า “มีความน่าสงสัย”

นี่เป็นสิ่งที่ต้องตระหนักว่า ความไม่ถูกต้องในคาดการณ์ผลโดยใช้ AI อาจส่งผลร้ายอย่างยิ่งต่อชีวิตและศักดิ์ศรีความเป็นมนุษย์

เครดิตภาพ: "kecerdasan" (intelligence) ภายใต้ลิขสิทธิ์ CC0 1.0
เครดิตภาพ: "kecerdasan" (intelligence) ภายใต้ลิขสิทธิ์ CC0 1.0

AI ในบริบทของเอเชียอุษาคเนย์

ดูเหมือนว่า แทบจะไม่มีงานวิจัยและการศึกษามากนักที่เกี่ยวกับประเด็นสิทธิมนุษยชนและผลกระทบจากการใช้ AI ในบริบทของภาคเอเชียตะวันออกเฉียงใต้ ขณะที่การถกเถียงเกี่ยวประเด็นเรื่องจริยธรรมและหลักการในการใช้ AI ส่วนใหญ่เกิดขึ้นในกลุ่มประเทศที่พัฒนาแล้วและประเทศจีน เพราะถือเป็นต้นกำเนิดแห่งเทคโนโลยีใหม่ๆ

จากการศึกษาเรื่อง Principled Artificial Intelligence ของมหาวิทยาลัย Harvard ได้แสดงข้อมูลภาพที่รวบรวมหลักจริยธรรมของการใช้ AI ทั้งหมด 32 หลักหรือข้อแนะนำสำหรับจริยธรรมในการใช้ AI ซึ่งสะท้อนมุมมองความคิดเห็นจากทั้งฝั่งรัฐบาล บริษัทเอกชน กลุ่มรณรงค์ทางสังคม และผู้ที่เกี่ยวข้องต่างๆ ทว่าในจำนวนเสียงสะท้อนเหล่านั้นไม่มีตัวแทนจากภูมิภาคเอเชียตะวันออกเฉียงใต้เลย สะท้อนให้เห็นหนึ่งในความท้าทายของการศึกษาเรื่องการใช้ AI ในภูมิภาคนี้ซึ่งอาจจะเผชิญปัญหาที่แตกต่างจากบริบทในภูมิภาคอื่นของโลก ต่อไปนี้เป็นข้อพิจารณาบางประการที่เกี่ยวข้องกับเรื่องนี้

เผด็จการอำนาจนิยมแบบดิจิทัล ผ่านเทคโนโลยี AI:

รายงานล่าสุดจากกลุ่ม Civicus Monitor แสดงให้เห็นว่า ไม่มีประเทศใดในทั้งหมด 11 ประเทศในภูมิภาคนี้ได้รับการจัดลำดับให้อยู่ในสถานะที่สิทธิพลเมืองสูงกว่าสถานะ “ลิดรอนสิทธิเสรีภาพ” (obstructed) ขณะที่รายงาน The Freedom on the Net report ประจำปี 2561 ได้ประเมิน 8 ประเทศในภูมิภาคนี้ว่า ไม่มีประเทศใดอยู่ในสถานะ “มีเสรีภาพ” ทางอินเตอร์เน็ต รายงานเหล่านี้ชี้ให้เห็นว่า ภาคประชาสังคมในภูมิภาคนี้ส่วนใหญ่ที่มีความระมัดระวังเกี่ยวกับการประยุกต์ใช้ AI ในลักษณะที่มาจำกัดสิทธิพลเมืองและทางการเมือง เช่น การสอดส่องติดตามทางดิจิทัล ดังนั้น ผลกระทบทางสิทธิมนุษยชนจากการประยุกต์ใช้ AI จึงมีมากไปกว่าปัญหาทางเทคโนโลยี (ตามที่กล่าวมาข้างต้น) และครอบคลุมไปจนถึงกระบวนการที่ทำให้ AI กลายมาเป็นอาวุธที่มาทำลายเสรีภาพของประชาชน

ผลกระทบทางสิทธิมนุษยชนเกี่ยวกับ AI จึงมีมากไปกว่าปัญหาทางเทคโนโลยี

...การไม่รวมทุกคนเข้าไปในชุดข้อมูล ถือว่าเป็นข้อกังวลมากกว่าความเป็นไปได้ในการใช้ข้อมูลในทางที่ไม่เป็นธรรม

การขาดสัดส่วนชุดข้อมูลจากตัวแทนฝั่งเอเชีย:

ในที่ประชุมของ the Internet Governance Forum 2017 ในหัวข้อ “AI in Asia: What’s Similar, What’s Different?” ชี้ให้เห็นถึงการที่ไม่ได้รวมชุดข้อมูลของประเทศเอเชียบางประเทศ (กรณีตัวอย่าง เช่น อินเดียและมาเลเซีย) จึงมีความกังวลว่าการไม่ได้รวมข้อมูลจากกลุ่มประเทศเหล่านี้ ถือว่าเป็นข้อกังวลถึงความเป็นไปได้ในการใช้ข้อมูลในทางที่ไม่เป็นธรรม รวมไปถึงประเด็นเรื่องการไม่นับรวมชุดข้อมูลของประเทศเอเชียบางประเทศที่ขัดแย้งกับแนวทางในเรื่องการคุ้มครองข้อมูล และความเป็นส่วนตัวที่เป็นแนวทางจากโลกตะวันตก ซึ่งเรื่องการขาดข้อมูลที่มีคุณภาพจากทวีปเอเชียนี้ถือว่าเป็น “ความท้าทายที่สำคัญ” ต่อการริเริ่มการพัฒนาในด้าน Machine Learning ซึ่งมักถูกบังคับให้ป้อนข้อมูลที่มาจากประเทศฝั่งสหรัฐอเมริกา และสหราชอาณาจักร เพื่อการฝึก machines ต่างๆ ซึ่งนำไปสู่ปัญหาเรื่องความลำเอียงของข้อมูล และทำให้อาจจะนำมาใช้กับบริบทท้องถิ่นไม่ได้

ผลกระทบทางสังคมและเศรษฐกิจที่มาจาก AI:

จากรายงานชิ้นหนึ่งของ McKinsey เมื่อปี 2560 ซึ่งตั้งข้อสังเกตว่า AI มีศักยภาพที่จะทำงานได้ครึ่งหนึ่งของจำนวนงานทั้งหมดด้วยตัวเอง (มีมูลค่าเทียบเท่ากับค่าจ้างงานจำนวน 900 พันล้านดอลลาร์สหรัฐ) ใน 4 ประเทศยักษ์ใหญ่ทางเศรษฐกิจของกลุ่มประเทศอาเซียน ได้แก่ อินโดนีเซีย (52%) มาเลเซีย (51%) ฟิลิปปินส์ (48%) และประเทศไทย (55%) ในปี 2560 World Wide Web Foundation ยังได้กล่าวถึงเงินลงทุนที่จะเป็นตัวกำหนดถึงสถานที่ในการผลิต AI ไม่ใช่แค่ต้นทุนค่าแรงงาน แต่การเปลี่ยนแปลงนี้จะส่งผลกระทบทางสังคมและเศรษฐกิจ โดยเฉพาะสัดส่วนการจ้างงานของผู้หญิงที่ทำงานอยู่ในด้านออฟฟิศและงานเสมียน

AI มีศักยภาพที่จะทำงานครึ่งหนึ่งของจำนวนงานทั้งหมดด้วยตัวเอง

การขาดความสามารถด้านเทคนิคทางคอมพิวเตอร์เป็นอีกหนึ่งปัจจัยสำคัญที่ขัดขวางการมีส่วนร่วมในการกำกับดูแล

การมีส่วนร่วมในกระบวนการกำกับดูแล AI:

สหรัฐอเมริกาและจีนถือเป็นผู้เล่นสำคัญของโลกในเรื่อง AI แม้ว่าอาจจะพอมีกิจกรรมที่เกี่ยวกับ AI ในบางประเทศสมาชิกของกลุ่มอาเซียน(McKinsey Global Institute 2560) แต่การอยู่ห่างจากศูนย์กลางทางเทคโนโลยีทั้งทางภูมิศาสตร์และอำนาจทางการเมืองของประชาชนในภูมิภาคอุษาอาคเนย์ จึงทำให้เรามีสิทธิในการออกเสียงมีน้อยมากในการแสดงความคิดเห็นเกี่ยวกับการออกแบบและการกำกับดูแล AI รวมไปถึงเรื่องอำนาจในการควบคุมข้อมูลส่วนตัว และร่องรอยทางดิจิทัลเมื่อยามที่เราใช้แอปพลิเคชันต่างๆที่ถูกพัฒนามาจากฝั่งสหรัฐอเมริกาและจีน การขาดแคลนความสามารถทางด้านเทคนิคทางคอมพิวเตอร์เป็นอีกหนึ่งปัจจัยสำคัญที่ขัดขวางการมีส่วนร่วมในการกำกับดูแลนี้ ตามที่ระบุในงานวิจัยของผู้เขียนเกี่ยวกับความเคลื่อนไหวทางด้านสิทธิมนุษยชนทางด้านดิจิทัลในภาคเอเชียตะวันออกเฉียงใต้ เมื่อปี 2562

ประเด็นข้างต้นมิได้จบเพียงเท่านี้ แต่เป็นเพียงการเริ่มในการเก็บรวบรวมข้อกังวลที่เกี่ยวกับ AI และ Machine Learning ในภูมิภาคนี้ จะเห็นได้ว่า AI จะเปลี่ยนสิ่งต่างๆในภูมิภาคนี้อย่างอย่างรวดเร็วในอนาคตอันใกล้ และภาคประชาสังคมจำเป็นต้องก้าวให้ทันกับความก้าวหน้าทางเทคโนโลยีให้ท่วงที เพื่อที่จะเข้าใจในโอกาสและความเสี่ยงที่มาพร้อมกับเทคโนโลยีใหม่ๆ ที่ส่งผลต่อกับงานที่เราทำอยู่ – ไม่ทางใดก็ทางหนึ่ง

"идея" (idea) is licensed under CC0 1.0
"идея" (idea) is licensed under CC0 1.0

บทความนี้เป็นหนึ่งในชุดบทความที่เกี่ยวกับสถานการณ์ของ AI ที่มีผลกระทบต่อสิทธิมนุษยชนในภูมิภาคเอเชียตะวันออกเฉียงใต้ โดยบทความต่อไปผู้เขียนจะเจาะลึกถึงประเด็นเชิงนโยบาย การประยุกต์ใช้งาน และผลกระทบที่เกี่ยวกับ AI ที่เกิดขึ้นในภูมิภาคนี้ โดยเป็นส่วนหนึ่งของโครงการวิจัยนี้ที่เรากำลังรวบรวมรายชื่อหนังสือและบทความ และผู้เขียนจะพยายามปรับปรุงหรือเพิ่มรายชื่ออย่างสม่ำเสมอ เพื่อการเผยแพร่ทางสาธารณะต่อไป ซึ่งผู้ที่สนใจสามารถค้นหาเพื่ออ่านเพิ่มเติมได้

เกี่ยวกับผู้เขียน

Dr. Jun-E Tan เป็นนักวิจัยอิสระ อาศัยอยู่ในเมืองกัวลาลัมเปอร์ ประเทศมาเลเซีย งานวิจัยและการสนับสนุนของ Jun-E นั้นเกี่ยวกับประเด็นการสื่อสารทางดิจิทัล สิทธิมนุษยชน และการพัฒนาที่ยั่งยืน บทความในปีวิจัยล่าสุดของ Jun-E มีชื่อว่า “สิทธิมนุษยชนทางดิจิทัลในภูมิภาคเอเชียอาคเนย์: กรอบแนวคิดและการสร้างขบวนการเคลื่อนไหว” (Digital Rights in Southeast Asia: Conceptual Framework and Movement Building) ได้เผยแพร่ในหนังสือ open access (สามารถ download เพื่ออ่านได้ฟรี) ที่มีชื่อว่า “การสำรวจความเกี่ยวเนื่องระหว่างเทคโนโลยีต่างๆและสิทธิมนุษยชน: โอกาสและความท้าทายที่หลากหลายในเอเชียอาคเนย์” (Exploring the Nexus Between Technologies and Human Rights: Opportunities and Challenges in Southeast Asia) จัดพิมพ์โดยสำนักพิมพ์ SHAPE-SEA เมื่อเดือนธันวาคม 2562 นอกจากนี้ Jun-E ยังได้เขียนบทความลงในบล็อกของตนเองอยู่เป็นประจำ

The post ปัญญาประดิษฐ์ (Artificial Intelligence: AI) กับข้อกังวลด้านสิทธิมนุษยชนในสังคมเอเชียตะวันออกเฉียงใต้: ภาพรวม appeared first on Coconet.

]]>
https://coconet.social/2020/human-rights-artificial-intelligence-southeast-asia-th/feed/ 0
AI as a weapon against civil and political rights https://coconet.social/2020/ai-weapon-civil-political-rights/ https://coconet.social/2020/ai-weapon-civil-political-rights/#respond Wed, 04 Mar 2020 08:28:50 +0000 https://coconet.social/?p=877 We are going to take a closer look on what can happen when AI is weaponised and used against civil and political rights (CPR) such as the right to life and self-determination, as well as individual freedoms of expression, religion, association, assembly, and so on.

The post AI as a weapon against civil and political rights appeared first on Coconet.

]]>

Read this Article in Thai / อ่านบทความนี้ใน ภาษาไทย

Translated into Thai by Teerada Na Jatturas
(To read the Thai version, click the flag icon in the upper right-hand corner of your screen.)

This is the third of a series of articles on the human rights implications of artificial intelligence (AI) in the context of Southeast Asia. In the last article, we had discussed the implications of AI on economic, social, and cultural rights, driving home the point that AI does yield developmental benefits, if it is implemented properly. The human rights concerns were more on AI safety and unintended consequences.

In this article, we are going to take a closer look on what can happen when AI is weaponised and used against civil and political rights (CPR) such as the right to life and self-determination, as well as individual freedoms of expression, religion, association, assembly, and so on.

Within the space of this article, it is impossible to cover the entire extent to which AI can be used against CPR, so we will only address three imminent threats: mass surveillance by governments, microtargeting that can undermine elections, and AI-generated disinformation. For those who are interested to dig deeper, a report by a collection of academic institutions on the malicious use of AI endangering digital, physical, and political security makes for a riveting read.

AI can be weaponised and used against civil and political rights

AI used for Government Surveillance

Privacy is a fundamental human right, and the erosion of privacy impacts on other civil freedoms such as free expression, assembly, and association. In Southeast Asia, where most countries tilt towards the authoritarian side of the democratic spectrum, governments have shown that they can go to great lengths to quench political dissent, such as wielding draconian laws or using extralegal measures to intimidate dissenters.

With machine learning that can sift through mountains of data collected inexpensively and make inferences that were previously invisible, surveillance of the masses becomes cheaper and more effective, making it easier for the powerful to stay in power. 

The table below is adapted from the AI Global Surveillance Index (AIGS 2019), extracting the seven Southeast Asian countries covered (with no data on Brunei, Vietnam, Cambodia, and Timor Leste). It shows that most countries within the region use two or more types of surveillance technologies in the form of smart/safe city implementations, facial recognition, and smart policing; and all of these countries use technologies imported from China, and to a lesser extent from the US as well.

Table adapted from the AI Global Surveillance Index (AIGS 2019)

To provide a wider context, at least 75 out of 176 countries covered in the AIGS 2019 are actively using AI for surveillance purposes, including many liberal democracies. The index does not differentiate between legitimate and unlawful use of AI surveillance. Given the context of Southeast Asia, civil society in the region might want to err on the side of caution.

A CSIS report points out that Huawei’s “Safe City” solutions are popular with non-liberal countries, and sounds the concern that China may be “exporting authoritarianism”. China itself has used facial recognition (developed by Chinese AI companies Yitu, Megvii, SenseTime, and CloudWalk) to profile and track the Muslim Uighur community—it is also known that close to a million Uighurs have been placed in totalitarian “re-education camps”, illustrating the chilling possibilities of human rights violations connected to mass surveillance.

13 Asian countries have a social media surveillance programme

Other forms of government surveillance include social media surveillance and using AI to collect and process personal data and metadata from social media platforms. The Freedom on the Net (FOTN) Report (2019) states that 13 out of the 15 Asian countries that it covers have a social media surveillance programme in use or under development, but does not specify which. The odds are high for these eight Southeast Asian countries covered in the report: Philippines, Malaysia, Singapore, Indonesia, Cambodia, Myanmar, Thailand, and Vietnam.

In particular, examples of Vietnam and the Philippines were highlighted in the FOTN report. In 2018, Vietnam “announced a new national surveillance unit equipped with technology to analyse, evaluate, and categorise millions of social media posts”; and in the same year, Philippine officials were trained by the US Army on developing a new social media unit, which reportedly would be used to counter disinformation by terrorist organisations.

Digital surveillance by the government can also cast a wider net outside social media platforms. In 2018, the Malaysia Internet Crime Against Children (Micac) unit of the Malaysian police demonstrated to a local daily its surveilling capabilities of locating pornography users in real-time, and that it built a “data library” of these individuals—a gross invasion of privacy, as pointed out by a statement by some ASEAN CSOs

Image by Bark 003 via Cool SILH. Public Domain .

Microtargeting to change voter behaviour

In Southeast Asia, civil society is more vigilant about government surveillance than corporate surveillance. However, the effects of corporate surveillance, especially by big tech companies like Facebook and Google, maybe equally sinister or even more far-reaching when their AI technologies, combined with an unimaginable amount of data, are up for hire to predict and change user behaviour for their advertisers. This is particularly problematic when the advertisers are digital campaigners for political groups looking to change public opinions or voter behaviour, affecting the electoral rights of individuals.

Five years ago, researchers had already found that based on Facebook likes, machines could know you better than anyone else (300 likes were all it needed to know you more than your spouse did, and only 10 likes to beat a co-worker). Since then, there have been scandals such as that of Cambridge Analytica, which illegally obtained the data of tens of millions of Facebook users, which they were able to use to create psychographic profiles from, so that they could micro-target voters with different messaging to swing the votes of the 2016 US presidential election. Similar tactics allegedly influenced the outcomes of the Brexit referendum.

With 2 billion users, Facebook is able to train its machine learning systems to predict user behaviours

Cambridge Analytica has since closed down, but the scandal had brought the business model of microtargeted political advertising into public scrutiny. Political commentators have pointed out that Facebook does pretty much the same thing, only in a bigger and more ambitious way. With the data of 2 billion users at their disposal, Facebook is able to train its machine learning systems to predict things like when an individual user is about to switch brand loyalty and rent this user intelligence to whoever that pays. It does not discern between regular advertising and political advertising. It is worth mentioning that Twitter has banned political advertising, and Google has disabled microtargeting for political ads.

86% of Southeast Asia’s Internet users use Facebook. Within the region, concerns have already arisen regarding microtargeting to influence elections. A report that tracks digital disinformation in the 2019 Philippine midterm election points out that Facebook Boosts (Facebook’s advertising mechanism) are essential for local campaigns because of their ability to reach specific geographical locations. Besides advertising the Facebook pages of official candidates, Facebook Boosts were also used to promote negative content about political opponents. In Indonesia, ahead of the 2019 general elections, experts warned of voter behavioural targeting and voter microtargeting strategies which might exploit personal data of Indonesian voters to change election outcomes.

Image via SVG Silh. Public Domain.
Image via SVG Silh. Public Domain.

AI-generated content fuels disinformation campaigns

In the digital era, rumour-mongering becomes much more effective because of the networked nature of our communication. As a result, disinformation or fake news has become a worldwide problem, and in Southeast Asia, the gravest example of possible consequences is the ethnic cleansing of Rohingyas in Myanmar, reportedly fueled by the spread of disinformation and hate speech on social media.

The disinformation economy has flourished within the region. In Indonesia, fake news factories are used to churn out content to attack political opponents and to support their clients. PR companies in the Philippines cultivate online communities and surreptitiously insert disinformation and political messaging with the help of micro and nano influencers. As nefarious actors establish structures to create and profit from disinformation, AI will make content generation much easier and more sophisticated for them.

One of the scariest possibilities of AI-generated content is the so-called “deepfake”, also known as “synthetic media”, which are manipulated videos or sound files which look/sound highly realistic. Deepfakes are already a reality and it is a matter of time (in the matter of months) before they are not discernible from real footage and cheap enough to be produced by any novice. At the moment, they are mainly being used to produce fake pornography of celebrities, but there is a dizzying array of possibilities of how it could be used for creating disinformation. In the region, there is at least one case in Malaysia of a politician claiming his sex video to be a politically motivated deepfake.

The video above gives a good introduction of what deepfakes are, some examples, and why we should be concerned. WITNESS has a good resource pool of articles and videos of deepfakes for those who are interested to dig further.

Another example of what AI is able to do in terms of generating realistic content can be found in the interactive component of this New York Times article —with a click of a button, one can generate commentary on any topic, with any political slant. As can be imagined, the cost of maintaining a cyber army for astroturfing or trolling goes down drastically if machines are used to generate messages that look like they have been written by humans. In a separate report that warns of AI-generated “horrifyingly plausible fake news”, a system called GROVER can generate a fake news article based on only a headline, which can even be customised to mimic styles of major news outlets such as The Washington Post or The New York Times.

The post-truth era has many faces. Lastly, you can have a bit of fun and check out ThisPersonDoesNotExist.com or WhichFaceIsReal.com to see the level of realism in computer-generated photos of human faces, which makes it easy to generate photos for fake social media profiles.

In Conclusion

As has been demonstrated by this article, AI can be, and has been, weaponised to achieve ends that are incompatible with civil and political rights. At the very least, the civil society within the region should invest energy and resources into following technological trends and new applications of AI so that it will not be taken by surprise by innovations from malicious actors. As is the nature of machine learning and AI, it is expected that the efficacy of the technologies will only get better. Civil society and human rights defenders will need to participate in the discussions of AI governance and push for tech companies to be more accountable towards the possible weaponisation of the technologies that they have created, in order to safeguard human rights globally.

About the Author

Dr. Jun-E Tan is an independent researcher based in Kuala Lumpur. Her research and advocacy interests are broadly anchored in the areas of digital communication, human rights, and sustainable development. Jun-E’s newest academic paper, “Digital Rights in Southeast Asia: Conceptual Framework and Movement Building” was published in December 2019 by SHAPE-SEA in an open access book titled “Exploring the Nexus Between Technologies and Human Rights: Opportunities and Challenges in Southeast Asia”. She blogs sporadically here.

To read more about this series on artificial intelligence in Southeast Asia, you can check out the first part here and the second part here.

The post AI as a weapon against civil and political rights appeared first on Coconet.

]]>
https://coconet.social/2020/ai-weapon-civil-political-rights/feed/ 0
Can’t live with it, can’t live without it? AI impacts on economic, social, and cultural rights https://coconet.social/2020/ai-impacts-economic-social-cultural-rights/ https://coconet.social/2020/ai-impacts-economic-social-cultural-rights/#comments Wed, 12 Feb 2020 10:20:51 +0000 https://coconet.social/?p=815 This is the second in a series of articles on the human rights implications of artificial intelligence (AI) in the context of Southeast Asia, targeted at raising awareness and engagement of civil society on the topic.

The post Can’t live with it, can’t live without it? AI impacts on economic, social, and cultural rights appeared first on Coconet.

]]>

Read this Article in Thai / อ่านบทความนี้ใน ภาษาไทย

Translated into Thai by Teerada Na Jatturas
(To read the Thai version, click the flag icon in the upper right-hand corner of your screen.)

This is the second in a series of articles on the human rights implications of artificial intelligence (AI) in the context of Southeast Asia, targeted at raising awareness and engagement of civil society on the topic.

In the previous article, we looked at the definitions of AI and machine learning, and discussed some considerations of their applications in the Southeast Asian context. In this article and the next, we will continue the discussion on potential human rights impacts, from the angles of 1) economic, social, and cultural rights (ESCR), and 2) civil and political rights (CPR). To provide adequate space to unpack the ideas, this article will focus on the first group of rights.

What are economic, social, and cultural rights (ESCR)?

Drawing from the International Covenant of Economic, Social and Cultural Rights (ICESCR), these rights include the rights to health, education, social security, proper labour conditions, quality of life, and participation in cultural life and creative activities. These rights are often considered as positive rights, which require action to fulfil (such as providing opportunities for decent work), as opposed to civil and political rights which require inaction (such as not restricting freedom of expression).

It is important to note that ESCR implications of AI is not a binary “good” or “bad”. Even in the same application, outcomes may differ for different people—some may be impacted positively and some negatively. For example, relying on AI for deciding on credit trustworthiness based on a large pool of data points may benefit the poor with a thin credit profile, as they buy fewer big items and cannot prove that they are trustworthy based on their credit history. However, using data points broader than credit history may discriminate against others based on non-related data points, sometimes in arbitrary ways—an example was given on a certain AI system giving lower points if an applicant typed in all-caps, which is apparently correlated with a higher risk of default.

To structure our discussion, we can look at the implications of AI on ESCR from two angles: 1) the cost of not implementing AI for development, and 2) the cost of implementing it badly.

"fikiran" is licensed under CC0 1.0

Developmental benefits of AI

AI, when used strategically and appropriately, can provide immense developmental benefits. Economic growth is a much-touted benefit, but possibilities of AI to improve lives extend much further. Here are some examples of what the technologies can already achieve in Southeast Asia:

  • Healthcare: In Singapore, a local startup Kronikare worked with AI Singapore to develop a system to capture, analyse, and diagnose chronic wound conditions. This system was then scaled up and is currently deployed in some hospitals and nursing homes in Singapore.
  • Traffic: Malaysia City Brain, a collaboration between Alibaba, Malaysia Digital Economy Corporation, and the city council of Kuala Lumpur, aims to reduce traffic in the congested city. City Brain in Hangzhou has seen traffic speed up by 15% in some locations.
  • Education: Ruangguru, an online education platform in Indonesia that connects students and teachers for online tutoring, and provides other services such as video content on a wide range of subject areas. It uses AI to personalise education for its 15 million students, 80% of whom are outside of urban areas.
  • Food security: In Vietnam, startups are using AI and IoT sensors to increase agricultural productivity and save on water and fertiliser use. Sero, a Vietnamese startup, claims an accuracy rate of 70-90% for identifying 20 types of crop diseases, thus lowering the rates of crop failures.

However, across the eleven countries of Southeast Asia, the implementation of (and capacity to) implement AI is uneven. This can be illustrated using the AI Government Readiness Index by Oxford Insights and the International Development Research Centre, a ranking of governments according to their readiness to use AI for administration and delivery of services. Singapore tops the world ranking. Six Southeast Asian countries are within the top 100, including Malaysia (22), Philippines (50), Thailand (56), Indonesia (57), and Vietnam (70).

Country (World Ranking)

Score

Singapore (1)
~9.186
Malaysia (22)
~7.108
Philippines (50)
~5.704
Thailand (56)
~5.458
Indonesia (57)
~5.420
Vietnam (70)
~5.081
Brunei Darussalam (121)
~3.143
Cambodia (125)
~2.810
Laos (137)
~2.314
Myanmar (159)
~1.385
Timor Leste (173)
~0.694

Indeed, countries higher up on the list have (or are building) national strategies that aim to capitalise upon the advantages of the technology and to build enabling environments for supporting homegrown AI. Singapore with its National Artificial Intelligence Strategy aims to be a leader in the field by 2030, strengthening the AI ecosystem and providing funding support of more than S$500 million to drive AI initiatives. Other Southeast Asian countries coming up with overarching AI policies include Malaysia (with a National AI Framework coming up in 2020, and a National Data and AI Policy being proposed to the cabinet) and Indonesia (targeting completion of its AI strategy in 2020).

On the other hand, those on the lower side of the spectrum are still struggling with basic Internet access—only 30.3% of the population of Timor Leste is online, while Myanmar has 33.1% and Laos has 35.4%. With that, we see a divide between those who have access to the technologies and those who do not.

While some governments may lag behind in their readiness for AI, corporations are already gearing up to provide services. In general, there is a great appetite in the region to jump on the “smart” bandwagon, which includes the use of AI in improving products and services. The ASEAN Smart Cities Network (ASCN) mooted in 2018, has 26 cities across Southeast Asia aiming to use technology as an enabler for city development. One of the key goals of the Network is to link these cities with private sector solution providers.

In general, the plans and visions look promising: focal developmental areas of the ASCN are to improve social and cultural cohesion, health and well-being, public safety, environmental protection, built infrastructure, as well as industry and innovation.

Artificial Intelligence & AI & Machine Learning
Artificial Intelligence & AI & Machine Learning. Image by Mike MacKenzie via www.vpnsrus.com

Potential risks of AI affecting ESCR

The developmental benefits brought about by AI are contingent upon the implementation. This is also where many potential risks lie. Even though well-known cases of AI safety and harms have not surfaced in our region where the technology is still nascent, we would do well to observe other localities for known problems.

The “Automating Poverty” series from The Guardian, for instance, gives some chilling examples from India, UK, US, and Australia of how automated social security systems assisted by AI can be very dehumanising and penalise the marginalised further. The case from India, in particular, shows us some devastating consequences of faulty implementation in the context of a developing country. The complete transition from a paper system to a digital one has left the poor vulnerable to technological glitches, ranging from electricity blackouts and unstable Internet, to unexplained rejections by the system to disburse social welfare to the deserving. The system covers social protection and medical reimbursements for the poor, and errors have led to starvation-related deaths.

System bias and accessibility

Opaque decision-making with AI on social security can lead to dire consequences and human suffering with little recourse. Southeast Asia is weak in at least two aspects required for better AI-powered decision-making. The first is good training data for machine learning, which the region lacks, due to populations not yet connected to the Internet, or bad quality data. The second is that most of the countries are importers of AI technologies, which means that most of the engineers designing the systems may not understand the local context. As mentioned in an earlier article, these are fundamental problems that have repercussions on human rights.

Most of the engineers designing the systems may not understand the local context

When people depend on technology to access their economic, social, and political life, they are subject to the availability and stability of the technology. As pointed out earlier, the AI divide is there between the haves and the have-nots—those who have limited abilities to build their own technology will have to rely on using technology that may not be built in an accessible manner for them. Accessibility may be considered from many angles. In this culturally rich region that speaks many languages, it is important to cater to all, but such localisation exercises are costly and may not be implemented. Accessibility can also be obstructed by physical or mental disabilities, low education level and digital literacy, or even just a lack of basic infrastructure.

These fundamental issues need to be considered seriously before one jumps into AI solutions.

Not all problems can be solved by applying technology

Technology is not a cure-all

Not all problems can be (or should be) solved by applying technology. As pointed out by The Guardian’s report on India, the root of inefficiencies associated with the previous system was corruption and poor management at a higher level, and not duplicate or fake cards, as was the problem targeted by Aadhaar. When the problem is a deeper, structural problem, a technological solution may divert attention from other reforms needed and create further problems.

In Southeast Asia, the fervour for all things AI has led to statements by top leaders promising to apply AI to all sorts of contexts. For example, Indonesia’s President Jokowi announced that his administration would replace some higher-level civil servants with AI, while in Malaysia, the Education Minister announced that machines would provide schoolchildren with career guidance in the future. It is debatable whether these are the most appropriate solutions to problems faced, and any such moves should be preceded by multistakeholder consultations and human rights impact assessments.

Worsening inequality, optimised by AI

Lastly, when AI is discussed in the context of this region, it is usually seen from the angle of economic growth or displaced jobs. These are two sides of the same coin—corporations gain profit when they are able to replace human workers with machines. Even when workers have not been replaced (yet), we see a trend towards informalisation of work with the gig economy (such as Grab, Go-Jek, or other platforms for freelancers), which is largely unregulated in Southeast Asia, leading to concerns about worker exploitation optimised by algorithms.

Governments in Southeast Asia tend to see AI as a vehicle for economic, rather than social development

It has been noted at forums discussing AI in Asia that governments in the region tend to see AI as a vehicle for economic, rather than social development. It is, therefore, a concern that AI will be used to optimise profit-making for the technology owners at the expense of people and the planet—a scenario not so different from what we have now, but at a faster rate.

In conclusion

In terms of AI impacts on economic, social, and cultural rights, the short answer to the question of whether AI is good or harmful in the Southeast Asian context is, “it depends”. Civil society in the region should understand more and debate about potential benefits and harms, anchored in the challenges and particularities of local contexts.

Will we be uplifting the lives of vulnerable millions with the benefits of AI, or exposing them to systems that will further disempower them? What about their data and associated privacy? The last question will be discussed more in the next article when we talk about AI and civil and political rights.

About the Author

Dr. Jun-E Tan is an independent researcher based in Kuala Lumpur. Her research and advocacy interests are broadly anchored in the areas of digital communication, human rights, and sustainable development. Jun-E’s newest academic paper, “Digital Rights in Southeast Asia: Conceptual Framework and Movement Building” was published in December 2019 by SHAPE-SEA in an open access book titled “Exploring the Nexus Between Technologies and Human Rights: Opportunities and Challenges in Southeast Asia”. She blogs sporadically here.

The post Can’t live with it, can’t live without it? AI impacts on economic, social, and cultural rights appeared first on Coconet.

]]>
https://coconet.social/2020/ai-impacts-economic-social-cultural-rights/feed/ 1
Human Rights Concerns on Artificial Intelligence in Southeast Asia: An Overview https://coconet.social/2019/human-rights-artificial-intelligence-southeast-asia/ https://coconet.social/2019/human-rights-artificial-intelligence-southeast-asia/#comments Tue, 24 Dec 2019 04:39:00 +0000 https://coconet.social/?p=782 Despite the rapid proliferation of artificial intelligence (AI) in our everyday life and communications, it is still little understood by much of civil society in Southeast Asia. What exactly is AI? And what are its current applications in the region? How do we relate these new technologies with risks of human rights violations? And what are the possible advocacy strategies?

The post Human Rights Concerns on Artificial Intelligence in Southeast Asia: An Overview appeared first on Coconet.

]]>

Read this Article in Thai / อ่านบทความนี้ใน ภาษาไทย

"Inteligencia Artificial: ECI 33 (UBA)" by Juan Pablo Dellacha is licensed under CC BY-NC-ND 4.0
"Inteligencia Artificial: ECI 33 (UBA)" by Juan Pablo Dellacha is licensed under CC BY-NC-ND 4.0

Translated into Thai by Teerada Na Jatturas
(To read the Thai version, click the flag icon in the upper right-hand corner of your screen.)

Despite the rapid proliferation of artificial intelligence (AI) in our everyday life and communications, it is still little understood by much of civil society in Southeast Asia. What exactly is AI? And what are its current applications in the region? How do we relate these new technologies with risks of human rights violations? And what are the possible advocacy strategies?

This is a series of articles on the human rights implications of AI in the context of our region, targeted at raising awareness and engagement of civil society actors who work with marginalised communities, on rights advocacy, and on developmental issues, such as public health, poverty, and environmental causes.

AI Explained

Artificial intelligence is a catch-all term that can mean many things. Indeed, most papers on the topic start off by saying that there is no universally accepted definition of what it is.

Broadly speaking, AI is “the study of devices that perceive their environment and define a course of action that will maximise its chance of achieving a given goal” (World Wide Web Foundation, 2017).

In practical terms, machine learning is the subset of AI that is most widely applied, and it is what we usually refer to when we consider the societal implications of AI.

AI is the study of devices that perceive their environment and define a course of action.

The Internet Society (2017) explains machine learning as such: instead of giving computers step-by-step instructions to solve a problem, the human programmer gives the computer instructions and rules to learn from the data provided. Based on inferences gained from the data, the computer then generates new rules to provide information and services.

In other words, algorithms, defined as “a sequence of instructions used to solve a problem”, generate algorithms. With that, machines can provide solutions to complicated tasks that cannot be manually programmed.

Human Rights Impacts of AI

Scholars from the Berkman Klein Center for Internet & Society of Harvard University point out that (positive and negative) human rights impacts of machine learning come from at least three main sources:

  1. Quality of training data: This is known as the “garbage in, garbage out” problem where even the best algorithms will give skewed outputs when the data that it trains on is biased.
  2. System design: The human designers of the AI systems may incorporate their own values on the design, such as prioritising certain variables to be optimised, over others.
  3. Complex interactions: The AI system may interact with its environment in a way that leads to unpredictable outcomes.

The same study provides six use cases on decision-making with AI, from criminal justice to healthcare diagnostics. Possible impacts are mapped onto the human rights framework, which gives a concrete depiction of specific rights affected by AI use in different fields.

It is important to note also that the efficacy of AI varies according to different functions, and the positive results of some use cases are sometimes overly exaggerated.

Inaccuracies in prediction results can be devastating to human life and dignity.

In a presentation titled “How to Recognise AI Snake Oil”, Professor Arvind Narayanan from Princeton University argues that while AI has been applied successfully in the areas of perception (such as content identification, face recognition, and medical diagnosis from scans), usage in predicting social outcomes (such as likelihood of criminal activity or job performance) is deemed to be “fundamentally dubious”.

This is something to keep in mind, as inaccuracies in prediction results can be devastating to human life and dignity.

"kecerdasan" is licensed under CC0 1.0
"kecerdasan" (intelligence) is licensed under CC0 1.0

The Southeast Asian Context

Not much has been written about human rights concerns of AI usage in the context of Southeast Asia. While AI ethics and principles have been heavily discussed and debated, most of these conversations happen within developed countries (and China) where the technologies originate.

Here is a useful visualisation that sums up 32 sets of AI principles, or guidelines for ethical AI, which represent international and transnational perspectives from governments, companies, advocacy groups, and multistakeholder forums. None of these perspectives come from Southeast Asia. This is problematic because some challenges brought by AI to this region may differ from those faced by other regions. Here are some considerations to set the scene:

Digital authoritarianism through AI:

The latest report from Civicus Monitor shows that none of the eleven countries in the region received a rating higher than “obstructed”. None of the eight countries assessed in the Freedom on the Net report by Freedom House (2018) obtained a “free” status in Internet freedom. What this implies is that civil society in the region is often cautious about the state applying AI in ways that restrict civil and political rights, such as digital surveillance. The human rights impacts of AI, therefore, go beyond inherent problems of the technology (as mentioned in the above section) and cover the weaponisation of AI to restrict freedoms.

The human rights impacts of AI go beyond inherent problems of the technology.

...exclusion from datasets is a larger concern than potential illegitimate use of data.

Underrepresentation in datasets:

In a session during the Internet Governance Forum 2017 on “AI in Asia: What’s Similar, What’s Different?”, it was pointed out that in certain Asian countries (examples given were India and Malaysia), exclusion from datasets is a larger concern than potential illegitimate use of data. This runs counter to data protection and privacy narratives coming from the West. The lack of quality data coming from the region is also considered “a major challenge” for machine learning startups, which are forced to use datasets coming from US and UK to train their machines, leading to data biases that don’t work in local contexts.

Socioeconomic impacts of AI:

A McKinsey report (2017) notes that AI has the potential to automate about half the work activities (equivalent to more than $900bil worth of wages) in the four biggest economies of ASEAN: Indonesia (52%), Malaysia (51%), the Philippines (48%), and Thailand (55%). It has also been noted by the World Wide Web Foundation (2017) that the price of capital, not the price of labour, will determine the location of production of AI in the future. The socioeconomic impacts will hit women disproportionately in office and administrative functions.

AI has the potential to automate about half the work activities.

...lack of technical capacity is another barrier in participation in governance.

Participation in AI Governance:

The US and China are the main global players when it comes to AI, even though there is AI activity in each member state of ASEAN (McKinsey Global Institute, 2017). Being distant geographically and politically from the power centres of technology, the peoples of Southeast Asia have little say in AI design and governance, and little control over their personal data and digital trails when using applications offered by the US and China. The lack of technical capacity is another barrier in participation in governance, as indicated by my previous research on the digital rights movement in Southeast Asia (2019).

The above points are not exhaustive, but provide some context of the region when it comes to concerns about AI and machine learning. It is clear that AI will bring major disruptions to the region in coming years, and civil society will need to follow the technological advancements closely to understand the opportunities and risks it will bring to our work.

"идея" (idea) is licensed under CC0 1.0
"идея" (idea) is licensed under CC0 1.0

The next articles in the series will go deeper into the topic of AI policies, applications, and implications within the region. As part of this project, we are building an annotated reading list that will continue to be updated in the coming months– which you can also check out for further reading.

About the Author

Dr. Jun-E Tan is an independent researcher based in Kuala Lumpur. Her research and advocacy interests are broadly anchored in the areas of digital communication, human rights, and sustainable development. Jun-E’s newest academic paper, “Digital Rights in Southeast Asia: Conceptual Framework and Movement Building” was published in December 2019 by SHAPE-SEA in an open access book titled “Exploring the Nexus Between Technologies and Human Rights: Opportunities and Challenges in Southeast Asia”. She blogs sporadically here.

The post Human Rights Concerns on Artificial Intelligence in Southeast Asia: An Overview appeared first on Coconet.

]]>
https://coconet.social/2019/human-rights-artificial-intelligence-southeast-asia/feed/ 2
Artificial Intelligence and Human Rights: Notes from Coconet II https://coconet.social/2019/artificial-intelligence-human-rights-coconet/ https://coconet.social/2019/artificial-intelligence-human-rights-coconet/#comments Fri, 20 Dec 2019 04:13:20 +0000 https://coconet.social/?p=750 Artificial intelligence (AI) is a topic that digital rights activists in the region are concerned about, but have little understanding of. At the moment, civil society has more questions than answers to the human rights implications of machine learning and massive amounts of data collected to train the machines.

The post Artificial Intelligence and Human Rights: Notes from Coconet II appeared first on Coconet.

]]>

Artificial intelligence (AI) is a topic that digital rights activists in the region are concerned about, but have little understanding of. At the moment, civil society has more questions than answers to the human rights implications of machine learning and massive amounts of data collected to train the machines.

  • What AI policies and technologies are Southeast Asian governments adopting, and to what ends?
  • What are the positive and negative consequences in using algorithms to make policy decisions such as protecting national security or allocating social protection?
  • How do we build advocacy strategies surrounding emerging technologies? And what can we learn from cases outside the region?

During Coconet II, I found myself gravitating towards the sessions on AI and data privacy, which emerged as a clear track among the digital rights topics discussed. Sessions that I went to covered various bases, such as conceptual understanding, mapping of the current situation, as well as philosophical discussions.

AI Session at Coconet Camp

Jun-e at Coconet

In this blog post, I will describe some of the sessions I attended on AI. Erring towards the side of caution on privacy, I’m keeping the session organisers’ names out – acknowledging that all sessions were well-conducted providing plenty of food for thought.

1. Government Uses of AI – The three presenters in this session provided case examples of how governments have employed AI in various functions, such as facial recognition in surveillance (in many countries, sometimes under the name of smart city policies), algorithmic decision-making on social protection (in India, UK, and Australia), or social credit ratings where people are ranked based on their “trustworthiness” (in China).

Of particular concern was the geopolitics of AI.

We also talked about deep fakes, or the ability to doctor photos/videos with AI that creates extremely realistic-looking outcomes, and their implications. Of particular concern was the geopolitics of AI—as the US and China are the main producers of AI technologies—and possible advocacy strategies, such as using arguments based on consumer and intellectual property rights.

Artificial Intelligence
"Branding Artificial Intelligence" by Dan Sherratt is licensed under CC BY-NC-ND 4.0

There are two types of bias that can occur in an automated decision-making system.

2. Understanding AI Bias with Candy* – In this lively session, we learnt about two types of bias that can occur in an automated decision-making system. Through a series of candy-distribution activities, the session simulated different biases that can occur in a machine-learning system and the way these biases can interact and amplify each other.

Data bias refers to problems that occur when the data used to train systems or form inferences are in some way prejudiced, skewed, or where populations are missing or poorly represented. Algorithmic bias occurs when computer logic in the system encodes a pathway resulting in an unfair decision, such as privileging one group over another.

We also learned about Noise, an expected property of any statistical model that decreases the accuracy of the model by adding randomness to the system. The effect of bias can increase, sometimes with greater than additive effect, when both types of bias occur in a decision system.

To conclude the session, we broke into groups to design rules for a ‘fairer’ candy-distribution— and found that it was difficult to do this well.

3. Mapping AI in Southeast/South Asia – This was a more hands-on session. We had a mini hackathon for participants to map out the governmental, corporate, and civil society initiatives on AI in their own countries. Countries represented were Indonesia, Bangladesh, Malaysia, the Philippines, Myanmar, and Thailand; those from outside the region also worked on regional initiatives.

This is the joint document that we worked on, and it is a living document that we will still build on beyond Coconet II.

We had a mini hackathon for participants to map out the governmental, corporate, and civil society initiatives on AI.

... the idea of moving the data privacy narrative beyond the Orwell classic novel 1984.

4. Big Brother is Not The Only Narrative – I co-hosted this session, where we discussed the idea of moving the data privacy narrative beyond the Orwell classic novel 1984, where state surveillance (seen as the Big Brother) is used to rule with fear, leading to thought control and self-censorship.

An overlooked narrative, which may be more relevant to the current situation, comes from Franz Kafka’s The Trial, where the main character of the novel is accused of committing a crime of which he has no knowledge, based on some data in some database that he is unable to find. In this second story, a person’s data is used to make important decisions about his life, but he is powerless to challenge the opaque system in place.

He has no say or knowledge in the collection and usage of his data. The system is indifferent towards him as a human being beyond his papers and is uninterested in controlling his thoughts, which is the situation in many public and private uses of AI.

Different metaphors allow us to think about the problems differently, and we should come up with more robust storytelling to help us communicate our advocacy better.

AI Session at Coconet, Image by M Bree

The sessions were very helpful for me, as a participant and a session organiser, to formulate and articulate the problems associated with machine learning from a digital rights perspective. They were also useful to form an initial community concerned about AI, continued through the AI channel in the Coconet Mattermost platform, which is one of its biggest channels with 48 members so far.

Certainly, our conversations on AI in the region need to extend beyond Coconet II, as this is an area that will only increase in importance with time, as more people get connected digitally and more governments adopt these technologies. For this, I am working with EngageMedia on a small research project on understanding the state of the art of AI in Southeast Asia to inform the work of digital rights advocates in the region. More details will come soon, and the outputs will be shared with all.

*

I’d like to thank Laura Summers from Debias.AI for her help in editing the part on AI and Candy 🙂

About the Author

Dr. Jun-E Tan is an independent researcher based in Kuala Lumpur. Her research and advocacy interests are broadly anchored in the areas of digital communication, human rights, and sustainable development. Jun-E’s newest academic paper, “Digital Rights in Southeast Asia: Conceptual Framework and Movement Building” was published in December 2019 by SHAPE-SEA in an open access book titled “Exploring the Nexus Between Technologies and Human Rights: Opportunities and Challenges in Southeast Asia”. She blogs sporadically here.

The post Artificial Intelligence and Human Rights: Notes from Coconet II appeared first on Coconet.

]]>
https://coconet.social/2019/artificial-intelligence-human-rights-coconet/feed/ 2