Artificial Intelligence – Coconet https://coconet.social A Platform for Digital Rights Movement Building in the Asia-Pacific Thu, 12 Aug 2021 04:21:08 +0000 en-US hourly 1 https://wordpress.org/?v=5.8.1 https://coconet.social/wp-content/uploads/2019/07/favicon-150x150.png Artificial Intelligence – Coconet https://coconet.social 32 32 เมื่อ AI กลายเป็นอาวุธที่มีผลกระทบต่อสิทธิพลเมืองและสิทธิทางการเมือง https://coconet.social/2020/ai-weapon-civil-political-rights-th/ https://coconet.social/2020/ai-weapon-civil-political-rights-th/#respond Tue, 11 Aug 2020 07:56:57 +0000 https://coconet.social/?p=5535 ในบทความนี้ เราจะมาพิจารณากันในรายละเอียดว่า จะเกิดอะไรขึ้นเมื่อ AI ถูกพัฒนาเพื่อนำมาใช้เป็นอาวุธเพื่อนำมาละเมิดสิทธิพลเมืองและสิทธิทางการเมือง (civil and political rights – CPR) เช่น สิทธิในการมีชีวิตและสิทธิในการกำหนดชะตากรรมตนเอง และรวมทั้งสิทธิในการแสดงออก เสรีภาพของปัจเจกบุคคล สิทธิในการนับถือศาสนา การสมาคม และสิทธิอื่นๆ

The post เมื่อ AI กลายเป็นอาวุธที่มีผลกระทบต่อสิทธิพลเมืองและสิทธิทางการเมือง appeared first on Coconet.

]]>

Read this article in English / อ่านบทความนี้ใน ภาษาอังกฤษ

แปลไทยโดย ธีรดา ณ จัตุรัส

บทความนี้เป็นชิ้นที่สามของซีรีย์บทความที่เกี่ยวกับผลกระทบทางสิทธิมนุษยชนที่เกิดจากปัญญาประดิษฐ์ (Artificial intelligence: AI) ในบริบทของเอเชียตะวันออกเฉียงใต้ ความเดิมจากบทความที่แล้ว เราได้พูดถึงนัยยะสำคัญของ AI ที่มีผลกระทบต่อสิทธิทางเศรษฐกิจ สังคม และวัฒนธรรม โดยได้กล่าวถึงประโยชน์ของการใช้ AI ในด้านการพัฒนาหากนำไปใช้อย่างเหมาะสม แต่ยังคงมีความกังวลทางด้านสิทธิมนุษยชนที่เกี่ยวกับความปลอดภัยของ AI และผลลัพธ์อันไม่พึงประสงค์ที่อาจจะเกิดขึ้นได้

ในบทความนี้ เราจะมาพิจารณากันในรายละเอียดว่า จะเกิดอะไรขึ้นเมื่อ AI ถูกพัฒนาเพื่อนำมาใช้เป็นอาวุธที่ละเมิดสิทธิพลเมืองและสิทธิทางการเมือง (civil and political rights – CPR) เช่น สิทธิในการมีชีวิตและสิทธิในการกำหนดชะตากรรมตนเอง และรวมทั้งสิทธิในการแสดงออก เสรีภาพของปัจเจกบุคคล สิทธิในการนับถือศาสนา การสมาคม และสิทธิอื่นๆ

ด้วยพื้นที่อันจำกัดในบทความชิ้นนี้ จึงเป็นไม่ได้ที่กล่าวถึงผลกระทบต่อสิทธิพลเมืองและสิทธิทางการเมืองได้ทุกประเด็น แต่เราจะเน้นถึง 3 ภัยคุกคามหลัก คือ การสอดส่องมวลชนโดยรัฐ (mass surveillance) เทคนิคการเจาะกลุ่มเป้าหมายเฉพาะเพื่อมุ่งเปลี่ยนแปลงผลการเลือกตั้ง และการใช้ AI ในการสร้างข้อมูลที่ตั้งใจผิดหรือทำให้เข้าใจผิด (disinformation) ส่วนผู้ที่สนใจค้นหาเพิ่มเติมสามารถดูได้ที่รายงานเกี่ยวกับการนำ AI มาใช้ในทางที่ไม่ดีที่ส่งผลกระทบให้เกิดอันตรายทางดิจิทัล ทางร่างกาย และทางความมั่นคงทางการเมือง

AI สามารถนำมาใช้เป็นอาวุธเพื่อนำมาละเมิดสิทธิพลเมืองและสิทธิทางการเมือง

AI ถูกนำมาใช้เพื่อการสอดส่องมวลชนโดยรัฐบาล

ความเป็นส่วนตัวถือเป็นสิทธิมนุษยชนขั้นพื้นฐาน และการละเมิดสิทธิความเป็นส่วนตัวย่อมส่งผลกระทบต่อสิทธิอื่นๆ เช่น สิทธิทางการแสดงออก การชุมนุม และการรวมกลุ่มสมาคม ในภูมิภาคเอเชียตะวันออกเฉียงใต้ หากพิจารณาบรรทัดฐานของประชาธิปไตยของรัฐบาลเกือบทุกประเทศมีแนวโน้มเอนเอียงไปทางฝั่งอำนาจนิยม รัฐบาลเหล่านี้ได้แสดงให้เห็นว่าสามารถขยายการปราบปรามผู้ที่เห็นต่างทางการเมืองอย่างกว้างขวาง เช่น การบังคับใช้กฎหมายที่รุนแรงในการลงโทษ หรือการใช้มาตรการนอกกฎหมายที่มาคุกคามผู้ที่เห็นต่าง

เมื่อพิจารณาความสามารถของ Machine Learning ทำให้การโยกย้ายชุดข้อมูลมหาศาลเป็นเรื่องทำที่ได้ง่ายดายและราคาไม่แพงแบบที่ไม่เคยมีมาก่อน เป็นผลทำให้การสอดส่องมวลชนมีราคาถูกลงและมีประสิทธิภาพเพิ่มมากขึ้นอีกด้วย ภายใต้เงื่อนไขเหล่านี้ทำให้บุคคลที่มีอิทธิพลสามารถที่จะสืบทอดอำนาจได้ง่ายมากขึ้น

ตารางด้านล่างนี้ได้นำข้อมูลมาจาก AI Global Surveillance Index (AIGS 2019) โดยได้คัดเลือก 7 ประเทศจากภูมิภาคเอเชียตะวันออกเฉียงใต้ (ซึ่งไม่รวมถึงบรูไน เวียดนาม กัมพูชา และติมอร์เลสเต เนื่องจากไม่มีการเก็บข้อมูล) จากดัชนีนี้ พบว่าเกือบทุกประเทศในภูมิภาคนี้โดยมากจะใช้เทคโนโลยีเพื่อสอดส่องอย่างสองประเภทหรือมากกว่านั้น เช่น ในรูปแบบการใช้เทคโนโลยีการสอดส่องในเมืองอัจฉริยะ (smart city) หรือเมืองที่ปลอดภัย การใช้เทคโนโลยีจดจำใบหน้า (facial recognition) และวิธีการตรวจตราแบบ smart policing จากดัชนีนี้เรายังพบอีกว่า ประเทศทั้งหมดเหล่านี้ได้นำเข้าเทคโนโลยีเพื่อสอดส่องมาจากประเทศจีน รวมถึงการซื้อเทคโนโลยีจากสหรัฐอเมริกาอีกด้วยถึงแม้ว่าจะน้อยกว่าจีนก็ตาม

Table adapted from the AI Global Surveillance Index (AIGS 2019)

เพื่อให้ภาพที่กว้างขึ้น มีอย่างน้อย 75 ประเทศใน 176 ประเทศที่ปรากฏอยู่ในรายงาน AIGS 2019 กำลังใช้ AI เพื่อการสอดส่องประชาชน และหลายประเทศก็จัดอยู่ในกลุ่มประเทศแนวเสรีนิยมประชาธิปไตยด้วย โดยดัชนีนี้ไม่ได้แบ่งแยกการใช้ AI แบบที่ถูกกฎหมายหรือผิดกฎหมาย แต่เมื่อกลับมาพิจารณาบริบทของเอเชียตะวันออกเฉียงใต้ ภาคประชาสังคมอาจต้องเตรียมพร้อมในการเฝ้าระวังการใช้ AI เพื่อจุดประสงค์ในการสอดส่องโดยรัฐบาล

รายงานฉบับหนึ่งจาก CSIS ชี้ให้เห็นถึงการใช้ “Safe City” ซึ่งพัฒนาโดยบริษัทยักษ์ใหญ่ Huawei กลายมาเป็นทางเลือกให้หลายประเทศในกลุ่มที่อยู่ในสถานะไม่มีเสรีภาพ และเป็นที่น่ากังวลว่าประเทศจีนกำลังส่งออกระบอบอำนาจนิยม (authoritarianism) ไปในต่างประเทศ ทางประเทศจีนเองได้ใช้เทคโนโลยีการจดจำใบหน้า (ซึ่งพัฒนาโดยบริษัทจีนที่มีความเชี่ยวชาญทาง AI อาทิ Yitu, Megvii, SenseTime และ CloudWalk) ซึ่งนำมาใช้ทำโปรไฟล์และติดตามชาวมุสลิมอุยกูร์ และนั่นยังเป็นที่รู้จักกันดีว่าชาวอุยกูร์จำนวนเกือบถึงหนึ่งล้านคนได้ถูกคุมขังในค่ายกักกันแบบเผด็จการเพื่อปรับทัศนคติให้นักโทษ (“re-education camps”) ทำให้เห็นภาพของความเป็นไปได้ที่กลายเป็นข้อกังวลของการละเมิดสิทธิมนุษยชนและการสอดส่องมวลชน

13 ประเทศในภูมิภาคเอเชียมีการสอดส่องทางโซเชียลมีเดีย

นอกจากนี้ยังมีรูปแบบการสอดส่องโดยรัฐที่รวมไปถึงการสอดส่องผ่านโซเซียลมีเดียและการใช้ AI ในการเก็บและวิเคราะห์ข้อมูลส่วนบุคคล รวมไปถึงเมตะดาต้าจากแพลตฟอร์มของโซเซียลมีเดียต่างๆ รายงาน Freedom on the Net (FOTN) ประจำปี 2562 ระบุว่า 13 ประเทศ จาก 15 ประเทศในภูมิภาคเอเชียที่กำลังมีการสอดส่องทางโซเซียลมีเดียหรืออยู่ในช่วงที่กำลังพัฒนาโปรแกรม AI เพื่อจุดประสงค์นี้อยู่ แต่รายงานไม่ได้ระบุว่าประเทศไหนจัดอยูในกลุ่มที่กำลังใช้ หรือกำลังพัฒนาโปรแกรม AI นี้อยู่ แต่ก็มีความเป็นไปได้ค่อนข้างสูงสำหรับ 8 ประเทศที่อยู่ในรายงานฉบับนี้ ได้แก่ ฟิลิปปินส์ มาเลเซีย สิงคโปร์ อินโดนีเซีย กัมพูชา เมียนมา ไทย และเวียดนาม

โดยรายงาน Freedom on the Net ยังได้เน้นไปที่ฟิลิปปินส์และเวียดนาม ซึ่งจากรายงานเมื่อปี 2561 เวียดนามได้ประกาศจัดตั้งหน่วยงานแห่งชาติที่มีจุดประสงค์ในการสอดส่องดูแลโดยเฉพาะ โดยมีการติดตั้งเครื่องมือเทคโนโลยีที่ช่วยในการวิเคราะห์ ประเมินผล และคัดกรองโพสต์หลายล้านข้อความจากโซเซียลมีเดีย และในปีเดียวกันนี้ กองทัพสหรัฐฯได้ฝึกเจ้าหน้าที่ทางการของฟิลิปปินส์ เพื่อก่อตั้งหน่วยงานใหม่ที่ไว้สอดส่องทางโซเซียลมีเดีย ซึ่งรายงานระบุว่า หน่วยงานนี้จะป้องกันการแพร่กระจายของข้อความที่บิดเบือนโดยกลุ่มผู้ก่อการร้าย

การสอดส่องทางดิจิทัลโดยรัฐบาลยังมีผลกว้างออกไปนอกจากแพลตฟอร์มโซเซียลมีเดีย โดยในปี 2561 หน่วยต่อต้านอาชญากรรมแก่เยาวชนบนอินเตอร์เน็ตแห่งมาเลเซีย (Malaysia Internet Crime Against Children – Micac) ที่อยู่ภายใต้สังกัดกรมตำรวจแห่งประเทศมาเลเซีย ได้แสดงความสามารถทางการสอดส่องของหน่วยงานให้แก่นักข่าวท้องถิ่น โดยการติดตามผู้ใช้ที่มีเนื้อหาอนาจารในลักษณะแบบเรียลไทม์ และได้สร้างสิ่งที่เรียกว่า “ห้องสมุดแห่งข้อมูลของบัญชีผู้ใช้โซเซียลมีเดีย” (data library) นี่ถือเป็นการละเมิดสิทธิความเป็นส่วนตัว เช่นเดียวกับแถลงการณ์โดยกลุ่มภาคประชาสังคมใน ASEAN

Image by Bark 003 via Cool SILH. Public Domain .

เทคนิคการเจาะจงกลุ่มเป้าหมาย เพื่อเปลี่ยนพฤติกรรมของผู้มีสิทธิเลือกตั้ง

ในภูมิภาคเอเชียตะวันออกเฉียงใต้นี้ ภาคประชาสังคมได้มุ่งจับตามองการสอดส่องจากรัฐมากกว่าจากบริษัทเอกชน อย่างไรก็ดี ผลกระทบที่มาจากการสอดส่องที่ส่งเสริมโดยบริษัทต่างๆ โดยเฉพาะบริษัทเทคโนโลยียักษ์ใหญ่อย่าง Facebook และ Google อาจจะมีผลกระทบที่เช่นเดียวกับการสอดส่องจากรัฐ หรือแม้แต่การสอดส่องที่ส่งเสริมโดยบริษัทต่างๆ จะมีผลกระทบมากกว่า ลองคิดดูสิว่า เมื่อมีเทคโนโลยี AI เข้ามาเกี่ยวข้องกับข้อมูลมากมายอย่างที่จินตนาการไม่ถึง เทคโนโลยี AI นี่เองที่จะช่วยให้การบริการภาคธุรกิจเพื่อการคาดการณ์และนำมาเปลี่ยนพฤติกรรมของผู้ใช้บริการเพื่อตอบสนองต่อบริษัทโฆษณา ปัญหานี้มีนัยยะที่สำคัญ เมื่อบริษัทโฆษณาทั้งหลายได้ผันตัวเองมาเป็นผู้บริการด้านโฆษณาทางดิจิทัลให้กับกลุ่มการเมืองต่างๆ ซึ่งตั้งเป้าหมายเพื่อเปลี่ยนความคิดเห็นของผู้คน หรือพฤติกรรมของผู้มีสิทธิเลือกตั้ง และการเปลี่ยนความคิดเห็นสาธารณะหรือพฤติกรรมการเลือกตั้ง ย่อมกระทบต่อสิทธิในการเลือกตั้งของปัจเจกบุคคล

เมื่อ 5 ปีก่อน นักวิจัยหลายคนพบว่า machines สามารถล่วงรู้เกี่ยวกับตัวคุณเองได้ดีกว่าใครๆ ซึ่งเรียนรู้มาจากการที่คุณกด Like บน Facebook นั่นเอง (เพียงแค่ machines ดูจากการที่คุณกด Like จำนวน 300 ครั้งเท่านั้น machines สามารถคาดการณ์จากพฤติกรรมของคุณมากกว่าแฟนของคุณเสียอีก และข้อมูลเพียงแค่จากการที่คุณกด Link จำนวน 10 ครั้งเท่านั้นก็ทำให้ machines ประมวลผลและรู้จักตัวคุณดีกว่าเพื่อนร่วมงานของคุณเสียอีก) นับตั้งแต่ที่มีข่าวอื้อฉาวเกี่ยวกับ AI ใน Facebook อย่างกรณีการละเมิดความเป็นส่วนตัวของผู้ใช้บริการโดยบริษัท Cambridge Analytica ซึ่งสามารถเข้าถึงข้อมูลส่วนตัวของผู้ใช้บริการบน Facebook เป็นจำนวนสิบๆล้านคนอย่างผิดกฏหมาย โดยที่บริษัทสามารถเก็บและสร้างข้อมูลของผู้ใช้ Facebook ที่คลิกตอบแบบทดสอบบุคคลิกภาพของ Cambridge Analytica แล้วนำข้อมูลนั้นมาจัดทำโปรไฟล์เกี่ยวกับลักษณะทางจิตวิทยาของผู้บริโภค ทำเกิดการใช้เทคนิคเลือกกลุ่มเป้าหมายที่เฉพาะเจาะจง เพื่อมีจุดประสงค์ในการโน้มน้าวการตัดสินใจลงคะแนนเสียงต่อผู้เข้าแข่งชิงตำแหน่งพรรคนั้นๆ หรือที่เรียกว่า microtargeting ด้วยข้อความโฆษณาหลากหลายที่ทำให้ผลการเลือกตั้งประธานาธิบดีในสหรัฐอเมริกาเมื่อปี 2559 มีความผันผวน ยังมีการกล่าวถึงด้วยอีกว่า กลยุทธ์แบบเดียวกันนี้ได้ถูกนำมาใช้ในการจูงใจผู้เลือกตั้งในสหราชอาณาจักร และส่งผลกระทบต่อผลการลงประชามติจากการออกจากยุโรปของสหราชอาณาจักร หรือ Brexit

ด้วยการมีผู้ใช้บริการถึง 2 พันล้านคน Facebook ได้ใช้ข้อมูลมโหฬารเหล่านี้ในการฝึกระบบ Machine Learning เพื่อการทำนายพฤติกรรมต่างๆ ของผู้ใช้บริการ

นับแต่ตั้งแต่ที่ Cambridge Analytica ได้ปิดตัวลง แต่เรื่องอื้อฉาวนี้ได้ทำให้มีการวิจารณ์ถกเถียงเกี่ยวกับโมเดลธุรกิจของบริษัทที่นำการใช้ microtargeting ในการโฆษณาทางการเมือง ผู้วิจารณ์ทางการเมืองได้ชี้แจงว่าทาง Facebook เองก็ได้ใช้โมเดลธุรกิจแบบ microtargeting เป็นทุนเดิมอยู่แล้ว จะต่างก็ตรงที่โมเดลธุรกิจของ Facebook มีขนาดใหญ่กว่าและมีพลังมากว่า ด้วยขนาดข้อมูลผู้ใช้บริการที่มีจำนวนมหาศาลถึง 2 พันล้านคนได้เอื้ออำนวยให้ Facebook สามารถทำโมเดลธุรกิจแบบ microtargeting นี้ได้ ยิ่งไปกว่านั้น Facebook ได้ใช้ข้อมูลมโหฬารเหล่านี้ในการฝึกระบบ Machine Learning เพื่อการทำนาย เช่น เมื่อผู้ใช้รายบุคคลกำลังจะเปลี่ยนไปใช้สินค้ายี่ห้ออื่นๆ และ Facebook เองยังเปิดให้บริการระบบอัฉริยะที่นำมาทำนายอุปนิสัยการจับจ่ายออนไลน์ของผู้ใช้นี้ให้แก่บริษัทอื่นๆ ที่ยอมจ่ายค่าบริการ นี่แทบจะไม่ต่างกันเลยระหว่างการใช้โมเดลธุรกิจเพื่อการโฆษณา และการโฆษณาทางการเมือง และทำให้ Twitter ได้ประกาศยับยั้งการโฆษณาทางการเมืองแล้ว และ Google เองก็หยุดการใช้ microtargeting ในการโฆษณาทางการเมืองอีกด้วย

จากสถิติ พบว่า 86% ของผู้ที่ใช้อินเตอร์เน็ตในภูมิภาคเอเชียตะวันออกเฉียงใต้มีบัญชี Facebook และทำให้เกิดความกังวลเกี่ยวกับการใช้ microtargeting ที่ส่งผลกระทบต่อผลการเลือกตั้งหลายๆแห่งภายในภูมิภาคนี้ จากรายงานฉบับหนึ่งซึ่งได้ติดตามประเด็นการบิดเบือนข้อมูลทางดิจิทัลในช่วงการเลือกตั้งกลางเทอมในฟิลิปปินส์ เมื่อปี 2562 ซึ่งได้ชี้แจงว่า Facebook Boosts (ซึ่งเป็นกลไกทางโฆษณาของ Facebook นั่นเอง) เป็นปัจจัยสำคัญต่อการรณรงค์เลือกตั้งในท้องถิ่น นอกจากนี้ กลไกทางโฆษณาลักษณะ Facebook Boosts นี้ยังได้ถูกนำมาใช้ประชาสัมพันธ์เนื้อหาในแง่ลบเพื่อการโจมตีคู่แข่งทางการเมืองจากฝ่ายตรงข้าม ในอินโดนีเชีย ผู้เชี่ยวชาญได้เตือนเกี่ยวกับการตั้งเป้าพฤติกรรมของผู้เลือกตั้ง และการนำยุทธศาสตร์ต่างๆ เกี่ยวกับการใช้ microtargeting เพื่อการหาประโยชน์จากข้อมูลส่วนตัวของผู้เลือกตั้งในอินโดนีเชีย และเพื่อส่งผลกระทบต่อผลการเลือกตั้งในช่วงระยะเวลาการเลือกตั้งทั่วไปในปี 2562

Image via SVG Silh. Public Domain.
Image via SVG Silh. Public Domain.

เนื้อหาที่สร้างโดย AI ยิ่งเติมเชื้อเพลิงให้กับแคมเปญที่สร้างข้อมูลบิดเบือน

ในยุคดิจิทัล ข่าวลือได้ถูกทำให้มีประสิทธิผลมากขึ้นกว่าแต่ก่อน ด้วยธรรมชาติของเครือข่ายในการติดต่อสื่อสาร ด้วยเหตุผลนี้ทำให้เกิดการบิดเบือนข้อมูลหรือข่าวปลอม (fake news) ได้กลายมาเป็นปัญหาใหญ่ทั่วโลก รวมทั้งในภูมิภาคเอเชียตะวันออกเฉียงใต้เองด้วย ตัวอย่างที่เศร้าใจที่สุด เห็นได้จากการผลกระทบที่ทำให้เกิดการฆ่าล้างเผ่าพันธุ์ของชาวโรฮิงยาในเมียนมา ซึ่งมีรายงานว่าปัญหานี้เกิดมาจากการกระพือข้อมูลที่บิดเบือนและคำพูดที่สร้างความเกลียดชัง (hate speech) บนโซเซียลมีเดีย

ยิ่งไปกว่านั้น ธุรกิจแห่งการสร้างข้อมูลที่บิดเบือนยังได้งอกงามภายในภูมิภาคนี้ เช่น ในอินโดนีเชีย แหล่งผลิตข่าวปลอมหลายแห่งถูกใช้ปั่นเนื้อหาออกมาเป็นจำนวนมาก โดยตั้งเป้าโจมตีคู่แข่งทางการเมืองฝั่งตรงข้าม และเพื่อสนับสนุนบริการให้กับลูกค้าของแหล่งผลิตข่าวปลอมนั้นๆ อย่างเช่น ในฟิลิปปินส์ บริษัทประชาสัมพันธ์หลายแห่ง ได้ปลูกฝังค่านิยมในชุมชนออนไลน์พร้อมทั้งได้ใส่ข้อความที่บิดเบือนและข้อความที่เกี่ยวกับการเมือง โดยที่บริษัทเหล่านี้ได้รับการช่วยเหลือจากกลุ่มคนที่มีผู้ติดตามออนไลน์จำนวนมาก (influencers) ในกลุ่มที่มีลักษณะมีความเชี่ยวชาญเรื่องใดเรื่องหนึ่งเป็นพิเศษ ทั้งแบบเป็น micro และ nano เมื่อผู้ที่เกี่ยวข้องกับธุรกิจที่ดำเนินงานแบบไร้จรรยาบรรณเหล่านี้ได้สร้างโครงสร้างเพื่อการผลิตข้อมูลที่บิดเบือนและกอบโกยกำไร ทำให้การใช้ AI ในธุรกิจประเภทนี้ยิ่งจะสร้างข้อมูลที่บิดเบือนได้ง่ายและซับซ้อนมากยิ่งขึ้น

อีกหนึ่งเทคโนโลยีที่น่ากลัวคือสิ่งที่เรียกว่า deepfake โดยมีการสร้างเนื้อหาวิดีโอด้วยระบบ AI หรือรู้จักในว่า “synthetic media” ซึ่งเป็นสื่อแบบผสมผสานรวมทั้งการตัดต่อไฟล์วิดีโอหรือไฟล์เสียงเพื่อทำให้ดูและฟังดูเหมือนราวกับว่ามาจากแหล่งข้อมูลที่แท้จริง เทคโนโลยี deepfake ได้สร้างความจริงในช่วงเวลาหนึ่งที่ยังไม่มีใครสามารถแยกแยะได้ว่านี่ไม่ใช่แหล่งข้อมูลจริง ซึ่งบางทีกว่าจะมีคนรู้ว่าเป็นข้อมูลปลอมก็เป็นผ่านไปเป็นเดือน และด้วยต้นทุนที่ราคาถูกในการผลิตยิ่งทำให้มือใหม่เกิดขึ้นได้ง่ายในการสร้าง deepfake ซึ่งในตอนนี้ได้มีคนนำเทคนิคนี้มาใช้ผลิตคลิปวิดีโออนาจารของเหล่าคนดัง และมีความเป็นไปได้หลายแบบที่ deepfake จะถูกนำมาใช้ในการสร้างข้อมูลที่บิดเบือนภายในภูมิภาคนี้ อย่างน้อยมีหนึ่งในตัวอย่างคือ การที่นักการเมืองในประเทศมาเลเซียผู้หนึ่งอ้างว่า ได้มีคลิปวิดีโอ sex ของเขาถูกผลิตโดย deepfake เพื่อการโจมตีทางการเมือง

คลิปวิดีโอข้างต้นได้อธิบายให้เห็นว่าทำไมเทคโนโลยี deepfake จึงเป็นเรื่องที่น่ากังวลและทำไมพวกเราควรต้องระมัดระวังในเรื่องนี้ องค์กร WITNESS ได้เก็บรวบรวมแหล่งข้อมูลที่น่าสนใจสำหรับผู้ที่สนใจประเด็นเกี่ยวการสร้างวิดีโอแบบ deepfake

อีกกรณีคือที่ AI สามารถทำอะไรได้อีกบ้างในการผลิตเนื้อหาที่สมจริงออกมา ในบทความนี้ New York Times ได้เล่าถึงการคลิกเพียงปุ่มเดียว ก็สามารถผลิตคอมเมนต์ทางการเมืองหรือข้อมูลใดๆที่บิดเบือนออกมาได้ อย่างที่พอจะเห็นได้ว่ามีการลงทุนในการสร้างกองกำลังไซเบอร์เพื่อรุมโจมตีความคิดเห็นของฝ่ายตรงข้ามและหากใช้ machines มาใช้ทดแทนคนจริงๆ เพื่อการผลิตเนื้อหาที่สมจริงออกมาให้ดูเหมือนราวกับว่าเป็นมนุษย์เองที่เขียนข้อความเหล่านั้น ในรายงานอีกฉบับหนึ่งยังได้เตือนถึงความน่ากลัวของการทำข่าวปลอมที่ผลิตโดย AI มาอีกด้วย และระบบนั้นเรียกว่า GROVER ที่สามารถผลิตบทความปลอมที่เขียนขึ้นมาจากพาดหัวข่าวชิ้นเดียวเท่านั้น ทั้งยังสามารถเลียนแบบข่าวต่างๆที่รายงานโดยสำนักงานข่าวชั้นนำอย่าง The Washington Post หรือ The New York Times อีกด้วย

ในยุคที่เรียกว่า “ยุคหลังความจริง” หรือ “post-truth” นั้นยังต้องเผชิญกับอีกหลากหลายความท้าทาย คุณสามารถเช็ครูปถ่ายของใบหน้าของบุคคลต่างๆที่ผลิตโดยคอมพิวเตอร์แล้วอัพโหลดไปบนเว็บไซต์ดังต่อไปนี้ ThisPersonDoesNotExist.com หรือ WhichFaceIsReal.com ลองดูถึงความสมจริงของรูปเหล่านี้ เว็บไซต์เหล่านี้เองยังช่วยผลิตรูปภาพนั้นๆได้อย่างง่ายดายเพื่อนำไปใช้ในโปรไฟล์ปลอมบนโซเชียลมีเดีย

บทสรุป

ดังที่บทความนี้ได้กล่าวไปว่าความสามารถของ AI ได้นำมาใช้ในฐานะที่เปรียบเสมือนอาวุธ เพื่อบรรลุวัตถุจุดประสงค์ที่ขัดกับสิทธิพลเมืองและสิทธิทางการเมืองได้ ขณะที่ฝั่งภาคประชาสังคมในภูมิภาคนี้ยังคงต้องคอยจับตามองเพื่อติดตามเทรนด์ของเทคโนโลยีและแอปพลิเคชันใหม่ๆของ AI เพื่อจะไม่ให้ผู้เล่นอื่นนำไปใช้ในทางผิดแบบที่เราไม่ทันสังเกตเห็น เพราะด้วยประสิทธิภาพของเทคโนโลยี Machine Learning และ AI ที่เดินหน้าพัฒนาอย่างต่อเนื่อง ภาคประชาสังคมและนักปกป้องสิทธิมนุษยชนจำเป็นต้องเข้าไปมีส่วนร่วมเพื่อออกแบบระบอบการกำกับดูแลของ AI และผลักดันให้บริษัทเทคโนโลยีทั้งหลายต้องมีความรับผิดชอบต่อการพัฒนาเทคโนโลยีของตน เพื่อมุ่งให้เป็นอาวุธในแบบที่ช่วยปกป้องและส่งเสริมสิทธิมนุษยชนทั่วโลกได้

เกี่ยวกับผู้เขียน

Dr. Jun-E Tan เป็นนักวิจัยอิสระ อาศัยอยู่ในเมืองกัวลาลัมเปอร์ ประเทศมาเลเซีย งานวิจัยและการสนับสนุนของ Jun-E นั้นเกี่ยวกับประเด็นการสื่อสารทางดิจิทัล สิทธิมนุษยชน และการพัฒนาที่ยั่งยืน บทความในปีวิจัยล่าสุดของ Jun-E มีชื่อว่า “สิทธิมนุษยชนทางดิจิทัลในภูมิภาคเอเชียอาคเนย์: กรอบแนวคิดและการสร้างขบวนการเคลื่อนไหว” (Digital Rights in Southeast Asia: Conceptual Framework and Movement Building) ได้เผยแพร่ในหนังสือ open access (สามารถ download เพื่ออ่านได้ฟรี) ที่มีชื่อว่า “การสำรวจความเกี่ยวเนื่องระหว่างเทคโนโลยีต่างๆและสิทธิมนุษยชน: โอกาสและความท้าทายที่หลากหลายในเอเชียอาคเนย์” (Exploring the Nexus Between Technologies and Human Rights: Opportunities and Challenges in Southeast Asia) จัดพิมพ์โดยสำนักพิมพ์ SHAPE-SEA เมื่อเดือนธันวาคม 2562 นอกจากนี้ Jun-E ยังได้เขียนบทความลงในบล็อกของตนเองอยู่เป็นประจำ

คุณสามารถอ่าน บทความแรก และบทความที่สองในซีรีย์เดียวกันนี้ที่เกี่ยวกับผลกระทบสิทธิมนุษยชนที่มาจากปัญญาประดิษฐ์ (Artificial Intelligence – AI) ในบริบทของเอเชียตะวันออกเฉียงใต้

The post เมื่อ AI กลายเป็นอาวุธที่มีผลกระทบต่อสิทธิพลเมืองและสิทธิทางการเมือง appeared first on Coconet.

]]>
https://coconet.social/2020/ai-weapon-civil-political-rights-th/feed/ 0
เมื่อ AI กลายเป็นอาวุธที่มีผลกระทบต่อสิทธิพลเมืองและสิทธิทางการเมือง https://coconet.social/2020/%e0%b9%80%e0%b8%a1%e0%b8%b7%e0%b9%88%e0%b8%ad-ai-%e0%b8%81%e0%b8%a5%e0%b8%b2%e0%b8%a2%e0%b9%80%e0%b8%9b%e0%b9%87%e0%b8%99%e0%b8%ad%e0%b8%b2%e0%b8%a7%e0%b8%b8%e0%b8%98%e0%b8%97%e0%b8%b5%e0%b9%88/ https://coconet.social/2020/%e0%b9%80%e0%b8%a1%e0%b8%b7%e0%b9%88%e0%b8%ad-ai-%e0%b8%81%e0%b8%a5%e0%b8%b2%e0%b8%a2%e0%b9%80%e0%b8%9b%e0%b9%87%e0%b8%99%e0%b8%ad%e0%b8%b2%e0%b8%a7%e0%b8%b8%e0%b8%98%e0%b8%97%e0%b8%b5%e0%b9%88/#respond Tue, 11 Aug 2020 07:56:25 +0000 https://coconet.social/2020/%e0%b9%80%e0%b8%a1%e0%b8%b7%e0%b9%88%e0%b8%ad-ai-%e0%b8%81%e0%b8%a5%e0%b8%b2%e0%b8%a2%e0%b9%80%e0%b8%9b%e0%b9%87%e0%b8%99%e0%b8%ad%e0%b8%b2%e0%b8%a7%e0%b8%b8%e0%b8%98%e0%b8%97%e0%b8%b5%e0%b9%88/ ในบทความนี้ เราจะมาพิจารณากันในรายละเอียดว่า จะเกิดอะไรขึ้นเมื่อ AI ถูกพัฒนาเพื่อนำมาใช้เป็นอาวุธเพื่อนำมาละเมิดสิทธิพลเมืองและสิทธิทางการเมือง (civil and political rights – CPR) เช่น สิทธิในการมีชีวิตและสิทธิในการกำหนดชะตากรรมตนเอง และรวมทั้งสิทธิในการแสดงออก เสรีภาพของปัจเจกบุคคล สิทธิในการนับถือศาสนา การสมาคม และสิทธิอื่นๆ

The post เมื่อ AI กลายเป็นอาวุธที่มีผลกระทบต่อสิทธิพลเมืองและสิทธิทางการเมือง appeared first on Coconet.

]]>

Read this article in English

แปลไทยโดย ธีรดา ณ จัตุรัส

บทความนี้เป็นชิ้นที่สามของซีรีย์บทความที่เกี่ยวกับผลกระทบทางสิทธิมนุษยชนที่เกิดจากปัญญาประดิษฐ์ (Artificial intelligence: AI) ในบริบทของเอเชียตะวันออกเฉียงใต้ ความเดิมจากบทความที่แล้ว เราได้พูดถึงนัยยะสำคัญของ AI ที่มีผลกระทบต่อสิทธิทางเศรษฐกิจ สังคม และวัฒนธรรม โดยได้กล่าวถึงประโยชน์ของการใช้ AI ในด้านการพัฒนาหากนำไปใช้อย่างเหมาะสม แต่ยังคงมีความกังวลทางด้านสิทธิมนุษยชนที่เกี่ยวกับความปลอดภัยของ AI และผลลัพธ์อันไม่พึงประสงค์ที่อาจจะเกิดขึ้นได้

ในบทความนี้ เราจะมาพิจารณากันในรายละเอียดว่า จะเกิดอะไรขึ้นเมื่อ AI ถูกพัฒนาเพื่อนำมาใช้เป็นอาวุธที่ละเมิดสิทธิพลเมืองและสิทธิทางการเมือง (civil and political rights – CPR) เช่น สิทธิในการมีชีวิตและสิทธิในการกำหนดชะตากรรมตนเอง และรวมทั้งสิทธิในการแสดงออก เสรีภาพของปัจเจกบุคคล สิทธิในการนับถือศาสนา การสมาคม และสิทธิอื่นๆ

ด้วยพื้นที่อันจำกัดในบทความชิ้นนี้ จึงเป็นไม่ได้ที่กล่าวถึงผลกระทบต่อสิทธิพลเมืองและสิทธิทางการเมืองได้ทุกประเด็น แต่เราจะเน้นถึง 3 ภัยคุกคามหลัก คือ การสอดส่องมวลชนโดยรัฐ (mass surveillance) เทคนิคการเจาะกลุ่มเป้าหมายเฉพาะเพื่อมุ่งเปลี่ยนแปลงผลการเลือกตั้ง และการใช้ AI ในการสร้างข้อมูลที่ตั้งใจผิดหรือทำให้เข้าใจผิด (disinformation) ส่วนผู้ที่สนใจค้นหาเพิ่มเติมสามารถดูได้ที่รายงานเกี่ยวกับการนำ AI มาใช้ในทางที่ไม่ดีที่ส่งผลกระทบให้เกิดอันตรายทางดิจิทัล ทางร่างกาย และทางความมั่นคงทางการเมือง

AI สามารถนำมาใช้เป็นอาวุธเพื่อนำมาละเมิดสิทธิพลเมืองและสิทธิทางการเมือง

AI ถูกนำมาใช้เพื่อการสอดส่องมวลชนโดยรัฐบาล

ความเป็นส่วนตัวถือเป็นสิทธิมนุษยชนขั้นพื้นฐาน และการละเมิดสิทธิความเป็นส่วนตัวย่อมส่งผลกระทบต่อสิทธิอื่นๆ เช่น สิทธิทางการแสดงออก การชุมนุม และการรวมกลุ่มสมาคม ในภูมิภาคเอเชียตะวันออกเฉียงใต้ หากพิจารณาบรรทัดฐานของประชาธิปไตยของรัฐบาลเกือบทุกประเทศมีแนวโน้มเอนเอียงไปทางฝั่งอำนาจนิยม รัฐบาลเหล่านี้ได้แสดงให้เห็นว่าสามารถขยายการปราบปรามผู้ที่เห็นต่างทางการเมืองอย่างกว้างขวาง เช่น การบังคับใช้กฎหมายที่รุนแรงในการลงโทษ หรือการใช้มาตรการนอกกฎหมายที่มาคุกคามผู้ที่เห็นต่าง

เมื่อพิจารณาความสามารถของ Machine Learning ทำให้การโยกย้ายชุดข้อมูลมหาศาลเป็นเรื่องทำที่ได้ง่ายดายและราคาไม่แพงแบบที่ไม่เคยมีมาก่อน เป็นผลทำให้การสอดส่องมวลชนมีราคาถูกลงและมีประสิทธิภาพเพิ่มมากขึ้นอีกด้วย ภายใต้เงื่อนไขเหล่านี้ทำให้บุคคลที่มีอิทธิพลสามารถที่จะสืบทอดอำนาจได้ง่ายมากขึ้น

ตารางด้านล่างนี้ได้นำข้อมูลมาจาก AI Global Surveillance Index (AIGS 2019) โดยได้คัดเลือก 7 ประเทศจากภูมิภาคเอเชียตะวันออกเฉียงใต้ (ซึ่งไม่รวมถึงบรูไน เวียดนาม กัมพูชา และติมอร์เลสเต เนื่องจากไม่มีการเก็บข้อมูล) จากดัชนีนี้ พบว่าเกือบทุกประเทศในภูมิภาคนี้โดยมากจะใช้เทคโนโลยีเพื่อสอดส่องอย่างสองประเภทหรือมากกว่านั้น เช่น ในรูปแบบการใช้เทคโนโลยีการสอดส่องในเมืองอัจฉริยะ (smart city) หรือเมืองที่ปลอดภัย การใช้เทคโนโลยีจดจำใบหน้า (facial recognition) และวิธีการตรวจตราแบบ smart policing จากดัชนีนี้เรายังพบอีกว่า ประเทศทั้งหมดเหล่านี้ได้นำเข้าเทคโนโลยีเพื่อสอดส่องมาจากประเทศจีน รวมถึงการซื้อเทคโนโลยีจากสหรัฐอเมริกาอีกด้วยถึงแม้ว่าจะน้อยกว่าจีนก็ตาม

Table adapted from the AI Global Surveillance Index (AIGS 2019)

เพื่อให้ภาพที่กว้างขึ้น มีอย่างน้อย 75 ประเทศใน 176 ประเทศที่ปรากฏอยู่ในรายงาน AIGS 2019 กำลังใช้ AI เพื่อการสอดส่องประชาชน และหลายประเทศก็จัดอยู่ในกลุ่มประเทศแนวเสรีนิยมประชาธิปไตยด้วย โดยดัชนีนี้ไม่ได้แบ่งแยกการใช้ AI แบบที่ถูกกฎหมายหรือผิดกฎหมาย แต่เมื่อกลับมาพิจารณาบริบทของเอเชียตะวันออกเฉียงใต้ ภาคประชาสังคมอาจต้องเตรียมพร้อมในการเฝ้าระวังการใช้ AI เพื่อจุดประสงค์ในการสอดส่องโดยรัฐบาล

รายงานฉบับหนึ่งจาก CSIS ชี้ให้เห็นถึงการใช้ “Safe City” ซึ่งพัฒนาโดยบริษัทยักษ์ใหญ่ Huawei กลายมาเป็นทางเลือกให้หลายประเทศในกลุ่มที่อยู่ในสถานะไม่มีเสรีภาพ และเป็นที่น่ากังวลว่าประเทศจีนกำลังส่งออกระบอบอำนาจนิยม (authoritarianism) ไปในต่างประเทศ ทางประเทศจีนเองได้ใช้เทคโนโลยีการจดจำใบหน้า (ซึ่งพัฒนาโดยบริษัทจีนที่มีความเชี่ยวชาญทาง AI อาทิ Yitu, Megvii, SenseTime และ CloudWalk) ซึ่งนำมาใช้ทำโปรไฟล์และติดตามชาวมุสลิมอุยกูร์ และนั่นยังเป็นที่รู้จักกันดีว่าชาวอุยกูร์จำนวนเกือบถึงหนึ่งล้านคนได้ถูกคุมขังในค่ายกักกันแบบเผด็จการเพื่อปรับทัศนคติให้นักโทษ (“re-education camps”) ทำให้เห็นภาพของความเป็นไปได้ที่กลายเป็นข้อกังวลของการละเมิดสิทธิมนุษยชนและการสอดส่องมวลชน

13 ประเทศในภูมิภาคเอเชียมีการสอดส่องทางโซเชียลมีเดีย

นอกจากนี้ยังมีรูปแบบการสอดส่องโดยรัฐที่รวมไปถึงการสอดส่องผ่านโซเซียลมีเดียและการใช้ AI ในการเก็บและวิเคราะห์ข้อมูลส่วนบุคคล รวมไปถึงเมตะดาต้าจากแพลตฟอร์มของโซเซียลมีเดียต่างๆ รายงาน Freedom on the Net (FOTN) ประจำปี 2562 ระบุว่า 13 ประเทศ จาก 15 ประเทศในภูมิภาคเอเชียที่กำลังมีการสอดส่องทางโซเซียลมีเดียหรืออยู่ในช่วงที่กำลังพัฒนาโปรแกรม AI เพื่อจุดประสงค์นี้อยู่ แต่รายงานไม่ได้ระบุว่าประเทศไหนจัดอยูในกลุ่มที่กำลังใช้ หรือกำลังพัฒนาโปรแกรม AI นี้อยู่ แต่ก็มีความเป็นไปได้ค่อนข้างสูงสำหรับ 8 ประเทศที่อยู่ในรายงานฉบับนี้ ได้แก่ ฟิลิปปินส์ มาเลเซีย สิงคโปร์ อินโดนีเซีย กัมพูชา เมียนมา ไทย และเวียดนาม

โดยรายงาน Freedom on the Net ยังได้เน้นไปที่ฟิลิปปินส์และเวียดนาม ซึ่งจากรายงานเมื่อปี 2561 เวียดนามได้ประกาศจัดตั้งหน่วยงานแห่งชาติที่มีจุดประสงค์ในการสอดส่องดูแลโดยเฉพาะ โดยมีการติดตั้งเครื่องมือเทคโนโลยีที่ช่วยในการวิเคราะห์ ประเมินผล และคัดกรองโพสต์หลายล้านข้อความจากโซเซียลมีเดีย และในปีเดียวกันนี้ กองทัพสหรัฐฯได้ฝึกเจ้าหน้าที่ทางการของฟิลิปปินส์ เพื่อก่อตั้งหน่วยงานใหม่ที่ไว้สอดส่องทางโซเซียลมีเดีย ซึ่งรายงานระบุว่า หน่วยงานนี้จะป้องกันการแพร่กระจายของข้อความที่บิดเบือนโดยกลุ่มผู้ก่อการร้าย

การสอดส่องทางดิจิทัลโดยรัฐบาลยังมีผลกว้างออกไปนอกจากแพลตฟอร์มโซเซียลมีเดีย โดยในปี 2561 หน่วยต่อต้านอาชญากรรมแก่เยาวชนบนอินเตอร์เน็ตแห่งมาเลเซีย (Malaysia Internet Crime Against Children – Micac) ที่อยู่ภายใต้สังกัดกรมตำรวจแห่งประเทศมาเลเซีย ได้แสดงความสามารถทางการสอดส่องของหน่วยงานให้แก่นักข่าวท้องถิ่น โดยการติดตามผู้ใช้ที่มีเนื้อหาอนาจารในลักษณะแบบเรียลไทม์ และได้สร้างสิ่งที่เรียกว่า “ห้องสมุดแห่งข้อมูลของบัญชีผู้ใช้โซเซียลมีเดีย” (data library) นี่ถือเป็นการละเมิดสิทธิความเป็นส่วนตัว เช่นเดียวกับแถลงการณ์โดยกลุ่มภาคประชาสังคมใน ASEAN

Image by Bark 003 via Cool SILH. Public Domain .

เทคนิคการเจาะจงกลุ่มเป้าหมาย เพื่อเปลี่ยนพฤติกรรมของผู้มีสิทธิเลือกตั้ง

ในภูมิภาคเอเชียตะวันออกเฉียงใต้นี้ ภาคประชาสังคมได้มุ่งจับตามองการสอดส่องจากรัฐมากกว่าจากบริษัทเอกชน อย่างไรก็ดี ผลกระทบที่มาจากการสอดส่องที่ส่งเสริมโดยบริษัทต่างๆ โดยเฉพาะบริษัทเทคโนโลยียักษ์ใหญ่อย่าง Facebook และ Google อาจจะมีผลกระทบที่เช่นเดียวกับการสอดส่องจากรัฐ หรือแม้แต่การสอดส่องที่ส่งเสริมโดยบริษัทต่างๆ จะมีผลกระทบมากกว่า ลองคิดดูสิว่า เมื่อมีเทคโนโลยี AI เข้ามาเกี่ยวข้องกับข้อมูลมากมายอย่างที่จินตนาการไม่ถึง เทคโนโลยี AI นี่เองที่จะช่วยให้การบริการภาคธุรกิจเพื่อการคาดการณ์และนำมาเปลี่ยนพฤติกรรมของผู้ใช้บริการเพื่อตอบสนองต่อบริษัทโฆษณา ปัญหานี้มีนัยยะที่สำคัญ เมื่อบริษัทโฆษณาทั้งหลายได้ผันตัวเองมาเป็นผู้บริการด้านโฆษณาทางดิจิทัลให้กับกลุ่มการเมืองต่างๆ ซึ่งตั้งเป้าหมายเพื่อเปลี่ยนความคิดเห็นของผู้คน หรือพฤติกรรมของผู้มีสิทธิเลือกตั้ง และการเปลี่ยนความคิดเห็นสาธารณะหรือพฤติกรรมการเลือกตั้ง ย่อมกระทบต่อสิทธิในการเลือกตั้งของปัจเจกบุคคล

เมื่อ 5 ปีก่อน นักวิจัยหลายคนพบว่า machines สามารถล่วงรู้เกี่ยวกับตัวคุณเองได้ดีกว่าใครๆ ซึ่งเรียนรู้มาจากการที่คุณกด Like บน Facebook นั่นเอง (เพียงแค่ machines ดูจากการที่คุณกด Like จำนวน 300 ครั้งเท่านั้น machines สามารถคาดการณ์จากพฤติกรรมของคุณมากกว่าแฟนของคุณเสียอีก และข้อมูลเพียงแค่จากการที่คุณกด Link จำนวน 10 ครั้งเท่านั้นก็ทำให้ machines ประมวลผลและรู้จักตัวคุณดีกว่าเพื่อนร่วมงานของคุณเสียอีก) นับตั้งแต่ที่มีข่าวอื้อฉาวเกี่ยวกับ AI ใน Facebook อย่างกรณีการละเมิดความเป็นส่วนตัวของผู้ใช้บริการโดยบริษัท Cambridge Analytica ซึ่งสามารถเข้าถึงข้อมูลส่วนตัวของผู้ใช้บริการบน Facebook เป็นจำนวนสิบๆล้านคนอย่างผิดกฏหมาย โดยที่บริษัทสามารถเก็บและสร้างข้อมูลของผู้ใช้ Facebook ที่คลิกตอบแบบทดสอบบุคคลิกภาพของ Cambridge Analytica แล้วนำข้อมูลนั้นมาจัดทำโปรไฟล์เกี่ยวกับลักษณะทางจิตวิทยาของผู้บริโภค ทำเกิดการใช้เทคนิคเลือกกลุ่มเป้าหมายที่เฉพาะเจาะจง เพื่อมีจุดประสงค์ในการโน้มน้าวการตัดสินใจลงคะแนนเสียงต่อผู้เข้าแข่งชิงตำแหน่งพรรคนั้นๆ หรือที่เรียกว่า microtargeting ด้วยข้อความโฆษณาหลากหลายที่ทำให้ผลการเลือกตั้งประธานาธิบดีในสหรัฐอเมริกาเมื่อปี 2559 มีความผันผวน ยังมีการกล่าวถึงด้วยอีกว่า กลยุทธ์แบบเดียวกันนี้ได้ถูกนำมาใช้ในการจูงใจผู้เลือกตั้งในสหราชอาณาจักร และส่งผลกระทบต่อผลการลงประชามติจากการออกจากยุโรปของสหราชอาณาจักร หรือ Brexit

ด้วยการมีผู้ใช้บริการถึง 2 พันล้านคน Facebook ได้ใช้ข้อมูลมโหฬารเหล่านี้ในการฝึกระบบ Machine Learning เพื่อการทำนายพฤติกรรมต่างๆ ของผู้ใช้บริการ

นับแต่ตั้งแต่ที่ Cambridge Analytica ได้ปิดตัวลง แต่เรื่องอื้อฉาวนี้ได้ทำให้มีการวิจารณ์ถกเถียงเกี่ยวกับโมเดลธุรกิจของบริษัทที่นำการใช้ microtargeting ในการโฆษณาทางการเมือง ผู้วิจารณ์ทางการเมืองได้ชี้แจงว่าทาง Facebook เองก็ได้ใช้โมเดลธุรกิจแบบ microtargeting เป็นทุนเดิมอยู่แล้ว จะต่างก็ตรงที่โมเดลธุรกิจของ Facebook มีขนาดใหญ่กว่าและมีพลังมากว่า ด้วยขนาดข้อมูลผู้ใช้บริการที่มีจำนวนมหาศาลถึง 2 พันล้านคนได้เอื้ออำนวยให้ Facebook สามารถทำโมเดลธุรกิจแบบ microtargeting นี้ได้ ยิ่งไปกว่านั้น Facebook ได้ใช้ข้อมูลมโหฬารเหล่านี้ในการฝึกระบบ Machine Learning เพื่อการทำนาย เช่น เมื่อผู้ใช้รายบุคคลกำลังจะเปลี่ยนไปใช้สินค้ายี่ห้ออื่นๆ และ Facebook เองยังเปิดให้บริการระบบอัฉริยะที่นำมาทำนายอุปนิสัยการจับจ่ายออนไลน์ของผู้ใช้นี้ให้แก่บริษัทอื่นๆ ที่ยอมจ่ายค่าบริการ นี่แทบจะไม่ต่างกันเลยระหว่างการใช้โมเดลธุรกิจเพื่อการโฆษณา และการโฆษณาทางการเมือง และทำให้ Twitter ได้ประกาศยับยั้งการโฆษณาทางการเมืองแล้ว และ Google เองก็หยุดการใช้ microtargeting ในการโฆษณาทางการเมืองอีกด้วย

จากสถิติ พบว่า 86% ของผู้ที่ใช้อินเตอร์เน็ตในภูมิภาคเอเชียตะวันออกเฉียงใต้มีบัญชี Facebook และทำให้เกิดความกังวลเกี่ยวกับการใช้ microtargeting ที่ส่งผลกระทบต่อผลการเลือกตั้งหลายๆแห่งภายในภูมิภาคนี้ จากรายงานฉบับหนึ่งซึ่งได้ติดตามประเด็นการบิดเบือนข้อมูลทางดิจิทัลในช่วงการเลือกตั้งกลางเทอมในฟิลิปปินส์ เมื่อปี 2562 ซึ่งได้ชี้แจงว่า Facebook Boosts (ซึ่งเป็นกลไกทางโฆษณาของ Facebook นั่นเอง) เป็นปัจจัยสำคัญต่อการรณรงค์เลือกตั้งในท้องถิ่น นอกจากนี้ กลไกทางโฆษณาลักษณะ Facebook Boosts นี้ยังได้ถูกนำมาใช้ประชาสัมพันธ์เนื้อหาในแง่ลบเพื่อการโจมตีคู่แข่งทางการเมืองจากฝ่ายตรงข้าม ในอินโดนีเชีย ผู้เชี่ยวชาญได้เตือนเกี่ยวกับการตั้งเป้าพฤติกรรมของผู้เลือกตั้ง และการนำยุทธศาสตร์ต่างๆ เกี่ยวกับการใช้ microtargeting เพื่อการหาประโยชน์จากข้อมูลส่วนตัวของผู้เลือกตั้งในอินโดนีเชีย และเพื่อส่งผลกระทบต่อผลการเลือกตั้งในช่วงระยะเวลาการเลือกตั้งทั่วไปในปี 2562

Image via SVG Silh. Public Domain.
Image via SVG Silh. Public Domain.

เนื้อหาที่สร้างโดย AI ยิ่งเติมเชื้อเพลิงให้กับแคมเปญที่สร้างข้อมูลบิดเบือน

ในยุคดิจิทัล ข่าวลือได้ถูกทำให้มีประสิทธิผลมากขึ้นกว่าแต่ก่อน ด้วยธรรมชาติของเครือข่ายในการติดต่อสื่อสาร ด้วยเหตุผลนี้ทำให้เกิดการบิดเบือนข้อมูลหรือข่าวปลอม (fake news) ได้กลายมาเป็นปัญหาใหญ่ทั่วโลก รวมทั้งในภูมิภาคเอเชียตะวันออกเฉียงใต้เองด้วย ตัวอย่างที่เศร้าใจที่สุด เห็นได้จากการผลกระทบที่ทำให้เกิดการฆ่าล้างเผ่าพันธุ์ของชาวโรฮิงยาในเมียนมา ซึ่งมีรายงานว่าปัญหานี้เกิดมาจากการกระพือข้อมูลที่บิดเบือนและคำพูดที่สร้างความเกลียดชัง (hate speech) บนโซเซียลมีเดีย

ยิ่งไปกว่านั้น ธุรกิจแห่งการสร้างข้อมูลที่บิดเบือนยังได้งอกงามภายในภูมิภาคนี้ เช่น ในอินโดนีเชีย แหล่งผลิตข่าวปลอมหลายแห่งถูกใช้ปั่นเนื้อหาออกมาเป็นจำนวนมาก โดยตั้งเป้าโจมตีคู่แข่งทางการเมืองฝั่งตรงข้าม และเพื่อสนับสนุนบริการให้กับลูกค้าของแหล่งผลิตข่าวปลอมนั้นๆ อย่างเช่น ในฟิลิปปินส์ บริษัทประชาสัมพันธ์หลายแห่ง ได้ปลูกฝังค่านิยมในชุมชนออนไลน์พร้อมทั้งได้ใส่ข้อความที่บิดเบือนและข้อความที่เกี่ยวกับการเมือง โดยที่บริษัทเหล่านี้ได้รับการช่วยเหลือจากกลุ่มคนที่มีผู้ติดตามออนไลน์จำนวนมาก (influencers) ในกลุ่มที่มีลักษณะมีความเชี่ยวชาญเรื่องใดเรื่องหนึ่งเป็นพิเศษ ทั้งแบบเป็น micro และ nano เมื่อผู้ที่เกี่ยวข้องกับธุรกิจที่ดำเนินงานแบบไร้จรรยาบรรณเหล่านี้ได้สร้างโครงสร้างเพื่อการผลิตข้อมูลที่บิดเบือนและกอบโกยกำไร ทำให้การใช้ AI ในธุรกิจประเภทนี้ยิ่งจะสร้างข้อมูลที่บิดเบือนได้ง่ายและซับซ้อนมากยิ่งขึ้น

อีกหนึ่งเทคโนโลยีที่น่ากลัวคือสิ่งที่เรียกว่า deepfake โดยมีการสร้างเนื้อหาวิดีโอด้วยระบบ AI หรือรู้จักในว่า “synthetic media” ซึ่งเป็นสื่อแบบผสมผสานรวมทั้งการตัดต่อไฟล์วิดีโอหรือไฟล์เสียงเพื่อทำให้ดูและฟังดูเหมือนราวกับว่ามาจากแหล่งข้อมูลที่แท้จริง เทคโนโลยี deepfake ได้สร้างความจริงในช่วงเวลาหนึ่งที่ยังไม่มีใครสามารถแยกแยะได้ว่านี่ไม่ใช่แหล่งข้อมูลจริง ซึ่งบางทีกว่าจะมีคนรู้ว่าเป็นข้อมูลปลอมก็เป็นผ่านไปเป็นเดือน และด้วยต้นทุนที่ราคาถูกในการผลิตยิ่งทำให้มือใหม่เกิดขึ้นได้ง่ายในการสร้าง deepfake ซึ่งในตอนนี้ได้มีคนนำเทคนิคนี้มาใช้ผลิตคลิปวิดีโออนาจารของเหล่าคนดัง และมีความเป็นไปได้หลายแบบที่ deepfake จะถูกนำมาใช้ในการสร้างข้อมูลที่บิดเบือนภายในภูมิภาคนี้ อย่างน้อยมีหนึ่งในตัวอย่างคือ การที่นักการเมืองในประเทศมาเลเซียผู้หนึ่งอ้างว่า ได้มีคลิปวิดีโอ sex ของเขาถูกผลิตโดย deepfake เพื่อการโจมตีทางการเมือง

คลิปวิดีโอข้างต้นได้อธิบายให้เห็นว่าทำไมเทคโนโลยี deepfake จึงเป็นเรื่องที่น่ากังวลและทำไมพวกเราควรต้องระมัดระวังในเรื่องนี้ องค์กร WITNESS ได้เก็บรวบรวมแหล่งข้อมูลที่น่าสนใจสำหรับผู้ที่สนใจประเด็นเกี่ยวการสร้างวิดีโอแบบ deepfake

อีกกรณีคือที่ AI สามารถทำอะไรได้อีกบ้างในการผลิตเนื้อหาที่สมจริงออกมา ในบทความนี้ New York Times ได้เล่าถึงการคลิกเพียงปุ่มเดียว ก็สามารถผลิตคอมเมนต์ทางการเมืองหรือข้อมูลใดๆที่บิดเบือนออกมาได้ อย่างที่พอจะเห็นได้ว่ามีการลงทุนในการสร้างกองกำลังไซเบอร์เพื่อรุมโจมตีความคิดเห็นของฝ่ายตรงข้ามและหากใช้ machines มาใช้ทดแทนคนจริงๆ เพื่อการผลิตเนื้อหาที่สมจริงออกมาให้ดูเหมือนราวกับว่าเป็นมนุษย์เองที่เขียนข้อความเหล่านั้น ในรายงานอีกฉบับหนึ่งยังได้เตือนถึงความน่ากลัวของการทำข่าวปลอมที่ผลิตโดย AI มาอีกด้วย และระบบนั้นเรียกว่า GROVER ที่สามารถผลิตบทความปลอมที่เขียนขึ้นมาจากพาดหัวข่าวชิ้นเดียวเท่านั้น ทั้งยังสามารถเลียนแบบข่าวต่างๆที่รายงานโดยสำนักงานข่าวชั้นนำอย่าง The Washington Post หรือ The New York Times อีกด้วย

ในยุคที่เรียกว่า “ยุคหลังความจริง” หรือ “post-truth” นั้นยังต้องเผชิญกับอีกหลากหลายความท้าทาย คุณสามารถเช็ครูปถ่ายของใบหน้าของบุคคลต่างๆที่ผลิตโดยคอมพิวเตอร์แล้วอัพโหลดไปบนเว็บไซต์ดังต่อไปนี้ ThisPersonDoesNotExist.com หรือ WhichFaceIsReal.com ลองดูถึงความสมจริงของรูปเหล่านี้ เว็บไซต์เหล่านี้เองยังช่วยผลิตรูปภาพนั้นๆได้อย่างง่ายดายเพื่อนำไปใช้ในโปรไฟล์ปลอมบนโซเชียลมีเดีย

บทสรุป

ดังที่บทความนี้ได้กล่าวไปว่าความสามารถของ AI ได้นำมาใช้ในฐานะที่เปรียบเสมือนอาวุธ เพื่อบรรลุวัตถุจุดประสงค์ที่ขัดกับสิทธิพลเมืองและสิทธิทางการเมืองได้ ขณะที่ฝั่งภาคประชาสังคมในภูมิภาคนี้ยังคงต้องคอยจับตามองเพื่อติดตามเทรนด์ของเทคโนโลยีและแอปพลิเคชันใหม่ๆของ AI เพื่อจะไม่ให้ผู้เล่นอื่นนำไปใช้ในทางผิดแบบที่เราไม่ทันสังเกตเห็น เพราะด้วยประสิทธิภาพของเทคโนโลยี Machine Learning และ AI ที่เดินหน้าพัฒนาอย่างต่อเนื่อง ภาคประชาสังคมและนักปกป้องสิทธิมนุษยชนจำเป็นต้องเข้าไปมีส่วนร่วมเพื่อออกแบบระบอบการกำกับดูแลของ AI และผลักดันให้บริษัทเทคโนโลยีทั้งหลายต้องมีความรับผิดชอบต่อการพัฒนาเทคโนโลยีของตน เพื่อมุ่งให้เป็นอาวุธในแบบที่ช่วยปกป้องและส่งเสริมสิทธิมนุษยชนทั่วโลกได้

เกี่ยวกับผู้เขียน

Dr. Jun-E Tan เป็นนักวิจัยอิสระ อาศัยอยู่ในเมืองกัวลาลัมเปอร์ ประเทศมาเลเซีย งานวิจัยและการสนับสนุนของ Jun-E นั้นเกี่ยวกับประเด็นการสื่อสารทางดิจิทัล สิทธิมนุษยชน และการพัฒนาที่ยั่งยืน บทความในปีวิจัยล่าสุดของ Jun-E มีชื่อว่า “สิทธิมนุษยชนทางดิจิทัลในภูมิภาคเอเชียอาคเนย์: กรอบแนวคิดและการสร้างขบวนการเคลื่อนไหว” (Digital Rights in Southeast Asia: Conceptual Framework and Movement Building) ได้เผยแพร่ในหนังสือ open access (สามารถ download เพื่ออ่านได้ฟรี) ที่มีชื่อว่า “การสำรวจความเกี่ยวเนื่องระหว่างเทคโนโลยีต่างๆและสิทธิมนุษยชน: โอกาสและความท้าทายที่หลากหลายในเอเชียอาคเนย์” (Exploring the Nexus Between Technologies and Human Rights: Opportunities and Challenges in Southeast Asia) จัดพิมพ์โดยสำนักพิมพ์ SHAPE-SEA เมื่อเดือนธันวาคม 2562 นอกจากนี้ Jun-E ยังได้เขียนบทความลงในบล็อกของตนเองอยู่เป็นประจำ

คุณสามารถอ่าน บทความแรก และบทความที่สองในซีรีย์เดียวกันนี้ที่เกี่ยวกับผลกระทบสิทธิมนุษยชนที่มาจากปัญญาประดิษฐ์ (Artificial Intelligence – AI) ในบริบทของเอเชียตะวันออกเฉียงใต้

The post เมื่อ AI กลายเป็นอาวุธที่มีผลกระทบต่อสิทธิพลเมืองและสิทธิทางการเมือง appeared first on Coconet.

]]>
https://coconet.social/2020/%e0%b9%80%e0%b8%a1%e0%b8%b7%e0%b9%88%e0%b8%ad-ai-%e0%b8%81%e0%b8%a5%e0%b8%b2%e0%b8%a2%e0%b9%80%e0%b8%9b%e0%b9%87%e0%b8%99%e0%b8%ad%e0%b8%b2%e0%b8%a7%e0%b8%b8%e0%b8%98%e0%b8%97%e0%b8%b5%e0%b9%88/feed/ 0
เราจะอยู่ร่วมกับ AI ได้หรือไม่: ปัญญาประดิษฐ์ (Artificial Intelligence) กับผลกระทบต่อสิทธิทางเศรษฐกิจ สังคม และวัฒนธรรม https://coconet.social/2020/%e0%b9%80%e0%b8%a3%e0%b8%b2%e0%b8%88%e0%b8%b0%e0%b8%ad%e0%b8%a2%e0%b8%b9%e0%b9%88%e0%b8%a3%e0%b9%88%e0%b8%a7%e0%b8%a1%e0%b8%81%e0%b8%b1%e0%b8%9a-ai-%e0%b9%84%e0%b8%94%e0%b9%89%e0%b8%ab%e0%b8%a3/ https://coconet.social/2020/%e0%b9%80%e0%b8%a3%e0%b8%b2%e0%b8%88%e0%b8%b0%e0%b8%ad%e0%b8%a2%e0%b8%b9%e0%b9%88%e0%b8%a3%e0%b9%88%e0%b8%a7%e0%b8%a1%e0%b8%81%e0%b8%b1%e0%b8%9a-ai-%e0%b9%84%e0%b8%94%e0%b9%89%e0%b8%ab%e0%b8%a3/#respond Tue, 11 Aug 2020 03:33:56 +0000 https://coconet.social/2020/%e0%b9%80%e0%b8%a3%e0%b8%b2%e0%b8%88%e0%b8%b0%e0%b8%ad%e0%b8%a2%e0%b8%b9%e0%b9%88%e0%b8%a3%e0%b9%88%e0%b8%a7%e0%b8%a1%e0%b8%81%e0%b8%b1%e0%b8%9a-ai-%e0%b9%84%e0%b8%94%e0%b9%89%e0%b8%ab%e0%b8%a3/ บทความนี้เป็นบทความที่สองในซีรีย์บทความที่เกี่ยวกับผลกระทบสิทธิมนุษยชนที่มาจากปัญญาประดิษฐ์ (Artificial Intelligence หรือ AI) ในบริบทของภูมิภาคเอเชียตะวันออกเฉียงใต้ โดยมีจุดประสงค์เพื่อการสร้างความตระหนักรู้และการมีส่วนร่วมของภาคประชาสังคมในประเด็นนี้

The post เราจะอยู่ร่วมกับ AI ได้หรือไม่: ปัญญาประดิษฐ์ (Artificial Intelligence) กับผลกระทบต่อสิทธิทางเศรษฐกิจ สังคม และวัฒนธรรม appeared first on Coconet.

]]>

Read this article in English

แปลไทยโดย ธีรดา ณ จัตุรัส

บทความนี้เป็นบทความที่สองในซีรีย์บทความที่เกี่ยวกับผลกระทบด้านสิทธิมนุษยชนที่มาจากปัญญาประดิษฐ์ (Artificial Intelligence หรือ AI) ในบริบทของภูมิภาคเอเชียตะวันออกเฉียงใต้ โดยมีจุดประสงค์เพื่อการสร้างความตระหนักรู้และการมีส่วนร่วมของภาคประชาสังคมในประเด็นนี้

จากบทความก่อนหน้านี้ เราได้กล่าวถึงคำนิยามของ AI และ Machine Learning พร้อมทั้งยังได้พิจารณาประเด็นของการประยุกต์ใช้เทคโนโลยีเหล่านี้ภายในภูมิภาคเอเชียตะวันออกเฉียงใต้ไปแล้ว ส่วนในบทความนี้และบทความถัดไป เราจะกล่าวถึงต่อในเรื่องผลกระทบที่มีต่อ 1. สิทธิทางเศรษฐกิจ สังคม วัฒนธรรม (Economic, Social, and Cultural Rights – ESCR) และ 2. สิทธิทางพลเมืองและสิทธิทางการเมือง (Civil and Political Rights – CPR) เพื่อทำความเข้าใจความเชื่อมโยงที่เกี่ยวกับเรื่องนี้ โดยในบทความนี้จะเน้นถึงผลกระทบที่มีต่อประเด็นสิทธิทางเศรษฐกิจ สังคม วัฒนธรรม (ESCR)

สิทธิทางเศรษฐกิจ สังคม วัฒนธรรม (ESCR) คืออะไร

จากกติการะหว่างประเทศว่าด้วยสิทธิทางเศรษฐกิจ สังคม และวัฒนธรรม (International Covenant of Economic, Social and Cultural Rights – ICESCR) ซึ่งรวมไปถึงสิทธิในการเข้าถึงการรักษาพยาบาล การศึกษา ประกันสังคม เงื่อนไขการทำงานที่เหมาะสม คุณภาพชีวิตที่ดี และการมีส่วนร่วมทางวัฒนธรรมและกิจกรรมสร้างสรรค์อื่นๆ สิทธิต่างๆเหล่านี้จัดว่าเป็นสิทธิเชิงบวก (positive rights) ซึ่งจำเป็นที่จะต้องมีแนวทางปฏิบัติเพื่อเติมเต็มให้สิทธิเหล่านี้เกิดขึ้น เช่น การจัดหางานที่ดีให้ สิทธิเชิงบวกนี้ตรงกันข้ามกับสิทธิพลเมืองและสิทธิทางการเมือง ซึ่งจำเป็นต้องมีการละเว้นกระทำและไม่ขัดขวางอันเป็นการละเมิดสิทธิในทางนี้ เช่น การไม่ละเมิดเสรีภาพในการแสดงออก

ข้อสังเกตสำคัญก็คือ ความหมายของ ESCR ที่เกี่ยวข้องกับ AI ไม่ได้ตีความแบบสองขั้ว เช่น “ดี” หรือ “เลว” แม้ว่าจะนำหลักการนี้ไปใช้แบบเดียวกัน แต่ผลลัพธ์ที่ได้อาจแตกต่างกันไปในแต่ละกรณี บางคนได้รับผลดีแต่บางคนอาจได้รับผลกระทบเชิงลบ ตัวอย่างที่เห็นได้คือ การใช้ AI ช่วยในการตัดสินใจเลือกลูกค้าที่มีเครดิตที่น่าไว้วางใจโดยพิจารณาจากชุดข้อมูลเท่าที่มีอยู่ ทั้งนี้อาจจะไม่ได้ส่งผลดีต่อผู้ที่ไม่มีกำลังซื้อมากนัก เพราะกลุ่มคนเหล่านี้อาจจะมีกำลังซื้อน้อยกว่ากลุ่มที่มีรายได้สูงและทำให้มีข้อมูลประวัติการใช้จ่ายที่ไม่เพียงพอต่อการวิเคราะห์ถึงประวัติการมีเครดิตที่น่าไว้วางใจ แต่การใช้ชุดข้อมูลอื่นที่มีขอบเขตกว้างขวางกว่าประวัติเรื่องเครดิตก็อาจทำให้เกิดการเลือกปฏิบัติจากการใช้ชุดข้อมูลที่ไม่เกี่ยวข้องหรือบางครั้งอาจเกิดการใช้ข้อมูลโดยพลการ เช่น กรณีที่ใช้ AI มาวิเคราะห์และให้ผลคะแนนต่ำถ้าผู้สมัครคนนั้นพิมพ์อักษรตัวพิมพ์ใหญ่ทั้งหมด (all-caps) ส่งผลให้เกิดความเสี่ยงสูงต่อค่าเริ่มต้น

บทความนี้จะมองผลกระทบของ AI ที่มีต่อ ESCR แบ่งออกมาเป็น 2 แบบ คือ 1. ผลกระทบเมื่อไม่ใช้ AI เพื่อการพัฒนา และ 2. ผลกระทบทางลบจากการใช้ AI

"fikiran" is licensed under CC0 1.0

ประโยชน์ด้านการพัฒนาของ AI

หากใช้ AI แบบมียุทธศาสตร์และเป็นไปอย่างเหมาะสมแล้วย่อมสามารถเพิ่มผลประโยชน์ได้ ทางการพัฒนาอย่างมหาศาล รวมไปถึงการเติบโตทางเศรษฐกิจด้วย แต่ความเป็นจริงแล้ว AI ยังสามารถพัฒนาคุณภาพชีวิตของผู้คนในอีกหลายด้าน เช่นเดียวกับตัวอย่างดังต่อไปนี้ที่ทำให้เห็นว่าเทคโนโลยีได้ช่วยให้เกิดผลสำเร็จด้านการพัฒนาได้อย่างไรในภูมิภาคเอเชียตะวันออกเฉียงใต้

  • ด้านสุขภาพ: ในสิงคโปร์ บริษัท start-up ที่ชื่อว่า Kronikare ร่วมมือกับ AI Singapore พัฒนาระบบที่ช่วยรวบรวมข้อมูล วิเคราะห์ และวินิจฉัยบาดแผลที่มีสภาพเรื้อรัง ระบบนี้ได้มีการใช้อย่างกว้างขวาง รวมทั้งในโรงพยาบาลและบ้านพักผู้สูงอายุบางแห่งในสิงคโปร์
  • ด้านการจราจร: ในกัวลาลัมเปอร์ บริษัท Malaysia City Brain ร่วมมือกับบริษัท Alibaba, Malaysia Digital Economy Corporation และสภาเมืองของกัวลาลัมเปอร์ ได้ตั้งเป้าในการลดการจราจรที่ติดขัดในเขตเมือง โดยบริษัท City Brain ในเมือง Hangzhaou ประเทศจีน ได้ริเริ่มใช้โครงการนี้ไปแล้วและทำให้บริหารสภาพคล่องทางการจราจรเร็วขึ้นกว่าเดิมถึง 15% ในบางพื้นที่
  • ด้านการศึกษา: แพลตฟอร์มเพื่อการศึกษาที่ชื่อว่า Ruangguruในอินโดนีเซีย ช่วยให้นักเรียนและครูสามารถดำเนินการเรียนการสอน พร้อมทั้งมีวิดีโอสื่อการสอนในหลายวิชา และยังได้ใช้ AI เพื่อการออกแบบบทเรียนที่เฉพาะเจาะจงสำหรับนักเรียนได้ โดยสามารถรองรับนักเรียนได้ประมาณ 15 ล้านคน และ 80% ของนักเรียนกลุ่มนี้อาศัยอยู่นอกเขตเมือง
  • ด้านความมั่นคงทางอาหาร: ในเวียดนาม บริษัท start-up หลายแห่งกำลังใช้ AI และระบบเซ็นเซอร์ของ Internet of Things (IoT) เพื่อเพิ่มการผลิตทางการเกษตร การประหยัดการใช้น้ำ และการให้ปุ๋ย บริษัท start-up ที่ชื่อว่า Sero ระบุว่าถึง 70% – 90% ของความแม่นยำในการจำแนกชนิดโรคของพืชได้ถึง 20 ชนิด ซึ่งทำให้สามารถลดปริมาณความเสียหายในการปลูกพืชลงไปได้

แต่เมื่อพิจารณาทั้งหมด 11 ประเทศทั่วภูมิภาคเอเชียตะวันออกเฉียงใต้นั้นต่างมีความไม่เท่าเทียมกันในระดับการประยุกต์ใช้และความสามารถในการใช้ AI ความไม่เท่าเทียมกันนี้เห็นได้จากรายงาน AI Government Readiness Index ซึ่งจัดทำโดยศูนย์วิจัย Oxford Insights and the International Development โดยได้จัดลำดับรัฐบาลต่างๆโดยพิจารณาจากความพร้อมในการใช้ AI ทั้งในด้านบริหารรัฐกิจและการส่งมอบงาน จากการจัดลำดับในรายงานฉบับนี้ระบุว่า ประเทศสิงคโปร์ถือเป็นผู้นำในระดับโลก ส่วนอีก 6 ประเทศในภูมิภาคเอเชียตะวันออกเฉียงใต้ที่ติดอยู่ใน 100 อันดับประเทศที่รัฐบาลมีความพร้อมในการนำ AI มาใช้งาน ได้แก่ มาเลเซีย (อันดับ 22), ฟิลิปปินส์ (อันดับ 50), ประเทศไทย (อันดับ 56), อินโดนีเซีย (อันดับ 57) และเวียดนาม (อันดับ 70)

ประเทศ (อันดับในโลก)

คะแนน

Singapore (1)
~9.186
Malaysia (22)
~7.108
Philippines (50)
~5.704
Thailand (56)
~5.458
Indonesia (57)
~5.420
Vietnam (70)
~5.081
Brunei Darussalam (121)
~3.143
Cambodia (125)
~2.810
Laos (137)
~2.314
Myanmar (159)
~1.385
Timor Leste (173)
~0.694

โดยประเทศที่ได้รับการจัดลำดับให้อยู่ในอันดับต้นๆนั้นต่างมียุทธศาสตร์แห่งชาติหรือกำลังร่างขึ้นมา โดยตั้งเป้าหมายในเรื่องการสนับสนุนการพัฒนา AI ให้เกิดขึ้นภายในประเทศของตน เพื่อจะเป็นข้อได้เปรียบทางเทคโนโลยีและมุ่งสร้างสิ่งแวดล้อมที่เอื้ออำนวยต่อการพัฒนา AI เพื่อขับเคลื่อนความคิดริเริ่มต่างๆทางด้านการพัฒนา AI กรณีประเทศสิงคโปร์มียุทธศาสตร์เรื่องปัญญาประดิษฐ์แห่งชาติ (National Artificial Intelligence Strategy) ซึ่งมุ่งเป้าไปที่การเป็นผู้นำในด้านการพัฒนา AI ภายในปี 2573 นี้ ยุทศศาสตร์นี้ยังได้ทำให้ระบบนิเวศของ AI มีความเข้มแข็งยิ่งขี้น ทั้งยังได้เสนอความช่วยเหลือทางการเงินมากกว่า 500 ล้านดอลล่าร์สิงคโปร์ ส่วนประเทศอื่นในภูมิภาคเอเชียตะวันออกเฉียงใต้นั้นที่มีนโยบายทางด้านการพัฒนา AI เช่น ประเทศมาเลเซีย (ซึ่งมีกรอบแนวทางปัญญาประดิษฐ์แห่งชาติ หรือ National AI Framework ในปี 2563 และนโยบายทางด้านข้อมูลและ AI แห่งชาติ หรือ National Data and AI Policy ที่ได้รับการเสนอในคณะรัฐมนตรี) และประเทศอินโดนีเซีย (ที่ตั้งเป้าไปที่การสร้างกลยุทธ์ปัญญาประดิษฐ์ให้แล้วเสร็จภายในปี 2563 นี้)

ขณะที่กลุ่มประเทศกำลังพัฒนาอื่นๆกลับยังคงต้องเผชิญความท้าทายในเรื่องการเข้าถึงอินเตอร์เน็ต เช่น ติมอร์-เลสเต ที่มีสัดส่วนประชากรที่สามารถเข้าถึงอินเตอร์เน็ตเพียง 30.3% ของจำนวนประชากรทั้งหมด ส่วนประเทศเมียนมามีจำนวน 33.1% และประเทศลาวมีจำนวน 35.4% นั่นทำให้เห็นว่าปัญหาความไม่เท่าเทียมกันระหว่างประเทศที่เข้าถึงเทคโนโลยีกับประเทศไม่สามารถเข้าถึงได้

ขณะที่รัฐบาลอาจจะมีความพร้อมที่ช้าในด้านการพัฒนา AI แต่ฝั่งภาคเอกชนกลับเร่งเดินหน้าเพื่อเสนอบริการด้าน AI เพราะต้องการที่จะกระโดดเข้าร่วมกระแส “smart” ซึ่งรวมไปถึงการใช้ AI ในการพัฒนาสินค้าและบริการ ส่วนการเปิดตัวเครือข่ายเมืองอัจริยะแห่งอาเซียน (ASEAN Smart Cities Network – ASCN)เมื่อปี 2561 ได้มีสมาชิกเข้าร่วมจาก 26 เมืองทั่วทั้งเอเชียตะวันออกเฉียงใต้ โดยมีจุดประสงค์เพื่อจะใช้เทคโนโลยีในการพัฒนาของเมือง ซึ่งหนึ่งในเป้าหมายของเครือข่ายนี้ยังเน้นไปยังการเชื่อมต่อเมืองเหล่านี้เข้ากับผู้ให้บริการภาคเอกชนที่มีความสามารถในการแก้ปัญหาทางเทคโนโลยี

ในภาพรวมจากแผนการและวิสัยทัศน์ต่างๆ ดูเหมือนจะเป็นความหวัง จากการเป็นพื้นที่ศูนย์กลางการพัฒนาของเครือข่าย ASCN ที่ต้องการสร้างความร่วมมือด้านสังคมและวัฒนธรรม สุขภาพและคุณภาพชีวิต ความปลอดภัยสาธารณะ การรักษาสิ่งแวดล้อม การสร้างสาธารณูปโภค รวมทั้งอุตสาหกรรมและนวัตกรรมใหม่

Artificial Intelligence & AI & Machine Learning
Artificial Intelligence & AI & Machine Learning. Image by Mike MacKenzie via www.vpnsrus.com

ความเสี่ยงซึ่งอาจเกิดจาก AI ที่ส่งผลกระทบต่อ ESCR

ประโยชน์ด้านการพัฒนาที่เกิดจาก AI นั้นย่อมขึ้นอยู่กับการนำไปใช้ นี่คือจุดที่มีความเสี่ยงมากมาย แม้ว่าจะยังไม่มีกรณีตัวอย่างที่ชัดเจนเกี่ยวกับเรื่องความปลอดภัยและอันตรายจากการใช้ AI ในภูมิภาคของเรา เพราะนี่ถือเป็นช่วงเริ่มแรกของการพัฒนาทางเทคโนโลยีทว่าพวกเรายังคงต้องจับตาดูปัญหาที่เกิดขึ้นในพื้นที่อื่นๆ เพื่อเรียนรู้และเท่าทัน

เช่นกรณีตัวอย่างที่ปรากฏในบทความที่มีชื่อว่า Automating Poverty ของ The Guardian เล่าถึงผลกระทบที่เกิดในประเทศอินเดีย สหราชอาณาจักร สหรัฐอเมริกา และออสเตรเลีย จากการใช้ระบบ AI ที่มีความสามารถในการตัดสินใจด้วยตัวเอง โดยได้นำมาปรับใช้กับระบบประกันสังคม ผลลัพธ์กลับทำให้เกิดการลดทอนคุณค่าความเป็นมนุษย์และเป็นการลงโทษกลุ่มคนชายขอบมากขึ้นไปอีก โดยเฉพาะกรณีของอินเดียทำให้เห็นผลกระทบที่ตามมาอย่างรุนแรงในการนำ AI ไปใช้ในทางที่ผิดที่เกิดขึ้นในบริบทของประเทศกำลังพัฒนา จากการเปลี่ยนผ่านจากระบบกระดาษไปสู่ระบบดิจิทัลยิ่งทำให้กลุ่มคนยากจนมีความเปราะบางมากขึ้นในเรื่องของการใช้เทคโนโลยี นับตั้งแต่ปัญหาเรื่องไฟดับ ความไม่เสถียรของอินเตอร์เน็ตไปจนถึงการที่ไม่รู้ว่าทำไมตนเองถึงถูกปฏิเสธจากระบบประกันสังคม ทั้งที่ระบบนั้นควรต้องครอบคลุมถึงการคุ้มครองทางสังคมและการขอเงินค่ารักษาพยาบาลคืนแก่คนจน โดยความผิดพลาดต่างๆที่เกิดขึ้นอาจะนำไปสู่ความตายและความหิวโหย

ระบบที่เอนเอียง และการเข้าถึง

การตัดสินใจที่ไม่โปร่งใสเรื่องประกันสังคมด้วย AI จะทำให้เกิดผลลัพธ์ที่อันตรายและสร้างความเดือดร้อนแก่ผู้คน การใช้เทคโนโลยี AI เข้ามาช่วยในการตัดสินใจที่เกิดขึ้นในภูมิภาคตะวันออกเฉียงใต้นี้ยังจำเป็นต้องได้รับการพัฒนา โดยมีอย่างน้อย 2 ด้าน ได้แก่ หนึ่งคือการมีชุดข้อมูลที่ดีพอสำหรับ Machine Learning ซึ่งยังเป็นเรื่องที่ภูมิภาคนี้ยังขาด เพราะประชากรอีกจำนวนมากยังเข้าไม่ถึงอินเตอร์เน็ต หรือคุณภาพของข้อมูลยังดีไม่พอ อย่างที่สองคือการที่หลายประเทศในภูมิภาคนี้ยังจำเป็นต้องนำเข้าเทคโนโลยี AI นั่นหมายความว่า วิศวกรที่ออกแบบไม่ได้เข้าใจบริบทภายในประเทศของภูมิภาคนี้ อย่างที่ได้กล่าวไปแล้วในบทความชิ้นแรกปัญหาเหล่านี้นำไปสู่ปัญหาที่อาจกระทบต่อประเด็นสิทธิมนุษยชน

วิศวกรผู้พัฒนาโดยมากแล้วจะเป็นคนนอกพื้นที่ ซึ่งอาจจะไม่เข้าใจบริบทท้องถิ่นนั้นๆ

เมื่อผู้คนต่างพึ่งพาเทคโนโลยีเพื่อเข้าถึงชีวิตทางเศรษฐกิจ สังคม และการเมืองแล้ว พวกเขาจึงจำเป็นต้องพึ่งพาความพร้อมใช้งานและความมีเสถียรภาพของเทคโนโลยีด้วย ตามที่กล่าวในข้างต้น เรื่องความเหลื่อมล้ำทางสังคมที่เพิ่มมากขึ้นระหว่างกลุ่มคนที่มีและคนไม่มี ซึ่งกลุ่มคนที่มีข้อจำกัดในการพัฒนาเทคโนโลยีอาจจำเป็นต้องพึ่งพาการใช้เทคโนโลยีที่ไม่ได้ถูกออกแบบให้เข้าถึงและใช้งานได้อย่างสะดวกหรือเหมาะกับการใช้งานในบริบทของตนเอง การเข้าถึงระบบ AI นั้นอาจจะมองได้หลายแง่มุม ซึ่งในภูมิภาคที่มีความหลากหลายทางวัฒนธรรมและภาษาเช่นนี้ จึงจำเป็นอย่างยิ่งที่ต้องให้ความสำคัญในเรื่องนี้ แต่ก็ต้องใช้เงินลงทุนสูงและบางครั้งอาจจะนำไปใช้งานจริงไม่ได้อีกด้วย ยิ่งไปกว่านั้นอาจจะเกิดจากอุปสรรคจากเรื่องของความบกพร่องในเชิงทางกายภาพหรือจิตใจ รวมไปถึงผู้ที่มีระดับการศึกษาน้อย ผู้ที่ไม่ได้มีความเท่าทันเรื่องดิจิทัลหรือแม้กระทั่งการเข้าไม่ถึงสาธารณูปโภคขั้นพื้นฐานต่างๆ

ปัญหาขั้นพื้นฐานเหล่านี้จำเป็นที่จะต้องพิจารณาอย่างจริงจังก่อนจะตัดสินใจแก้ปัญหาด้วยการใช้ AI เพื่อหาทางออก

ทุกปัญหาไม่สามารถแก้ไขด้วยเทคโนโลยีเพียงอย่างเดียว

เทคโนโลยีไม่ใช่ยาวิเศษที่ตอบปัญหาได้ทุกปัญหา

ไม่ใช่ทุกปัญหาจะได้รับการแก้ไขด้วยการประยุกต์ใช้เทคโนโลยีเพียงอย่างเดียว ตามที่ได้กล่าวถึงในบทความของ The Guardian ที่ได้ยกกรณีศึกษาจากประเทศอินเดีย เพื่อชี้ให้เห็นถึงต้นตอของปัญหาที่มาจากความไม่มีประสิทธิภาพของระบบที่มีมาก่อนหน้า ซึ่งเป็นเรื่องการทุจริตและการบริหารจัดการที่ไม่มีประสิทธิภาพของผู้บริหารระดับสูง และปัญหาเรื่องบัตรประชาชนปลอมที่เป็นปัญหาของ Aadhaar เมื่อกลายเป็นปัญหาที่ซับซ้อนในเชิงโครงสร้างและการแก้ปัญหาด้วยการใช้เทคโนโลยีอาจทำให้เบี่ยงประเด็นความสนใจในการแก้ไขปัญหาที่แท้จริงและยังเป็นการสร้างปัญหาใหม่เพิ่มขึ้นมาอีก

เมื่อมองในภูมิภาคเอเชียตะวันออกเฉียงใต้นี้ที่มีความกระตือรือร้นอย่างมากที่จะพยายามปรับการใช้ AI กับหลายสิ่ง จนนำไปสู่ออกแถลงการณ์ของผู้นำระดับสูงที่ต้องการสร้างแนวทางในการใช้ AI ในหลายภาคส่วน เช่น ประธานาธิบดีโจโกวีของอินโดนีเซียที่ออกมาประกาศว่า จะใช้การบริหารงานราชการด้วยการใช้ AI แทนเจ้าหน้าที่รัฐ ขณะที่รัฐมนตรีศึกษาธิการของมาเลเซียออกมากล่าวว่า จะใช้ Machines มาช่วยให้คำแนะนำทางด้านการวางแผนวิชาชีพให้แก่นักเรียนในอนาคต ซึ่งประเด็นนี้ยังเป็นที่ถกเถียงกันอยู่ว่า นี่เป็นวิธีที่เหมาะสมหรือไม่ในการแก้ปัญหาที่ประเทศของตนกำลังเผชิญหน้าอยู่ แต่ไม่ว่าจะใช้วิธีใหนย่อมจำเป็นอย่างยิ่งที่จะต้องปรึกษาหารือกับหลายภาคส่วนที่เกี่ยวข้องและการประเมินผลกระทบต่อประเด็นเรื่องสิทธิมนุษยชนด้วย

ความกังวลเรื่องความเหลื่อมล้ำที่มากขึ้นจากการใช้ AI

ท้ายที่สุด เมื่อมีการพูดถึง AI ในบริบทของภูมิภาคนี้ AI ก็มักจะถูกมองจากมุมของการเพิ่มความเติบโตทางเศรษฐกิจ หรือไม่ก็ AI จะเข้ามาทดแทนแรงงานคน การมองแบบนี้เปรียบเสมือนมองเหรียญสองด้าน นั่นคือบริษัทเอกชนจะเข้ามาแสวงหากำไรจากการทดแทนแรงงานมนุษย์ด้วย Machines แม้ว่ายังมีแรงงานที่ยังไม่ได้ทดแทนด้วย Machines แต่พวกเราต่างเริ่มเห็นแนวโน้มของระบบเศรษฐกิจที่เรียกว่า gig economy เช่นการเกิดขึ้น Grab และ Go-Jek หรือแพลตฟอร์มออนไลน์อื่นๆสำหรับผู้มีอาชีพอิสระ โดยมากแล้วแพลตฟอร์มเหล่านี้รัฐบาลต่างๆยังไม่มีการออกกฎเพื่อมาควบคุมในภูมิภาคเอเชียตะวันออกเฉียงใต้นี้ ทำให้มีความกังวลในเรื่องการเอารัดเอาเปรียบผู้ใช้แรงงาน โดยผ่านการที่บริษัทเทคโนโลยีเหล่านี้นำอัลกอริทึมมาปรับใช้

รัฐบาลในอาเซียนส่วนใหญ่มองว่า AI เป็นเหมือนตัวขับเคลื่อนเพื่อการพัฒนาทางเศรษฐกิจมากกว่าเป็นการพัฒนาทางสังคม

จากการตั้งข้อสังเกตของเวทีการพูดคุยต่างๆเกี่ยวกับ AI ซึ่งทำให้เห็นว่า หลายรัฐบาลในภูมิภาคาอาเซียนได้ใช้ AI ในฐานะตัวขับเคลื่อนทางเศรษฐกิจมากกว่าการพัฒนาทางสังคม จึงเป็นเรื่องที่น่ากังวลว่า การนำ AI มาใช้เพื่อเพิ่มประสิทธิภาพต่อการแสวงหากำไรของเจ้าของบริษัทเทคโนโลยีหลายแห่งซึ่งส่งผลกระทบด้านลบต่อผู้อื่นและโลกของเรา สถานการณ์ที่กล่าวถึงนี้ก็เป็นสิ่งที่เกิดขึ้นแล้วในทุกวันนี้ เพียงแต่ AI จะเข้ามาเพิ่มอัตราเร่งที่รวดเร็วกว่าหลายเท่าตัว

บทสรุป

ในเรื่องผลกระทบจาก AI ต่อสิทธิต่างๆในทางเศรษฐกิจ สังคม และวัฒนธรรมนั้น ผู้เขียนได้ให้คำตอบสั้นๆต่อคำถามที่ว่า AI เป็นสิ่งที่ดีหรือเป็นอันตรายในบริบทเอเชียตะวันออกเฉียงใต้ ซึ่งคำตอบก็คือ “ก็ขึ้นอยู่กับว่าจะนำ AI ไปใช้ทำอะไร” ส่วนภาคประชาสังคมในภูมิภาคนี้ยังคงต้องทำความเข้าใจมากขึ้นและสร้างพื้นที่การถกเถียงร่วมกันในประเด็นนี้ให้มากขึ้น ทั้งในมุมข้อดี ข้อเสีย ความท้าทาย ที่มีต่อเงื่อนไขของแต่ละประเทศในภูมิภาคนี้

ส่วนคำถามที่ว่า AI จะช่วยทำให้ชีวิตความเป็นอยู่ของผู้คนดีขึ้นหรือแย่ลง หรือความเกี่ยวข้องกับประเด็นเรื่องความเป็นส่วนตัว ประเด็นเหล่านี้จะกล่าวถึงในบทความต่อไปที่ชวนคิดถึงเรื่องผลกระทบของ AI ต่อสิทธิพลเมืองและทางการเมือง

เกี่ยวกับผู้เขียน

Dr. Jun-E Tan เป็นนักวิจัยอิสระ อาศัยอยู่ในเมืองกัวลาลัมเปอร์ ประเทศมาเลเซีย งานวิจัยและการสนับสนุนของ Jun-E นั้นเกี่ยวกับประเด็นการสื่อสารทางดิจิทัล สิทธิมนุษยชน และการพัฒนาที่ยั่งยืน บทความในปีวิจัยล่าสุดของ Jun-E มีชื่อว่า “สิทธิมนุษยชนทางดิจิทัลในภูมิภาคเอเชียอาคเนย์: กรอบแนวคิดและการสร้างขบวนการเคลื่อนไหว” (Digital Rights in Southeast Asia: Conceptual Framework and Movement Building) ได้เผยแพร่ในหนังสือ open access (สามารถ download เพื่ออ่านได้ฟรี) ที่มีชื่อว่า “การสำรวจความเกี่ยวเนื่องระหว่างเทคโนโลยีต่างๆและสิทธิมนุษยชน: โอกาสและความท้าทายที่หลากหลายในเอเชียอาคเนย์” (Exploring the Nexus Between Technologies and Human Rights: Opportunities and Challenges in Southeast Asia) จัดพิมพ์โดยสำนักพิมพ์ SHAPE-SEA เมื่อเดือนธันวาคม 2562 นอกจากนี้ Jun-E ยังได้เขียนบทความลงในบล็อกของตนเองอยู่เป็นประจำ

The post เราจะอยู่ร่วมกับ AI ได้หรือไม่: ปัญญาประดิษฐ์ (Artificial Intelligence) กับผลกระทบต่อสิทธิทางเศรษฐกิจ สังคม และวัฒนธรรม appeared first on Coconet.

]]>
https://coconet.social/2020/%e0%b9%80%e0%b8%a3%e0%b8%b2%e0%b8%88%e0%b8%b0%e0%b8%ad%e0%b8%a2%e0%b8%b9%e0%b9%88%e0%b8%a3%e0%b9%88%e0%b8%a7%e0%b8%a1%e0%b8%81%e0%b8%b1%e0%b8%9a-ai-%e0%b9%84%e0%b8%94%e0%b9%89%e0%b8%ab%e0%b8%a3/feed/ 0
เราจะอยู่ร่วมกับ AI ได้หรือไม่: ปัญญาประดิษฐ์ (Artificial Intelligence) กับผลกระทบต่อสิทธิทางเศรษฐกิจ สังคม และวัฒนธรรม https://coconet.social/2020/ai-impacts-economic-social-cultural-rights-th/ https://coconet.social/2020/ai-impacts-economic-social-cultural-rights-th/#respond Tue, 11 Aug 2020 03:33:05 +0000 https://coconet.social/?p=5538 บทความนี้เป็นบทความที่สองในซีรีย์บทความที่เกี่ยวกับผลกระทบสิทธิมนุษยชนที่มาจากปัญญาประดิษฐ์ (Artificial Intelligence หรือ AI) ในบริบทของภูมิภาคเอเชียตะวันออกเฉียงใต้ โดยมีจุดประสงค์เพื่อการสร้างความตระหนักรู้และการมีส่วนร่วมของภาคประชาสังคมในประเด็นนี้

The post เราจะอยู่ร่วมกับ AI ได้หรือไม่: ปัญญาประดิษฐ์ (Artificial Intelligence) กับผลกระทบต่อสิทธิทางเศรษฐกิจ สังคม และวัฒนธรรม appeared first on Coconet.

]]>

Read this article in English / อ่านบทความนี้ใน ภาษาอังกฤษ

แปลไทยโดย ธีรดา ณ จัตุรัส

บทความนี้เป็นบทความที่สองในซีรีย์บทความที่เกี่ยวกับผลกระทบด้านสิทธิมนุษยชนที่มาจากปัญญาประดิษฐ์ (Artificial Intelligence หรือ AI) ในบริบทของภูมิภาคเอเชียตะวันออกเฉียงใต้ โดยมีจุดประสงค์เพื่อการสร้างความตระหนักรู้และการมีส่วนร่วมของภาคประชาสังคมในประเด็นนี้

จากบทความก่อนหน้านี้ เราได้กล่าวถึงคำนิยามของ AI และ Machine Learning พร้อมทั้งยังได้พิจารณาประเด็นของการประยุกต์ใช้เทคโนโลยีเหล่านี้ภายในภูมิภาคเอเชียตะวันออกเฉียงใต้ไปแล้ว ส่วนในบทความนี้และบทความถัดไป เราจะกล่าวถึงต่อในเรื่องผลกระทบที่มีต่อ 1. สิทธิทางเศรษฐกิจ สังคม วัฒนธรรม (Economic, Social, and Cultural Rights – ESCR) และ 2. สิทธิทางพลเมืองและสิทธิทางการเมือง (Civil and Political Rights – CPR) เพื่อทำความเข้าใจความเชื่อมโยงที่เกี่ยวกับเรื่องนี้ โดยในบทความนี้จะเน้นถึงผลกระทบที่มีต่อประเด็นสิทธิทางเศรษฐกิจ สังคม วัฒนธรรม (ESCR)

สิทธิทางเศรษฐกิจ สังคม วัฒนธรรม (ESCR) คืออะไร

จากกติการะหว่างประเทศว่าด้วยสิทธิทางเศรษฐกิจ สังคม และวัฒนธรรม (International Covenant of Economic, Social and Cultural Rights – ICESCR) ซึ่งรวมไปถึงสิทธิในการเข้าถึงการรักษาพยาบาล การศึกษา ประกันสังคม เงื่อนไขการทำงานที่เหมาะสม คุณภาพชีวิตที่ดี และการมีส่วนร่วมทางวัฒนธรรมและกิจกรรมสร้างสรรค์อื่นๆ สิทธิต่างๆเหล่านี้จัดว่าเป็นสิทธิเชิงบวก (positive rights) ซึ่งจำเป็นที่จะต้องมีแนวทางปฏิบัติเพื่อเติมเต็มให้สิทธิเหล่านี้เกิดขึ้น เช่น การจัดหางานที่ดีให้ สิทธิเชิงบวกนี้ตรงกันข้ามกับสิทธิพลเมืองและสิทธิทางการเมือง ซึ่งจำเป็นต้องมีการละเว้นกระทำและไม่ขัดขวางอันเป็นการละเมิดสิทธิในทางนี้ เช่น การไม่ละเมิดเสรีภาพในการแสดงออก

ข้อสังเกตสำคัญก็คือ ความหมายของ ESCR ที่เกี่ยวข้องกับ AI ไม่ได้ตีความแบบสองขั้ว เช่น “ดี” หรือ “เลว” แม้ว่าจะนำหลักการนี้ไปใช้แบบเดียวกัน แต่ผลลัพธ์ที่ได้อาจแตกต่างกันไปในแต่ละกรณี บางคนได้รับผลดีแต่บางคนอาจได้รับผลกระทบเชิงลบ ตัวอย่างที่เห็นได้คือ การใช้ AI ช่วยในการตัดสินใจเลือกลูกค้าที่มีเครดิตที่น่าไว้วางใจโดยพิจารณาจากชุดข้อมูลเท่าที่มีอยู่ ทั้งนี้อาจจะไม่ได้ส่งผลดีต่อผู้ที่ไม่มีกำลังซื้อมากนัก เพราะกลุ่มคนเหล่านี้อาจจะมีกำลังซื้อน้อยกว่ากลุ่มที่มีรายได้สูงและทำให้มีข้อมูลประวัติการใช้จ่ายที่ไม่เพียงพอต่อการวิเคราะห์ถึงประวัติการมีเครดิตที่น่าไว้วางใจ แต่การใช้ชุดข้อมูลอื่นที่มีขอบเขตกว้างขวางกว่าประวัติเรื่องเครดิตก็อาจทำให้เกิดการเลือกปฏิบัติจากการใช้ชุดข้อมูลที่ไม่เกี่ยวข้องหรือบางครั้งอาจเกิดการใช้ข้อมูลโดยพลการ เช่น กรณีที่ใช้ AI มาวิเคราะห์และให้ผลคะแนนต่ำถ้าผู้สมัครคนนั้นพิมพ์อักษรตัวพิมพ์ใหญ่ทั้งหมด (all-caps) ส่งผลให้เกิดความเสี่ยงสูงต่อค่าเริ่มต้น

บทความนี้จะมองผลกระทบของ AI ที่มีต่อ ESCR แบ่งออกมาเป็น 2 แบบ คือ 1. ผลกระทบเมื่อไม่ใช้ AI เพื่อการพัฒนา และ 2. ผลกระทบทางลบจากการใช้ AI

"fikiran" is licensed under CC0 1.0

ประโยชน์ด้านการพัฒนาของ AI

หากใช้ AI แบบมียุทธศาสตร์และเป็นไปอย่างเหมาะสมแล้วย่อมสามารถเพิ่มผลประโยชน์ได้ ทางการพัฒนาอย่างมหาศาล รวมไปถึงการเติบโตทางเศรษฐกิจด้วย แต่ความเป็นจริงแล้ว AI ยังสามารถพัฒนาคุณภาพชีวิตของผู้คนในอีกหลายด้าน เช่นเดียวกับตัวอย่างดังต่อไปนี้ที่ทำให้เห็นว่าเทคโนโลยีได้ช่วยให้เกิดผลสำเร็จด้านการพัฒนาได้อย่างไรในภูมิภาคเอเชียตะวันออกเฉียงใต้

  • ด้านสุขภาพ: ในสิงคโปร์ บริษัท start-up ที่ชื่อว่า Kronikare ร่วมมือกับ AI Singapore พัฒนาระบบที่ช่วยรวบรวมข้อมูล วิเคราะห์ และวินิจฉัยบาดแผลที่มีสภาพเรื้อรัง ระบบนี้ได้มีการใช้อย่างกว้างขวาง รวมทั้งในโรงพยาบาลและบ้านพักผู้สูงอายุบางแห่งในสิงคโปร์
  • ด้านการจราจร: ในกัวลาลัมเปอร์ บริษัท Malaysia City Brain ร่วมมือกับบริษัท Alibaba, Malaysia Digital Economy Corporation และสภาเมืองของกัวลาลัมเปอร์ ได้ตั้งเป้าในการลดการจราจรที่ติดขัดในเขตเมือง โดยบริษัท City Brain ในเมือง Hangzhaou ประเทศจีน ได้ริเริ่มใช้โครงการนี้ไปแล้วและทำให้บริหารสภาพคล่องทางการจราจรเร็วขึ้นกว่าเดิมถึง 15% ในบางพื้นที่
  • ด้านการศึกษา: แพลตฟอร์มเพื่อการศึกษาที่ชื่อว่า Ruangguruในอินโดนีเซีย ช่วยให้นักเรียนและครูสามารถดำเนินการเรียนการสอน พร้อมทั้งมีวิดีโอสื่อการสอนในหลายวิชา และยังได้ใช้ AI เพื่อการออกแบบบทเรียนที่เฉพาะเจาะจงสำหรับนักเรียนได้ โดยสามารถรองรับนักเรียนได้ประมาณ 15 ล้านคน และ 80% ของนักเรียนกลุ่มนี้อาศัยอยู่นอกเขตเมือง
  • ด้านความมั่นคงทางอาหาร: ในเวียดนาม บริษัท start-up หลายแห่งกำลังใช้ AI และระบบเซ็นเซอร์ของ Internet of Things (IoT) เพื่อเพิ่มการผลิตทางการเกษตร การประหยัดการใช้น้ำ และการให้ปุ๋ย บริษัท start-up ที่ชื่อว่า Sero ระบุว่าถึง 70% – 90% ของความแม่นยำในการจำแนกชนิดโรคของพืชได้ถึง 20 ชนิด ซึ่งทำให้สามารถลดปริมาณความเสียหายในการปลูกพืชลงไปได้

แต่เมื่อพิจารณาทั้งหมด 11 ประเทศทั่วภูมิภาคเอเชียตะวันออกเฉียงใต้นั้นต่างมีความไม่เท่าเทียมกันในระดับการประยุกต์ใช้และความสามารถในการใช้ AI ความไม่เท่าเทียมกันนี้เห็นได้จากรายงาน AI Government Readiness Index ซึ่งจัดทำโดยศูนย์วิจัย Oxford Insights and the International Development โดยได้จัดลำดับรัฐบาลต่างๆโดยพิจารณาจากความพร้อมในการใช้ AI ทั้งในด้านบริหารรัฐกิจและการส่งมอบงาน จากการจัดลำดับในรายงานฉบับนี้ระบุว่า ประเทศสิงคโปร์ถือเป็นผู้นำในระดับโลก ส่วนอีก 6 ประเทศในภูมิภาคเอเชียตะวันออกเฉียงใต้ที่ติดอยู่ใน 100 อันดับประเทศที่รัฐบาลมีความพร้อมในการนำ AI มาใช้งาน ได้แก่ มาเลเซีย (อันดับ 22), ฟิลิปปินส์ (อันดับ 50), ประเทศไทย (อันดับ 56), อินโดนีเซีย (อันดับ 57) และเวียดนาม (อันดับ 70)

ประเทศ (อันดับในโลก)

คะแนน

Singapore (1)
~9.186
Malaysia (22)
~7.108
Philippines (50)
~5.704
Thailand (56)
~5.458
Indonesia (57)
~5.420
Vietnam (70)
~5.081
Brunei Darussalam (121)
~3.143
Cambodia (125)
~2.810
Laos (137)
~2.314
Myanmar (159)
~1.385
Timor Leste (173)
~0.694

โดยประเทศที่ได้รับการจัดลำดับให้อยู่ในอันดับต้นๆนั้นต่างมียุทธศาสตร์แห่งชาติหรือกำลังร่างขึ้นมา โดยตั้งเป้าหมายในเรื่องการสนับสนุนการพัฒนา AI ให้เกิดขึ้นภายในประเทศของตน เพื่อจะเป็นข้อได้เปรียบทางเทคโนโลยีและมุ่งสร้างสิ่งแวดล้อมที่เอื้ออำนวยต่อการพัฒนา AI เพื่อขับเคลื่อนความคิดริเริ่มต่างๆทางด้านการพัฒนา AI กรณีประเทศสิงคโปร์มียุทธศาสตร์เรื่องปัญญาประดิษฐ์แห่งชาติ (National Artificial Intelligence Strategy) ซึ่งมุ่งเป้าไปที่การเป็นผู้นำในด้านการพัฒนา AI ภายในปี 2573 นี้ ยุทศศาสตร์นี้ยังได้ทำให้ระบบนิเวศของ AI มีความเข้มแข็งยิ่งขี้น ทั้งยังได้เสนอความช่วยเหลือทางการเงินมากกว่า 500 ล้านดอลล่าร์สิงคโปร์ ส่วนประเทศอื่นในภูมิภาคเอเชียตะวันออกเฉียงใต้นั้นที่มีนโยบายทางด้านการพัฒนา AI เช่น ประเทศมาเลเซีย (ซึ่งมีกรอบแนวทางปัญญาประดิษฐ์แห่งชาติ หรือ National AI Framework ในปี 2563 และนโยบายทางด้านข้อมูลและ AI แห่งชาติ หรือ National Data and AI Policy ที่ได้รับการเสนอในคณะรัฐมนตรี) และประเทศอินโดนีเซีย (ที่ตั้งเป้าไปที่การสร้างกลยุทธ์ปัญญาประดิษฐ์ให้แล้วเสร็จภายในปี 2563 นี้)

ขณะที่กลุ่มประเทศกำลังพัฒนาอื่นๆกลับยังคงต้องเผชิญความท้าทายในเรื่องการเข้าถึงอินเตอร์เน็ต เช่น ติมอร์-เลสเต ที่มีสัดส่วนประชากรที่สามารถเข้าถึงอินเตอร์เน็ตเพียง 30.3% ของจำนวนประชากรทั้งหมด ส่วนประเทศเมียนมามีจำนวน 33.1% และประเทศลาวมีจำนวน 35.4% นั่นทำให้เห็นว่าปัญหาความไม่เท่าเทียมกันระหว่างประเทศที่เข้าถึงเทคโนโลยีกับประเทศไม่สามารถเข้าถึงได้

ขณะที่รัฐบาลอาจจะมีความพร้อมที่ช้าในด้านการพัฒนา AI แต่ฝั่งภาคเอกชนกลับเร่งเดินหน้าเพื่อเสนอบริการด้าน AI เพราะต้องการที่จะกระโดดเข้าร่วมกระแส “smart” ซึ่งรวมไปถึงการใช้ AI ในการพัฒนาสินค้าและบริการ ส่วนการเปิดตัวเครือข่ายเมืองอัจริยะแห่งอาเซียน (ASEAN Smart Cities Network – ASCN)เมื่อปี 2561 ได้มีสมาชิกเข้าร่วมจาก 26 เมืองทั่วทั้งเอเชียตะวันออกเฉียงใต้ โดยมีจุดประสงค์เพื่อจะใช้เทคโนโลยีในการพัฒนาของเมือง ซึ่งหนึ่งในเป้าหมายของเครือข่ายนี้ยังเน้นไปยังการเชื่อมต่อเมืองเหล่านี้เข้ากับผู้ให้บริการภาคเอกชนที่มีความสามารถในการแก้ปัญหาทางเทคโนโลยี

ในภาพรวมจากแผนการและวิสัยทัศน์ต่างๆ ดูเหมือนจะเป็นความหวัง จากการเป็นพื้นที่ศูนย์กลางการพัฒนาของเครือข่าย ASCN ที่ต้องการสร้างความร่วมมือด้านสังคมและวัฒนธรรม สุขภาพและคุณภาพชีวิต ความปลอดภัยสาธารณะ การรักษาสิ่งแวดล้อม การสร้างสาธารณูปโภค รวมทั้งอุตสาหกรรมและนวัตกรรมใหม่

Artificial Intelligence & AI & Machine Learning
Artificial Intelligence & AI & Machine Learning. Image by Mike MacKenzie via www.vpnsrus.com

ความเสี่ยงซึ่งอาจเกิดจาก AI ที่ส่งผลกระทบต่อ ESCR

ประโยชน์ด้านการพัฒนาที่เกิดจาก AI นั้นย่อมขึ้นอยู่กับการนำไปใช้ นี่คือจุดที่มีความเสี่ยงมากมาย แม้ว่าจะยังไม่มีกรณีตัวอย่างที่ชัดเจนเกี่ยวกับเรื่องความปลอดภัยและอันตรายจากการใช้ AI ในภูมิภาคของเรา เพราะนี่ถือเป็นช่วงเริ่มแรกของการพัฒนาทางเทคโนโลยีทว่าพวกเรายังคงต้องจับตาดูปัญหาที่เกิดขึ้นในพื้นที่อื่นๆ เพื่อเรียนรู้และเท่าทัน

เช่นกรณีตัวอย่างที่ปรากฏในบทความที่มีชื่อว่า Automating Poverty ของ The Guardian เล่าถึงผลกระทบที่เกิดในประเทศอินเดีย สหราชอาณาจักร สหรัฐอเมริกา และออสเตรเลีย จากการใช้ระบบ AI ที่มีความสามารถในการตัดสินใจด้วยตัวเอง โดยได้นำมาปรับใช้กับระบบประกันสังคม ผลลัพธ์กลับทำให้เกิดการลดทอนคุณค่าความเป็นมนุษย์และเป็นการลงโทษกลุ่มคนชายขอบมากขึ้นไปอีก โดยเฉพาะกรณีของอินเดียทำให้เห็นผลกระทบที่ตามมาอย่างรุนแรงในการนำ AI ไปใช้ในทางที่ผิดที่เกิดขึ้นในบริบทของประเทศกำลังพัฒนา จากการเปลี่ยนผ่านจากระบบกระดาษไปสู่ระบบดิจิทัลยิ่งทำให้กลุ่มคนยากจนมีความเปราะบางมากขึ้นในเรื่องของการใช้เทคโนโลยี นับตั้งแต่ปัญหาเรื่องไฟดับ ความไม่เสถียรของอินเตอร์เน็ตไปจนถึงการที่ไม่รู้ว่าทำไมตนเองถึงถูกปฏิเสธจากระบบประกันสังคม ทั้งที่ระบบนั้นควรต้องครอบคลุมถึงการคุ้มครองทางสังคมและการขอเงินค่ารักษาพยาบาลคืนแก่คนจน โดยความผิดพลาดต่างๆที่เกิดขึ้นอาจะนำไปสู่ความตายและความหิวโหย

ระบบที่เอนเอียง และการเข้าถึง

การตัดสินใจที่ไม่โปร่งใสเรื่องประกันสังคมด้วย AI จะทำให้เกิดผลลัพธ์ที่อันตรายและสร้างความเดือดร้อนแก่ผู้คน การใช้เทคโนโลยี AI เข้ามาช่วยในการตัดสินใจที่เกิดขึ้นในภูมิภาคตะวันออกเฉียงใต้นี้ยังจำเป็นต้องได้รับการพัฒนา โดยมีอย่างน้อย 2 ด้าน ได้แก่ หนึ่งคือการมีชุดข้อมูลที่ดีพอสำหรับ Machine Learning ซึ่งยังเป็นเรื่องที่ภูมิภาคนี้ยังขาด เพราะประชากรอีกจำนวนมากยังเข้าไม่ถึงอินเตอร์เน็ต หรือคุณภาพของข้อมูลยังดีไม่พอ อย่างที่สองคือการที่หลายประเทศในภูมิภาคนี้ยังจำเป็นต้องนำเข้าเทคโนโลยี AI นั่นหมายความว่า วิศวกรที่ออกแบบไม่ได้เข้าใจบริบทภายในประเทศของภูมิภาคนี้ อย่างที่ได้กล่าวไปแล้วในบทความชิ้นแรกปัญหาเหล่านี้นำไปสู่ปัญหาที่อาจกระทบต่อประเด็นสิทธิมนุษยชน

วิศวกรผู้พัฒนาโดยมากแล้วจะเป็นคนนอกพื้นที่ ซึ่งอาจจะไม่เข้าใจบริบทท้องถิ่นนั้นๆ

เมื่อผู้คนต่างพึ่งพาเทคโนโลยีเพื่อเข้าถึงชีวิตทางเศรษฐกิจ สังคม และการเมืองแล้ว พวกเขาจึงจำเป็นต้องพึ่งพาความพร้อมใช้งานและความมีเสถียรภาพของเทคโนโลยีด้วย ตามที่กล่าวในข้างต้น เรื่องความเหลื่อมล้ำทางสังคมที่เพิ่มมากขึ้นระหว่างกลุ่มคนที่มีและคนไม่มี ซึ่งกลุ่มคนที่มีข้อจำกัดในการพัฒนาเทคโนโลยีอาจจำเป็นต้องพึ่งพาการใช้เทคโนโลยีที่ไม่ได้ถูกออกแบบให้เข้าถึงและใช้งานได้อย่างสะดวกหรือเหมาะกับการใช้งานในบริบทของตนเอง การเข้าถึงระบบ AI นั้นอาจจะมองได้หลายแง่มุม ซึ่งในภูมิภาคที่มีความหลากหลายทางวัฒนธรรมและภาษาเช่นนี้ จึงจำเป็นอย่างยิ่งที่ต้องให้ความสำคัญในเรื่องนี้ แต่ก็ต้องใช้เงินลงทุนสูงและบางครั้งอาจจะนำไปใช้งานจริงไม่ได้อีกด้วย ยิ่งไปกว่านั้นอาจจะเกิดจากอุปสรรคจากเรื่องของความบกพร่องในเชิงทางกายภาพหรือจิตใจ รวมไปถึงผู้ที่มีระดับการศึกษาน้อย ผู้ที่ไม่ได้มีความเท่าทันเรื่องดิจิทัลหรือแม้กระทั่งการเข้าไม่ถึงสาธารณูปโภคขั้นพื้นฐานต่างๆ

ปัญหาขั้นพื้นฐานเหล่านี้จำเป็นที่จะต้องพิจารณาอย่างจริงจังก่อนจะตัดสินใจแก้ปัญหาด้วยการใช้ AI เพื่อหาทางออก

ทุกปัญหาไม่สามารถแก้ไขด้วยเทคโนโลยีเพียงอย่างเดียว

เทคโนโลยีไม่ใช่ยาวิเศษที่ตอบปัญหาได้ทุกปัญหา

ไม่ใช่ทุกปัญหาจะได้รับการแก้ไขด้วยการประยุกต์ใช้เทคโนโลยีเพียงอย่างเดียว ตามที่ได้กล่าวถึงในบทความของ The Guardian ที่ได้ยกกรณีศึกษาจากประเทศอินเดีย เพื่อชี้ให้เห็นถึงต้นตอของปัญหาที่มาจากความไม่มีประสิทธิภาพของระบบที่มีมาก่อนหน้า ซึ่งเป็นเรื่องการทุจริตและการบริหารจัดการที่ไม่มีประสิทธิภาพของผู้บริหารระดับสูง และปัญหาเรื่องบัตรประชาชนปลอมที่เป็นปัญหาของ Aadhaar เมื่อกลายเป็นปัญหาที่ซับซ้อนในเชิงโครงสร้างและการแก้ปัญหาด้วยการใช้เทคโนโลยีอาจทำให้เบี่ยงประเด็นความสนใจในการแก้ไขปัญหาที่แท้จริงและยังเป็นการสร้างปัญหาใหม่เพิ่มขึ้นมาอีก

เมื่อมองในภูมิภาคเอเชียตะวันออกเฉียงใต้นี้ที่มีความกระตือรือร้นอย่างมากที่จะพยายามปรับการใช้ AI กับหลายสิ่ง จนนำไปสู่ออกแถลงการณ์ของผู้นำระดับสูงที่ต้องการสร้างแนวทางในการใช้ AI ในหลายภาคส่วน เช่น ประธานาธิบดีโจโกวีของอินโดนีเซียที่ออกมาประกาศว่า จะใช้การบริหารงานราชการด้วยการใช้ AI แทนเจ้าหน้าที่รัฐ ขณะที่รัฐมนตรีศึกษาธิการของมาเลเซียออกมากล่าวว่า จะใช้ Machines มาช่วยให้คำแนะนำทางด้านการวางแผนวิชาชีพให้แก่นักเรียนในอนาคต ซึ่งประเด็นนี้ยังเป็นที่ถกเถียงกันอยู่ว่า นี่เป็นวิธีที่เหมาะสมหรือไม่ในการแก้ปัญหาที่ประเทศของตนกำลังเผชิญหน้าอยู่ แต่ไม่ว่าจะใช้วิธีใหนย่อมจำเป็นอย่างยิ่งที่จะต้องปรึกษาหารือกับหลายภาคส่วนที่เกี่ยวข้องและการประเมินผลกระทบต่อประเด็นเรื่องสิทธิมนุษยชนด้วย

ความกังวลเรื่องความเหลื่อมล้ำที่มากขึ้นจากการใช้ AI

ท้ายที่สุด เมื่อมีการพูดถึง AI ในบริบทของภูมิภาคนี้ AI ก็มักจะถูกมองจากมุมของการเพิ่มความเติบโตทางเศรษฐกิจ หรือไม่ก็ AI จะเข้ามาทดแทนแรงงานคน การมองแบบนี้เปรียบเสมือนมองเหรียญสองด้าน นั่นคือบริษัทเอกชนจะเข้ามาแสวงหากำไรจากการทดแทนแรงงานมนุษย์ด้วย Machines แม้ว่ายังมีแรงงานที่ยังไม่ได้ทดแทนด้วย Machines แต่พวกเราต่างเริ่มเห็นแนวโน้มของระบบเศรษฐกิจที่เรียกว่า gig economy เช่นการเกิดขึ้น Grab และ Go-Jek หรือแพลตฟอร์มออนไลน์อื่นๆสำหรับผู้มีอาชีพอิสระ โดยมากแล้วแพลตฟอร์มเหล่านี้รัฐบาลต่างๆยังไม่มีการออกกฎเพื่อมาควบคุมในภูมิภาคเอเชียตะวันออกเฉียงใต้นี้ ทำให้มีความกังวลในเรื่องการเอารัดเอาเปรียบผู้ใช้แรงงาน โดยผ่านการที่บริษัทเทคโนโลยีเหล่านี้นำอัลกอริทึมมาปรับใช้

รัฐบาลในอาเซียนส่วนใหญ่มองว่า AI เป็นเหมือนตัวขับเคลื่อนเพื่อการพัฒนาทางเศรษฐกิจมากกว่าเป็นการพัฒนาทางสังคม

จากการตั้งข้อสังเกตของเวทีการพูดคุยต่างๆเกี่ยวกับ AI ซึ่งทำให้เห็นว่า หลายรัฐบาลในภูมิภาคาอาเซียนได้ใช้ AI ในฐานะตัวขับเคลื่อนทางเศรษฐกิจมากกว่าการพัฒนาทางสังคม จึงเป็นเรื่องที่น่ากังวลว่า การนำ AI มาใช้เพื่อเพิ่มประสิทธิภาพต่อการแสวงหากำไรของเจ้าของบริษัทเทคโนโลยีหลายแห่งซึ่งส่งผลกระทบด้านลบต่อผู้อื่นและโลกของเรา สถานการณ์ที่กล่าวถึงนี้ก็เป็นสิ่งที่เกิดขึ้นแล้วในทุกวันนี้ เพียงแต่ AI จะเข้ามาเพิ่มอัตราเร่งที่รวดเร็วกว่าหลายเท่าตัว

บทสรุป

ในเรื่องผลกระทบจาก AI ต่อสิทธิต่างๆในทางเศรษฐกิจ สังคม และวัฒนธรรมนั้น ผู้เขียนได้ให้คำตอบสั้นๆต่อคำถามที่ว่า AI เป็นสิ่งที่ดีหรือเป็นอันตรายในบริบทเอเชียตะวันออกเฉียงใต้ ซึ่งคำตอบก็คือ “ก็ขึ้นอยู่กับว่าจะนำ AI ไปใช้ทำอะไร” ส่วนภาคประชาสังคมในภูมิภาคนี้ยังคงต้องทำความเข้าใจมากขึ้นและสร้างพื้นที่การถกเถียงร่วมกันในประเด็นนี้ให้มากขึ้น ทั้งในมุมข้อดี ข้อเสีย ความท้าทาย ที่มีต่อเงื่อนไขของแต่ละประเทศในภูมิภาคนี้

ส่วนคำถามที่ว่า AI จะช่วยทำให้ชีวิตความเป็นอยู่ของผู้คนดีขึ้นหรือแย่ลง หรือความเกี่ยวข้องกับประเด็นเรื่องความเป็นส่วนตัว ประเด็นเหล่านี้จะกล่าวถึงในบทความต่อไปที่ชวนคิดถึงเรื่องผลกระทบของ AI ต่อสิทธิพลเมืองและทางการเมือง

เกี่ยวกับผู้เขียน

Dr. Jun-E Tan เป็นนักวิจัยอิสระ อาศัยอยู่ในเมืองกัวลาลัมเปอร์ ประเทศมาเลเซีย งานวิจัยและการสนับสนุนของ Jun-E นั้นเกี่ยวกับประเด็นการสื่อสารทางดิจิทัล สิทธิมนุษยชน และการพัฒนาที่ยั่งยืน บทความในปีวิจัยล่าสุดของ Jun-E มีชื่อว่า “สิทธิมนุษยชนทางดิจิทัลในภูมิภาคเอเชียอาคเนย์: กรอบแนวคิดและการสร้างขบวนการเคลื่อนไหว” (Digital Rights in Southeast Asia: Conceptual Framework and Movement Building) ได้เผยแพร่ในหนังสือ open access (สามารถ download เพื่ออ่านได้ฟรี) ที่มีชื่อว่า “การสำรวจความเกี่ยวเนื่องระหว่างเทคโนโลยีต่างๆและสิทธิมนุษยชน: โอกาสและความท้าทายที่หลากหลายในเอเชียอาคเนย์” (Exploring the Nexus Between Technologies and Human Rights: Opportunities and Challenges in Southeast Asia) จัดพิมพ์โดยสำนักพิมพ์ SHAPE-SEA เมื่อเดือนธันวาคม 2562 นอกจากนี้ Jun-E ยังได้เขียนบทความลงในบล็อกของตนเองอยู่เป็นประจำ

The post เราจะอยู่ร่วมกับ AI ได้หรือไม่: ปัญญาประดิษฐ์ (Artificial Intelligence) กับผลกระทบต่อสิทธิทางเศรษฐกิจ สังคม และวัฒนธรรม appeared first on Coconet.

]]>
https://coconet.social/2020/ai-impacts-economic-social-cultural-rights-th/feed/ 0
ปัญญาประดิษฐ์ (Artificial Intelligence: AI) กับข้อกังวลด้านสิทธิมนุษยชนในสังคมเอเชียตะวันออกเฉียงใต้: ภาพรวม https://coconet.social/2020/%e0%b8%9b%e0%b8%b1%e0%b8%8d%e0%b8%8d%e0%b8%b2%e0%b8%9b%e0%b8%a3%e0%b8%b0%e0%b8%94%e0%b8%b4%e0%b8%a9%e0%b8%90%e0%b9%8c-artificial-intelligence-ai-%e0%b8%81%e0%b8%b1%e0%b8%9a%e0%b8%82%e0%b9%89/ https://coconet.social/2020/%e0%b8%9b%e0%b8%b1%e0%b8%8d%e0%b8%8d%e0%b8%b2%e0%b8%9b%e0%b8%a3%e0%b8%b0%e0%b8%94%e0%b8%b4%e0%b8%a9%e0%b8%90%e0%b9%8c-artificial-intelligence-ai-%e0%b8%81%e0%b8%b1%e0%b8%9a%e0%b8%82%e0%b9%89/#respond Mon, 10 Aug 2020 08:56:26 +0000 https://coconet.social/2020/%e0%b8%9b%e0%b8%b1%e0%b8%8d%e0%b8%8d%e0%b8%b2%e0%b8%9b%e0%b8%a3%e0%b8%b0%e0%b8%94%e0%b8%b4%e0%b8%a9%e0%b8%90%e0%b9%8c-artificial-intelligence-ai-%e0%b8%81%e0%b8%b1%e0%b8%9a%e0%b8%82%e0%b9%89/ แม้เราจะเห็นคำว่าปัญญาประดิษฐ์ (Artificial Intelligence หรือ AI) ถูกนำมาใช้อย่างแพร่หลายไปทุกหนทุกแห่งในชีวิตประจำวัน รวมถึงการสื่อสารของเราในแต่ละวัน แต่ความเข้าใจเกี่ยวกับ AI ยังถือว่ามีอยู่น้อยมากในกลุ่มภาคประชาสังคมในภูมิภาคเอเชียตะวันออกเฉียงใต้ เช่นคำถามที่ว่า 1) AI คืออะไร 2) แล้วมีการนำ AI ไปประยุกต์ใช้อะไรบ้างในปัจจุบันโดยเฉพาะในภูมิภาคนี้ 3) รวมไปถึงอะไรคือความเชื่อมโยงระหว่างการเกิดขึ้นของเทคโนโลยีใหม่อย่าง AI กับปัญหาการละเมิดสิทธิมนุษยชน 4) และยุทธศาสตร์การทำงานที่จะช่วยบรรเทาปัญหาการละเมิดสิทธิมนุษยชนจะเป็นอย่างไร

The post ปัญญาประดิษฐ์ (Artificial Intelligence: AI) กับข้อกังวลด้านสิทธิมนุษยชนในสังคมเอเชียตะวันออกเฉียงใต้: ภาพรวม appeared first on Coconet.

]]>
"Inteligencia Artificial: ECI 33 (UBA)" by Juan Pablo Dellacha is licensed under CC BY-NC-ND 4.0
"Inteligencia Artificial: ECI 33 (UBA)" by Juan Pablo Dellacha is licensed under CC BY-NC-ND 4.0

Read this article in English

แปลไทยโดย ธีรดา ณ จัตุรัส

แม้เราจะเห็นคำว่าปัญญาประดิษฐ์ (Artificial Intelligence หรือ AI) ถูกนำมาใช้อย่างแพร่หลายไปทุกหนทุกแห่งในชีวิตประจำวัน รวมถึงการสื่อสารของเราในแต่ละวัน แต่ความเข้าใจเกี่ยวกับ AI ยังถือว่ามีอยู่น้อยมากในกลุ่มภาคประชาสังคมในภูมิภาคเอเชียตะวันออกเฉียงใต้ เช่นคำถามที่ว่า 1) AI คืออะไร 2) แล้วมีการนำ AI ไปประยุกต์ใช้อะไรบ้างในปัจจุบันโดยเฉพาะในภูมิภาคนี้ 3) รวมไปถึงอะไรคือความเชื่อมโยงระหว่างการเกิดขึ้นของเทคโนโลยีใหม่อย่าง AI กับปัญหาการละเมิดสิทธิมนุษยชน 4) และยุทธศาสตร์การทำงานที่จะช่วยบรรเทาปัญหาการละเมิดสิทธิมนุษยชนจะเป็นอย่างไร

บทความนี้เป็นหนึ่งในชุดบทความที่เกี่ยวกับผลกระทบด้านสิทธิมนุษยชนที่เกี่ยวข้องกับปัญญาประดิษฐ์ (AI) ในภูมิภาคเอเชียตะวันออกเฉียงใต้ โดยมีจุดประสงค์เพื่อการสร้างความตระหนักรู้และกระตุ้นการมีส่วนร่วมของภาคประชาสังคมที่ทำงานร่วมกับชุมชนชายขอบ ทั้งในการรณรงค์เรื่องสิทธิต่างๆ และการแก้ไขปัญหาที่เกี่ยวกับการพัฒนาทั้งในมิติผลกระทบด้านสาธารณสุข ความยากจน และสิ่งแวดล้อม

AI คืออะไร

คำว่า Artificial Intelligence (AI) เป็นศัพท์ที่มีความหมายกว้างและตีความได้หลายแบบ อันที่จริงบทความทางวิชาการที่เขียนเกี่ยวกับ AI ส่วนใหญ่เริ่มต้นด้วยการอธิบายว่า ในปัจจุบันยังไม่มีคำนิยามที่ยอมรับกันอย่างเป็นสากลว่า AI หมายถึงอะไร

ถ้าจะพูดถึง AI อย่างกว้างๆ อาจหมายถึง “ศาสตร์ของการศึกษาเกี่ยวกับอุปกรณ์ดิจิทัลต่างๆ ที่พัฒนาขึ้นมาเพื่อให้มีความสามารถในการเรียนรู้และทำความเข้าใจสภาพแวดล้อมที่อยู่โดยรอบ และกำหนดแนวทางการการดำเนินการในช่วงระยะเวลาหนึ่งเพื่อเพิ่มโอกาสในการบรรลุเป้าหมายที่กำหนดไว้” (World Wide Web Foundation, 2017).

ในทางปฏิบัติแล้ว การเรียนรู้ของเครื่องจักร (Machine Learning หรือ ML) เป็นหนึ่งในศาสตร์ของการศึกษา AI ซึ่งมีการนำมาประยุกต์ใช้อย่างแพร่หลาย

AI คือศาสตร์ของการศึกษาเกี่ยวกับอุปกรณ์ดิจิทัลต่างๆ ที่พัฒนาขึ้นมาเพื่อให้มีความสามารถในการเรียนรู้และทำความเข้าใจสภาพแวดล้อมที่อยู่โดยรอบ และสามารถกำหนดแนวทางในการแก้ไขปัญหาที่ต้องการ

Internet Society 2017 ได้อธิบายเกี่ยวกับ Machine Learning ไว้ว่า แทนที่จะใช้วิธีการให้เครื่องคอมพิวเตอร์แก้ไขปัญหาแบบทีละขั้นตอน นักพัฒนาโปรแกรมที่เป็นมนุษย์ได้เลือกใช้วิธีป้อนรูปแบบชุดคำสั่งและเงื่อนไขต่างๆ ให้แก่คอมพิวเตอร์ให้ได้เรียนรู้ จากข้อมูลที่ป้อนให้นั้น คอมพิวเตอร์จะเริ่มฝึกสร้างกฎใหม่ๆเอง เพื่อเสนอข้อมูลและบริการต่างๆ

ส่วนสิ่งที่เรียกว่า อัลกอริทึม (algorithm) คือ “วิธีการคิดแบบเป็นลำดับขั้นตอนของคำสั่งเพื่อให้คอมพิวเตอร์ได้เรียนรู้ และใช้ในการแก้ไขปัญหาต่างๆ” จึงทำให้เครื่องจักรหรือคอมพิวเตอร์ สามารถแก้ปัญหาที่สลับซับซ้อนในแบบที่วิธีการแบบปกติอาจไม่สามารถแก้ไขปัญหานั้นได้ง่ายๆ

ผลกระทบด้านสิทธิมนุษยชนของ AI

นักวิชาการจากศูนย์ Berkman Klein Center for Internet & Society ของมหาวิทยาลัย Harvard ได้ชี้ว่า Machine Learning มีทั้งข้อดีและข้อเสียที่มีผลกระทบด้านสิทธิมนุษยชน ซึ่งมีอย่างน้อยมี 3 ปัจจัยหลักด้วยกัน ได้แก่

  1. คุณภาพของข้อมูล: นี่เป็นปัญหาที่รู้จักกันดีในคำกล่าวที่ว่า “garbage in, garbage out” (ถ้าใส่ขยะเข้าไป ผลลัพธ์ก็ได้จะขยะออกมา) เพราะถึงแม้จะมีอัลกอริทึม (algorithm) ที่ถูกเขียนมาอย่างดีที่สุดก็อาจจะให้ผลลัพธ์ที่ผิดเพี้ยนถ้าหากข้อมูลตั้งต้นที่ป้อนเข้าเพื่อฝึก Machine Learning มีความลำเอียงหรืออคติอยู่ก่อนแล้ว
  2. การออกแบบระบบ: เมื่อมนุษย์คือผู้ออกแบบระบบ AI ให้เรียนรู้สิ่งต่างๆ ซึ่งก็อาจจะป้อนค่านิยมของตนเองลงไปในการออกแบบระบบด้วย เช่น การให้ความสำคัญตัวแปรบางตัวมากกว่าตัวแปรตัวอื่นๆ
  3. การปฏิสัมพันธ์ที่ซับซ้อน: ระบบ AI อาจจะโต้ตอบต่อสภาพแวดล้อมของตนเองรับรู้ในแบบที่นำไปสู่ผลลัพธ์ที่คาดการณ์ได้ยาก

งานวิจัยเดียวกันนี้ยังเสนออีก 6 ตัวอย่างกรณีศึกษาของการนำ AI มาใช้ในการตัดสินใจในประเด็นทางสังคมต่างๆ นับตั้งแต่กระบวนการยุติธรรมไปจนถึงการวินิจฉัยโรค ผลกระทบเหล่านี้ถือว่าอยู่ภายใต้กรอบของสิทธิมนุษยชน พร้อมยังได้นำเสนอตัวอย่างที่เป็นรูปธรรมเกี่ยวกับสิทธิบางประการที่ได้รับผลกระทบจากการใช้ AI

ยังคงต้องกล่าวว่า ความมีประสิทธิภาพของ AI นั้นขึ้นอยู่กับที่ความแตกต่างของฟังก์ชันต่างๆ ในบางกรณีนั้นก็ดูจะพูดเกินความเป็นจริงของผลลัพธ์เชิงบวกจากการใช้ AI

นี่เป็นสิ่งที่ต้องตระหนักว่า ความไม่ถูกต้องในคาดการณ์ผลโดยใช้ AI อาจส่งผลร้ายอย่างยิ่งต่อชีวิตและศักดิ์ศรีความเป็นมนุษย์

ในการนำเสนองานวิจัยที่ชื่อว่า “How to Recognise AI Snake Oil“ของศาสตราจารย์ Arvind Narayanan จากมหาวิทยาลัย Princeton ได้ระบุว่าขณะที่ AI ได้ถูกนำมาประยุกต์ใช้อย่างสำเร็จในสาขาวิชาด้านการรับรู้ (เช่น การระบุเนื้อหาข้อความ ระบบจดจำใบหน้า การวินิจฉัยโรคผ่านภาพสแกน) และใช้ในด้านการคาดการณ์ทางสังคมต่างๆ (เช่น ความเป็นไปได้ในการก่ออาชญากรรม หรือ ประสิทธิภาพในการทำงาน) นั่นยังถือว่า “มีความน่าสงสัย”

นี่เป็นสิ่งที่ต้องตระหนักว่า ความไม่ถูกต้องในคาดการณ์ผลโดยใช้ AI อาจส่งผลร้ายอย่างยิ่งต่อชีวิตและศักดิ์ศรีความเป็นมนุษย์

เครดิตภาพ: "kecerdasan" (intelligence) ภายใต้ลิขสิทธิ์ CC0 1.0
เครดิตภาพ: "kecerdasan" (intelligence) ภายใต้ลิขสิทธิ์ CC0 1.0

AI ในบริบทของเอเชียอุษาคเนย์

ดูเหมือนว่า แทบจะไม่มีงานวิจัยและการศึกษามากนักที่เกี่ยวกับประเด็นสิทธิมนุษยชนและผลกระทบจากการใช้ AI ในบริบทของภาคเอเชียตะวันออกเฉียงใต้ ขณะที่การถกเถียงเกี่ยวประเด็นเรื่องจริยธรรมและหลักการในการใช้ AI ส่วนใหญ่เกิดขึ้นในกลุ่มประเทศที่พัฒนาแล้วและประเทศจีน เพราะถือเป็นต้นกำเนิดแห่งเทคโนโลยีใหม่ๆ

จากการศึกษาเรื่อง Principled Artificial Intelligence ของมหาวิทยาลัย Harvard ได้แสดงข้อมูลภาพที่รวบรวมหลักจริยธรรมของการใช้ AI ทั้งหมด 32 หลักหรือข้อแนะนำสำหรับจริยธรรมในการใช้ AI ซึ่งสะท้อนมุมมองความคิดเห็นจากทั้งฝั่งรัฐบาล บริษัทเอกชน กลุ่มรณรงค์ทางสังคม และผู้ที่เกี่ยวข้องต่างๆ ทว่าในจำนวนเสียงสะท้อนเหล่านั้นไม่มีตัวแทนจากภูมิภาคเอเชียตะวันออกเฉียงใต้เลย สะท้อนให้เห็นหนึ่งในความท้าทายของการศึกษาเรื่องการใช้ AI ในภูมิภาคนี้ซึ่งอาจจะเผชิญปัญหาที่แตกต่างจากบริบทในภูมิภาคอื่นของโลก ต่อไปนี้เป็นข้อพิจารณาบางประการที่เกี่ยวข้องกับเรื่องนี้

เผด็จการอำนาจนิยมแบบดิจิทัล ผ่านเทคโนโลยี AI:

รายงานล่าสุดจากกลุ่ม Civicus Monitor แสดงให้เห็นว่า ไม่มีประเทศใดในทั้งหมด 11 ประเทศในภูมิภาคนี้ได้รับการจัดลำดับให้อยู่ในสถานะที่สิทธิพลเมืองสูงกว่าสถานะ “ลิดรอนสิทธิเสรีภาพ” (obstructed) ขณะที่รายงาน The Freedom on the Net report ประจำปี 2561 ได้ประเมิน 8 ประเทศในภูมิภาคนี้ว่า ไม่มีประเทศใดอยู่ในสถานะ “มีเสรีภาพ” ทางอินเตอร์เน็ต รายงานเหล่านี้ชี้ให้เห็นว่า ภาคประชาสังคมในภูมิภาคนี้ส่วนใหญ่ที่มีความระมัดระวังเกี่ยวกับการประยุกต์ใช้ AI ในลักษณะที่มาจำกัดสิทธิพลเมืองและทางการเมือง เช่น การสอดส่องติดตามทางดิจิทัล ดังนั้น ผลกระทบทางสิทธิมนุษยชนจากการประยุกต์ใช้ AI จึงมีมากไปกว่าปัญหาทางเทคโนโลยี (ตามที่กล่าวมาข้างต้น) และครอบคลุมไปจนถึงกระบวนการที่ทำให้ AI กลายมาเป็นอาวุธที่มาทำลายเสรีภาพของประชาชน

ผลกระทบทางสิทธิมนุษยชนเกี่ยวกับ AI จึงมีมากไปกว่าปัญหาทางเทคโนโลยี

...การไม่รวมทุกคนเข้าไปในชุดข้อมูล ถือว่าเป็นข้อกังวลมากกว่าความเป็นไปได้ในการใช้ข้อมูลในทางที่ไม่เป็นธรรม

การขาดสัดส่วนชุดข้อมูลจากตัวแทนฝั่งเอเชีย:

ในที่ประชุมของ the Internet Governance Forum 2017 ในหัวข้อ “AI in Asia: What’s Similar, What’s Different?” ชี้ให้เห็นถึงการที่ไม่ได้รวมชุดข้อมูลของประเทศเอเชียบางประเทศ (กรณีตัวอย่าง เช่น อินเดียและมาเลเซีย) จึงมีความกังวลว่าการไม่ได้รวมข้อมูลจากกลุ่มประเทศเหล่านี้ ถือว่าเป็นข้อกังวลถึงความเป็นไปได้ในการใช้ข้อมูลในทางที่ไม่เป็นธรรม รวมไปถึงประเด็นเรื่องการไม่นับรวมชุดข้อมูลของประเทศเอเชียบางประเทศที่ขัดแย้งกับแนวทางในเรื่องการคุ้มครองข้อมูล และความเป็นส่วนตัวที่เป็นแนวทางจากโลกตะวันตก ซึ่งเรื่องการขาดข้อมูลที่มีคุณภาพจากทวีปเอเชียนี้ถือว่าเป็น “ความท้าทายที่สำคัญ” ต่อการริเริ่มการพัฒนาในด้าน Machine Learning ซึ่งมักถูกบังคับให้ป้อนข้อมูลที่มาจากประเทศฝั่งสหรัฐอเมริกา และสหราชอาณาจักร เพื่อการฝึก machines ต่างๆ ซึ่งนำไปสู่ปัญหาเรื่องความลำเอียงของข้อมูล และทำให้อาจจะนำมาใช้กับบริบทท้องถิ่นไม่ได้

ผลกระทบทางสังคมและเศรษฐกิจที่มาจาก AI:

จากรายงานชิ้นหนึ่งของ McKinsey เมื่อปี 2560 ซึ่งตั้งข้อสังเกตว่า AI มีศักยภาพที่จะทำงานได้ครึ่งหนึ่งของจำนวนงานทั้งหมดด้วยตัวเอง (มีมูลค่าเทียบเท่ากับค่าจ้างงานจำนวน 900 พันล้านดอลลาร์สหรัฐ) ใน 4 ประเทศยักษ์ใหญ่ทางเศรษฐกิจของกลุ่มประเทศอาเซียน ได้แก่ อินโดนีเซีย (52%) มาเลเซีย (51%) ฟิลิปปินส์ (48%) และประเทศไทย (55%) ในปี 2560 World Wide Web Foundation ยังได้กล่าวถึงเงินลงทุนที่จะเป็นตัวกำหนดถึงสถานที่ในการผลิต AI ไม่ใช่แค่ต้นทุนค่าแรงงาน แต่การเปลี่ยนแปลงนี้จะส่งผลกระทบทางสังคมและเศรษฐกิจ โดยเฉพาะสัดส่วนการจ้างงานของผู้หญิงที่ทำงานอยู่ในด้านออฟฟิศและงานเสมียน

AI มีศักยภาพที่จะทำงานครึ่งหนึ่งของจำนวนงานทั้งหมดด้วยตัวเอง

การขาดความสามารถด้านเทคนิคทางคอมพิวเตอร์เป็นอีกหนึ่งปัจจัยสำคัญที่ขัดขวางการมีส่วนร่วมในการกำกับดูแล

การมีส่วนร่วมในกระบวนการกำกับดูแล AI:

สหรัฐอเมริกาและจีนถือเป็นผู้เล่นสำคัญของโลกในเรื่อง AI แม้ว่าอาจจะพอมีกิจกรรมที่เกี่ยวกับ AI ในบางประเทศสมาชิกของกลุ่มอาเซียน(McKinsey Global Institute 2560) แต่การอยู่ห่างจากศูนย์กลางทางเทคโนโลยีทั้งทางภูมิศาสตร์และอำนาจทางการเมืองของประชาชนในภูมิภาคอุษาอาคเนย์ จึงทำให้เรามีสิทธิในการออกเสียงมีน้อยมากในการแสดงความคิดเห็นเกี่ยวกับการออกแบบและการกำกับดูแล AI รวมไปถึงเรื่องอำนาจในการควบคุมข้อมูลส่วนตัว และร่องรอยทางดิจิทัลเมื่อยามที่เราใช้แอปพลิเคชันต่างๆที่ถูกพัฒนามาจากฝั่งสหรัฐอเมริกาและจีน การขาดแคลนความสามารถทางด้านเทคนิคทางคอมพิวเตอร์เป็นอีกหนึ่งปัจจัยสำคัญที่ขัดขวางการมีส่วนร่วมในการกำกับดูแลนี้ ตามที่ระบุในงานวิจัยของผู้เขียนเกี่ยวกับความเคลื่อนไหวทางด้านสิทธิมนุษยชนทางด้านดิจิทัลในภาคเอเชียตะวันออกเฉียงใต้ เมื่อปี 2562

ประเด็นข้างต้นมิได้จบเพียงเท่านี้ แต่เป็นเพียงการเริ่มในการเก็บรวบรวมข้อกังวลที่เกี่ยวกับ AI และ Machine Learning ในภูมิภาคนี้ จะเห็นได้ว่า AI จะเปลี่ยนสิ่งต่างๆในภูมิภาคนี้อย่างอย่างรวดเร็วในอนาคตอันใกล้ และภาคประชาสังคมจำเป็นต้องก้าวให้ทันกับความก้าวหน้าทางเทคโนโลยีให้ท่วงที เพื่อที่จะเข้าใจในโอกาสและความเสี่ยงที่มาพร้อมกับเทคโนโลยีใหม่ๆ ที่ส่งผลต่อกับงานที่เราทำอยู่ – ไม่ทางใดก็ทางหนึ่ง

"идея" (idea) is licensed under CC0 1.0
"идея" (idea) is licensed under CC0 1.0

บทความนี้เป็นหนึ่งในชุดบทความที่เกี่ยวกับสถานการณ์ของ AI ที่มีผลกระทบต่อสิทธิมนุษยชนในภูมิภาคเอเชียตะวันออกเฉียงใต้ โดยบทความต่อไปผู้เขียนจะเจาะลึกถึงประเด็นเชิงนโยบาย การประยุกต์ใช้งาน และผลกระทบที่เกี่ยวกับ AI ที่เกิดขึ้นในภูมิภาคนี้ โดยเป็นส่วนหนึ่งของโครงการวิจัยนี้ที่เรากำลังรวบรวมรายชื่อหนังสือและบทความ และผู้เขียนจะพยายามปรับปรุงหรือเพิ่มรายชื่ออย่างสม่ำเสมอ เพื่อการเผยแพร่ทางสาธารณะต่อไป ซึ่งผู้ที่สนใจสามารถค้นหาเพื่ออ่านเพิ่มเติมได้

เกี่ยวกับผู้เขียน

Dr. Jun-E Tan เป็นนักวิจัยอิสระ อาศัยอยู่ในเมืองกัวลาลัมเปอร์ ประเทศมาเลเซีย งานวิจัยและการสนับสนุนของ Jun-E นั้นเกี่ยวกับประเด็นการสื่อสารทางดิจิทัล สิทธิมนุษยชน และการพัฒนาที่ยั่งยืน บทความในปีวิจัยล่าสุดของ Jun-E มีชื่อว่า “สิทธิมนุษยชนทางดิจิทัลในภูมิภาคเอเชียอาคเนย์: กรอบแนวคิดและการสร้างขบวนการเคลื่อนไหว” (Digital Rights in Southeast Asia: Conceptual Framework and Movement Building) ได้เผยแพร่ในหนังสือ open access (สามารถ download เพื่ออ่านได้ฟรี) ที่มีชื่อว่า “การสำรวจความเกี่ยวเนื่องระหว่างเทคโนโลยีต่างๆและสิทธิมนุษยชน: โอกาสและความท้าทายที่หลากหลายในเอเชียอาคเนย์” (Exploring the Nexus Between Technologies and Human Rights: Opportunities and Challenges in Southeast Asia) จัดพิมพ์โดยสำนักพิมพ์ SHAPE-SEA เมื่อเดือนธันวาคม 2562 นอกจากนี้ Jun-E ยังได้เขียนบทความลงในบล็อกของตนเองอยู่เป็นประจำ

The post ปัญญาประดิษฐ์ (Artificial Intelligence: AI) กับข้อกังวลด้านสิทธิมนุษยชนในสังคมเอเชียตะวันออกเฉียงใต้: ภาพรวม appeared first on Coconet.

]]>
https://coconet.social/2020/%e0%b8%9b%e0%b8%b1%e0%b8%8d%e0%b8%8d%e0%b8%b2%e0%b8%9b%e0%b8%a3%e0%b8%b0%e0%b8%94%e0%b8%b4%e0%b8%a9%e0%b8%90%e0%b9%8c-artificial-intelligence-ai-%e0%b8%81%e0%b8%b1%e0%b8%9a%e0%b8%82%e0%b9%89/feed/ 0
ปัญญาประดิษฐ์ (Artificial Intelligence: AI) กับข้อกังวลด้านสิทธิมนุษยชนในสังคมเอเชียตะวันออกเฉียงใต้: ภาพรวม https://coconet.social/2020/human-rights-artificial-intelligence-southeast-asia-th/ https://coconet.social/2020/human-rights-artificial-intelligence-southeast-asia-th/#respond Mon, 10 Aug 2020 08:56:20 +0000 https://coconet.social/?p=5540 แม้เราจะเห็นคำว่าปัญญาประดิษฐ์ (Artificial Intelligence หรือ AI) ถูกนำมาใช้อย่างแพร่หลายไปทุกหนทุกแห่งในชีวิตประจำวัน รวมถึงการสื่อสารของเราในแต่ละวัน แต่ความเข้าใจเกี่ยวกับ AI ยังถือว่ามีอยู่น้อยมากในกลุ่มภาคประชาสังคมในภูมิภาคเอเชียตะวันออกเฉียงใต้ เช่นคำถามที่ว่า 1) AI คืออะไร 2) แล้วมีการนำ AI ไปประยุกต์ใช้อะไรบ้างในปัจจุบันโดยเฉพาะในภูมิภาคนี้ 3) รวมไปถึงอะไรคือความเชื่อมโยงระหว่างการเกิดขึ้นของเทคโนโลยีใหม่อย่าง AI กับปัญหาการละเมิดสิทธิมนุษยชน 4) และยุทธศาสตร์การทำงานที่จะช่วยบรรเทาปัญหาการละเมิดสิทธิมนุษยชนจะเป็นอย่างไร

The post ปัญญาประดิษฐ์ (Artificial Intelligence: AI) กับข้อกังวลด้านสิทธิมนุษยชนในสังคมเอเชียตะวันออกเฉียงใต้: ภาพรวม appeared first on Coconet.

]]>

Read this article in English / อ่านบทความนี้ใน ภาษาอังกฤษ

"Inteligencia Artificial: ECI 33 (UBA)" by Juan Pablo Dellacha is licensed under CC BY-NC-ND 4.0
"Inteligencia Artificial: ECI 33 (UBA)" by Juan Pablo Dellacha is licensed under CC BY-NC-ND 4.0

แปลไทยโดย ธีรดา ณ จัตุรัส

แม้เราจะเห็นคำว่าปัญญาประดิษฐ์ (Artificial Intelligence หรือ AI) ถูกนำมาใช้อย่างแพร่หลายไปทุกหนทุกแห่งในชีวิตประจำวัน รวมถึงการสื่อสารของเราในแต่ละวัน แต่ความเข้าใจเกี่ยวกับ AI ยังถือว่ามีอยู่น้อยมากในกลุ่มภาคประชาสังคมในภูมิภาคเอเชียตะวันออกเฉียงใต้ เช่นคำถามที่ว่า 1) AI คืออะไร 2) แล้วมีการนำ AI ไปประยุกต์ใช้อะไรบ้างในปัจจุบันโดยเฉพาะในภูมิภาคนี้ 3) รวมไปถึงอะไรคือความเชื่อมโยงระหว่างการเกิดขึ้นของเทคโนโลยีใหม่อย่าง AI กับปัญหาการละเมิดสิทธิมนุษยชน 4) และยุทธศาสตร์การทำงานที่จะช่วยบรรเทาปัญหาการละเมิดสิทธิมนุษยชนจะเป็นอย่างไร

บทความนี้เป็นหนึ่งในชุดบทความที่เกี่ยวกับผลกระทบด้านสิทธิมนุษยชนที่เกี่ยวข้องกับปัญญาประดิษฐ์ (AI) ในภูมิภาคเอเชียตะวันออกเฉียงใต้ โดยมีจุดประสงค์เพื่อการสร้างความตระหนักรู้และกระตุ้นการมีส่วนร่วมของภาคประชาสังคมที่ทำงานร่วมกับชุมชนชายขอบ ทั้งในการรณรงค์เรื่องสิทธิต่างๆ และการแก้ไขปัญหาที่เกี่ยวกับการพัฒนาทั้งในมิติผลกระทบด้านสาธารณสุข ความยากจน และสิ่งแวดล้อม

AI คืออะไร

คำว่า Artificial Intelligence (AI) เป็นศัพท์ที่มีความหมายกว้างและตีความได้หลายแบบ อันที่จริงบทความทางวิชาการที่เขียนเกี่ยวกับ AI ส่วนใหญ่เริ่มต้นด้วยการอธิบายว่า ในปัจจุบันยังไม่มีคำนิยามที่ยอมรับกันอย่างเป็นสากลว่า AI หมายถึงอะไร

ถ้าจะพูดถึง AI อย่างกว้างๆ อาจหมายถึง “ศาสตร์ของการศึกษาเกี่ยวกับอุปกรณ์ดิจิทัลต่างๆ ที่พัฒนาขึ้นมาเพื่อให้มีความสามารถในการเรียนรู้และทำความเข้าใจสภาพแวดล้อมที่อยู่โดยรอบ และกำหนดแนวทางการการดำเนินการในช่วงระยะเวลาหนึ่งเพื่อเพิ่มโอกาสในการบรรลุเป้าหมายที่กำหนดไว้” (World Wide Web Foundation, 2017).

ในทางปฏิบัติแล้ว การเรียนรู้ของเครื่องจักร (Machine Learning หรือ ML) เป็นหนึ่งในศาสตร์ของการศึกษา AI ซึ่งมีการนำมาประยุกต์ใช้อย่างแพร่หลาย

AI คือศาสตร์ของการศึกษาเกี่ยวกับอุปกรณ์ดิจิทัลต่างๆ ที่พัฒนาขึ้นมาเพื่อให้มีความสามารถในการเรียนรู้และทำความเข้าใจสภาพแวดล้อมที่อยู่โดยรอบ และสามารถกำหนดแนวทางในการแก้ไขปัญหาที่ต้องการ

Internet Society 2017 ได้อธิบายเกี่ยวกับ Machine Learning ไว้ว่า แทนที่จะใช้วิธีการให้เครื่องคอมพิวเตอร์แก้ไขปัญหาแบบทีละขั้นตอน นักพัฒนาโปรแกรมที่เป็นมนุษย์ได้เลือกใช้วิธีป้อนรูปแบบชุดคำสั่งและเงื่อนไขต่างๆ ให้แก่คอมพิวเตอร์ให้ได้เรียนรู้ จากข้อมูลที่ป้อนให้นั้น คอมพิวเตอร์จะเริ่มฝึกสร้างกฎใหม่ๆเอง เพื่อเสนอข้อมูลและบริการต่างๆ

ส่วนสิ่งที่เรียกว่า อัลกอริทึม (algorithm) คือ “วิธีการคิดแบบเป็นลำดับขั้นตอนของคำสั่งเพื่อให้คอมพิวเตอร์ได้เรียนรู้ และใช้ในการแก้ไขปัญหาต่างๆ” จึงทำให้เครื่องจักรหรือคอมพิวเตอร์ สามารถแก้ปัญหาที่สลับซับซ้อนในแบบที่วิธีการแบบปกติอาจไม่สามารถแก้ไขปัญหานั้นได้ง่ายๆ

ผลกระทบด้านสิทธิมนุษยชนของ AI

นักวิชาการจากศูนย์ Berkman Klein Center for Internet & Society ของมหาวิทยาลัย Harvard ได้ชี้ว่า Machine Learning มีทั้งข้อดีและข้อเสียที่มีผลกระทบด้านสิทธิมนุษยชน ซึ่งมีอย่างน้อยมี 3 ปัจจัยหลักด้วยกัน ได้แก่

  1. คุณภาพของข้อมูล: นี่เป็นปัญหาที่รู้จักกันดีในคำกล่าวที่ว่า “garbage in, garbage out” (ถ้าใส่ขยะเข้าไป ผลลัพธ์ก็ได้จะขยะออกมา) เพราะถึงแม้จะมีอัลกอริทึม (algorithm) ที่ถูกเขียนมาอย่างดีที่สุดก็อาจจะให้ผลลัพธ์ที่ผิดเพี้ยนถ้าหากข้อมูลตั้งต้นที่ป้อนเข้าเพื่อฝึก Machine Learning มีความลำเอียงหรืออคติอยู่ก่อนแล้ว
  2. การออกแบบระบบ: เมื่อมนุษย์คือผู้ออกแบบระบบ AI ให้เรียนรู้สิ่งต่างๆ ซึ่งก็อาจจะป้อนค่านิยมของตนเองลงไปในการออกแบบระบบด้วย เช่น การให้ความสำคัญตัวแปรบางตัวมากกว่าตัวแปรตัวอื่นๆ
  3. การปฏิสัมพันธ์ที่ซับซ้อน: ระบบ AI อาจจะโต้ตอบต่อสภาพแวดล้อมของตนเองรับรู้ในแบบที่นำไปสู่ผลลัพธ์ที่คาดการณ์ได้ยาก

งานวิจัยเดียวกันนี้ยังเสนออีก 6 ตัวอย่างกรณีศึกษาของการนำ AI มาใช้ในการตัดสินใจในประเด็นทางสังคมต่างๆ นับตั้งแต่กระบวนการยุติธรรมไปจนถึงการวินิจฉัยโรค ผลกระทบเหล่านี้ถือว่าอยู่ภายใต้กรอบของสิทธิมนุษยชน พร้อมยังได้นำเสนอตัวอย่างที่เป็นรูปธรรมเกี่ยวกับสิทธิบางประการที่ได้รับผลกระทบจากการใช้ AI

ยังคงต้องกล่าวว่า ความมีประสิทธิภาพของ AI นั้นขึ้นอยู่กับที่ความแตกต่างของฟังก์ชันต่างๆ ในบางกรณีนั้นก็ดูจะพูดเกินความเป็นจริงของผลลัพธ์เชิงบวกจากการใช้ AI

นี่เป็นสิ่งที่ต้องตระหนักว่า ความไม่ถูกต้องในคาดการณ์ผลโดยใช้ AI อาจส่งผลร้ายอย่างยิ่งต่อชีวิตและศักดิ์ศรีความเป็นมนุษย์

ในการนำเสนองานวิจัยที่ชื่อว่า “How to Recognise AI Snake Oil“ของศาสตราจารย์ Arvind Narayanan จากมหาวิทยาลัย Princeton ได้ระบุว่าขณะที่ AI ได้ถูกนำมาประยุกต์ใช้อย่างสำเร็จในสาขาวิชาด้านการรับรู้ (เช่น การระบุเนื้อหาข้อความ ระบบจดจำใบหน้า การวินิจฉัยโรคผ่านภาพสแกน) และใช้ในด้านการคาดการณ์ทางสังคมต่างๆ (เช่น ความเป็นไปได้ในการก่ออาชญากรรม หรือ ประสิทธิภาพในการทำงาน) นั่นยังถือว่า “มีความน่าสงสัย”

นี่เป็นสิ่งที่ต้องตระหนักว่า ความไม่ถูกต้องในคาดการณ์ผลโดยใช้ AI อาจส่งผลร้ายอย่างยิ่งต่อชีวิตและศักดิ์ศรีความเป็นมนุษย์

เครดิตภาพ: "kecerdasan" (intelligence) ภายใต้ลิขสิทธิ์ CC0 1.0
เครดิตภาพ: "kecerdasan" (intelligence) ภายใต้ลิขสิทธิ์ CC0 1.0

AI ในบริบทของเอเชียอุษาคเนย์

ดูเหมือนว่า แทบจะไม่มีงานวิจัยและการศึกษามากนักที่เกี่ยวกับประเด็นสิทธิมนุษยชนและผลกระทบจากการใช้ AI ในบริบทของภาคเอเชียตะวันออกเฉียงใต้ ขณะที่การถกเถียงเกี่ยวประเด็นเรื่องจริยธรรมและหลักการในการใช้ AI ส่วนใหญ่เกิดขึ้นในกลุ่มประเทศที่พัฒนาแล้วและประเทศจีน เพราะถือเป็นต้นกำเนิดแห่งเทคโนโลยีใหม่ๆ

จากการศึกษาเรื่อง Principled Artificial Intelligence ของมหาวิทยาลัย Harvard ได้แสดงข้อมูลภาพที่รวบรวมหลักจริยธรรมของการใช้ AI ทั้งหมด 32 หลักหรือข้อแนะนำสำหรับจริยธรรมในการใช้ AI ซึ่งสะท้อนมุมมองความคิดเห็นจากทั้งฝั่งรัฐบาล บริษัทเอกชน กลุ่มรณรงค์ทางสังคม และผู้ที่เกี่ยวข้องต่างๆ ทว่าในจำนวนเสียงสะท้อนเหล่านั้นไม่มีตัวแทนจากภูมิภาคเอเชียตะวันออกเฉียงใต้เลย สะท้อนให้เห็นหนึ่งในความท้าทายของการศึกษาเรื่องการใช้ AI ในภูมิภาคนี้ซึ่งอาจจะเผชิญปัญหาที่แตกต่างจากบริบทในภูมิภาคอื่นของโลก ต่อไปนี้เป็นข้อพิจารณาบางประการที่เกี่ยวข้องกับเรื่องนี้

เผด็จการอำนาจนิยมแบบดิจิทัล ผ่านเทคโนโลยี AI:

รายงานล่าสุดจากกลุ่ม Civicus Monitor แสดงให้เห็นว่า ไม่มีประเทศใดในทั้งหมด 11 ประเทศในภูมิภาคนี้ได้รับการจัดลำดับให้อยู่ในสถานะที่สิทธิพลเมืองสูงกว่าสถานะ “ลิดรอนสิทธิเสรีภาพ” (obstructed) ขณะที่รายงาน The Freedom on the Net report ประจำปี 2561 ได้ประเมิน 8 ประเทศในภูมิภาคนี้ว่า ไม่มีประเทศใดอยู่ในสถานะ “มีเสรีภาพ” ทางอินเตอร์เน็ต รายงานเหล่านี้ชี้ให้เห็นว่า ภาคประชาสังคมในภูมิภาคนี้ส่วนใหญ่ที่มีความระมัดระวังเกี่ยวกับการประยุกต์ใช้ AI ในลักษณะที่มาจำกัดสิทธิพลเมืองและทางการเมือง เช่น การสอดส่องติดตามทางดิจิทัล ดังนั้น ผลกระทบทางสิทธิมนุษยชนจากการประยุกต์ใช้ AI จึงมีมากไปกว่าปัญหาทางเทคโนโลยี (ตามที่กล่าวมาข้างต้น) และครอบคลุมไปจนถึงกระบวนการที่ทำให้ AI กลายมาเป็นอาวุธที่มาทำลายเสรีภาพของประชาชน

ผลกระทบทางสิทธิมนุษยชนเกี่ยวกับ AI จึงมีมากไปกว่าปัญหาทางเทคโนโลยี

...การไม่รวมทุกคนเข้าไปในชุดข้อมูล ถือว่าเป็นข้อกังวลมากกว่าความเป็นไปได้ในการใช้ข้อมูลในทางที่ไม่เป็นธรรม

การขาดสัดส่วนชุดข้อมูลจากตัวแทนฝั่งเอเชีย:

ในที่ประชุมของ the Internet Governance Forum 2017 ในหัวข้อ “AI in Asia: What’s Similar, What’s Different?” ชี้ให้เห็นถึงการที่ไม่ได้รวมชุดข้อมูลของประเทศเอเชียบางประเทศ (กรณีตัวอย่าง เช่น อินเดียและมาเลเซีย) จึงมีความกังวลว่าการไม่ได้รวมข้อมูลจากกลุ่มประเทศเหล่านี้ ถือว่าเป็นข้อกังวลถึงความเป็นไปได้ในการใช้ข้อมูลในทางที่ไม่เป็นธรรม รวมไปถึงประเด็นเรื่องการไม่นับรวมชุดข้อมูลของประเทศเอเชียบางประเทศที่ขัดแย้งกับแนวทางในเรื่องการคุ้มครองข้อมูล และความเป็นส่วนตัวที่เป็นแนวทางจากโลกตะวันตก ซึ่งเรื่องการขาดข้อมูลที่มีคุณภาพจากทวีปเอเชียนี้ถือว่าเป็น “ความท้าทายที่สำคัญ” ต่อการริเริ่มการพัฒนาในด้าน Machine Learning ซึ่งมักถูกบังคับให้ป้อนข้อมูลที่มาจากประเทศฝั่งสหรัฐอเมริกา และสหราชอาณาจักร เพื่อการฝึก machines ต่างๆ ซึ่งนำไปสู่ปัญหาเรื่องความลำเอียงของข้อมูล และทำให้อาจจะนำมาใช้กับบริบทท้องถิ่นไม่ได้

ผลกระทบทางสังคมและเศรษฐกิจที่มาจาก AI:

จากรายงานชิ้นหนึ่งของ McKinsey เมื่อปี 2560 ซึ่งตั้งข้อสังเกตว่า AI มีศักยภาพที่จะทำงานได้ครึ่งหนึ่งของจำนวนงานทั้งหมดด้วยตัวเอง (มีมูลค่าเทียบเท่ากับค่าจ้างงานจำนวน 900 พันล้านดอลลาร์สหรัฐ) ใน 4 ประเทศยักษ์ใหญ่ทางเศรษฐกิจของกลุ่มประเทศอาเซียน ได้แก่ อินโดนีเซีย (52%) มาเลเซีย (51%) ฟิลิปปินส์ (48%) และประเทศไทย (55%) ในปี 2560 World Wide Web Foundation ยังได้กล่าวถึงเงินลงทุนที่จะเป็นตัวกำหนดถึงสถานที่ในการผลิต AI ไม่ใช่แค่ต้นทุนค่าแรงงาน แต่การเปลี่ยนแปลงนี้จะส่งผลกระทบทางสังคมและเศรษฐกิจ โดยเฉพาะสัดส่วนการจ้างงานของผู้หญิงที่ทำงานอยู่ในด้านออฟฟิศและงานเสมียน

AI มีศักยภาพที่จะทำงานครึ่งหนึ่งของจำนวนงานทั้งหมดด้วยตัวเอง

การขาดความสามารถด้านเทคนิคทางคอมพิวเตอร์เป็นอีกหนึ่งปัจจัยสำคัญที่ขัดขวางการมีส่วนร่วมในการกำกับดูแล

การมีส่วนร่วมในกระบวนการกำกับดูแล AI:

สหรัฐอเมริกาและจีนถือเป็นผู้เล่นสำคัญของโลกในเรื่อง AI แม้ว่าอาจจะพอมีกิจกรรมที่เกี่ยวกับ AI ในบางประเทศสมาชิกของกลุ่มอาเซียน(McKinsey Global Institute 2560) แต่การอยู่ห่างจากศูนย์กลางทางเทคโนโลยีทั้งทางภูมิศาสตร์และอำนาจทางการเมืองของประชาชนในภูมิภาคอุษาอาคเนย์ จึงทำให้เรามีสิทธิในการออกเสียงมีน้อยมากในการแสดงความคิดเห็นเกี่ยวกับการออกแบบและการกำกับดูแล AI รวมไปถึงเรื่องอำนาจในการควบคุมข้อมูลส่วนตัว และร่องรอยทางดิจิทัลเมื่อยามที่เราใช้แอปพลิเคชันต่างๆที่ถูกพัฒนามาจากฝั่งสหรัฐอเมริกาและจีน การขาดแคลนความสามารถทางด้านเทคนิคทางคอมพิวเตอร์เป็นอีกหนึ่งปัจจัยสำคัญที่ขัดขวางการมีส่วนร่วมในการกำกับดูแลนี้ ตามที่ระบุในงานวิจัยของผู้เขียนเกี่ยวกับความเคลื่อนไหวทางด้านสิทธิมนุษยชนทางด้านดิจิทัลในภาคเอเชียตะวันออกเฉียงใต้ เมื่อปี 2562

ประเด็นข้างต้นมิได้จบเพียงเท่านี้ แต่เป็นเพียงการเริ่มในการเก็บรวบรวมข้อกังวลที่เกี่ยวกับ AI และ Machine Learning ในภูมิภาคนี้ จะเห็นได้ว่า AI จะเปลี่ยนสิ่งต่างๆในภูมิภาคนี้อย่างอย่างรวดเร็วในอนาคตอันใกล้ และภาคประชาสังคมจำเป็นต้องก้าวให้ทันกับความก้าวหน้าทางเทคโนโลยีให้ท่วงที เพื่อที่จะเข้าใจในโอกาสและความเสี่ยงที่มาพร้อมกับเทคโนโลยีใหม่ๆ ที่ส่งผลต่อกับงานที่เราทำอยู่ – ไม่ทางใดก็ทางหนึ่ง

"идея" (idea) is licensed under CC0 1.0
"идея" (idea) is licensed under CC0 1.0

บทความนี้เป็นหนึ่งในชุดบทความที่เกี่ยวกับสถานการณ์ของ AI ที่มีผลกระทบต่อสิทธิมนุษยชนในภูมิภาคเอเชียตะวันออกเฉียงใต้ โดยบทความต่อไปผู้เขียนจะเจาะลึกถึงประเด็นเชิงนโยบาย การประยุกต์ใช้งาน และผลกระทบที่เกี่ยวกับ AI ที่เกิดขึ้นในภูมิภาคนี้ โดยเป็นส่วนหนึ่งของโครงการวิจัยนี้ที่เรากำลังรวบรวมรายชื่อหนังสือและบทความ และผู้เขียนจะพยายามปรับปรุงหรือเพิ่มรายชื่ออย่างสม่ำเสมอ เพื่อการเผยแพร่ทางสาธารณะต่อไป ซึ่งผู้ที่สนใจสามารถค้นหาเพื่ออ่านเพิ่มเติมได้

เกี่ยวกับผู้เขียน

Dr. Jun-E Tan เป็นนักวิจัยอิสระ อาศัยอยู่ในเมืองกัวลาลัมเปอร์ ประเทศมาเลเซีย งานวิจัยและการสนับสนุนของ Jun-E นั้นเกี่ยวกับประเด็นการสื่อสารทางดิจิทัล สิทธิมนุษยชน และการพัฒนาที่ยั่งยืน บทความในปีวิจัยล่าสุดของ Jun-E มีชื่อว่า “สิทธิมนุษยชนทางดิจิทัลในภูมิภาคเอเชียอาคเนย์: กรอบแนวคิดและการสร้างขบวนการเคลื่อนไหว” (Digital Rights in Southeast Asia: Conceptual Framework and Movement Building) ได้เผยแพร่ในหนังสือ open access (สามารถ download เพื่ออ่านได้ฟรี) ที่มีชื่อว่า “การสำรวจความเกี่ยวเนื่องระหว่างเทคโนโลยีต่างๆและสิทธิมนุษยชน: โอกาสและความท้าทายที่หลากหลายในเอเชียอาคเนย์” (Exploring the Nexus Between Technologies and Human Rights: Opportunities and Challenges in Southeast Asia) จัดพิมพ์โดยสำนักพิมพ์ SHAPE-SEA เมื่อเดือนธันวาคม 2562 นอกจากนี้ Jun-E ยังได้เขียนบทความลงในบล็อกของตนเองอยู่เป็นประจำ

The post ปัญญาประดิษฐ์ (Artificial Intelligence: AI) กับข้อกังวลด้านสิทธิมนุษยชนในสังคมเอเชียตะวันออกเฉียงใต้: ภาพรวม appeared first on Coconet.

]]>
https://coconet.social/2020/human-rights-artificial-intelligence-southeast-asia-th/feed/ 0
Reading up on AI in Southeast Asia https://coconet.social/2020/reading-ai-in-sea/ https://coconet.social/2020/reading-ai-in-sea/#respond Tue, 21 Apr 2020 05:02:32 +0000 https://coconet.social/?p=1103 EngageMedia and Dr. Jun-E Tan, an independent researcher based in Malaysia, collaborated to produce an annotated bibliography for those who want to deepen their knowledge on AI and the Southeast Asia context.

The post Reading up on AI in Southeast Asia appeared first on Coconet.

]]>
"Branding Artificial Intelligence" by Dan Sherratt is licensed under CC BY-NC-ND 4.0
"Branding Artificial Intelligence" by Dan Sherratt is licensed under CC BY-NC-ND 4.0

With the rise in the use of artificial intelligence in solving public-interest and public service issues on one side and the use of AI by the government for monitoring and surveillance on the other, it is urgent now more than ever to learn more about AI. The need to increase the level of awareness among citizens about issues related to AI and their communities can now be seen as essential.

The increased interest can already be seen in sectors outside of civil society. A Philippine youth group, for example, hosted digital rights discussions during times of public health crises like the current COVID-19 pandemic through a fully online conference.

Online discussions on AI and digital rights have also significantly increased, especially now that several countries in Southeast Asia have already declared lockdowns and people are tied to their laptops and mobile devices than before. These discussions include how civil society organizations can use AI for COVID-19 relief efforts, to how governments use AI to monitor dissent and bad statements on recent government efforts (or the lack of it) to respond to the ongoing health crisis.

With this, EngageMedia and Dr. Jun-E Tan, an independent researcher based in Malaysia, collaborated to produce an annotated bibliography for those who want to deepen their knowledge on AI and the Southeast Asia context.

This self-quarantine reading list contains a growing roster of bibliography links you can check out to learn more about general and conceptual aspects of AI, including AI ethics, its impact on human rights, and some policy recommendations related to AI.

Brief annotations of the linked papers are also included so that you can have a better idea of the content of the resource before actually clicking and checking it out. Links are also provided if you want to read up more about AI and surveillance, and if you want to have a more area-focused view of the situation, there are also dedicated resource links on that as well.

Do take note, however, that this annotated bibliography is still an ongoing project, and may, later on, include more links and readings, so be sure to check it out once in a while if you want an updated reading resource on AI.

AI Annotated Bibliography

Updated as of April 10, 2020

Now more than ever, it is important for citizens to equip themselves with the knowledge and the tools to protect themselves from being subjects of AI surveillance and other attacks. While reading more about the situation would be a big help, constant vigilance and multi-sector action are also important.

Civil society needs to sustain and, in some cases, intensify their advocacy against AI-related human rights attacks while pushing for better citizen engagement and education on AI, human rights, and digital rights.

With the public being distracted on the current public health crisis and with more and more ordinary citizens falling prey to AI-related surveillance and attacks, civil society needs to rise above the fray and put forward this issue as an urgent concern, or else more will be subjected to similar attacks and human rights abuses.

About the Author

Vino Lucero is a Project and Communications Officer at EngageMedia. He is a journalist based in Manila.

The post Reading up on AI in Southeast Asia appeared first on Coconet.

]]>
https://coconet.social/2020/reading-ai-in-sea/feed/ 0
Mapping AI in Southeast Asia https://coconet.social/2020/mapping-ai-in-southeast-asia/ https://coconet.social/2020/mapping-ai-in-southeast-asia/#respond Tue, 21 Apr 2020 04:58:36 +0000 https://coconet.social/?p=1106 EngageMedia and Dr. Jun-E Tan, an independent researcher based in Malaysia, collaborated to produce a country mapping of AI initiatives for those who want to deepen their knowledge on AI and the Southeast Asia context.

The post Mapping AI in Southeast Asia appeared first on Coconet.

]]>
Image by Gerd Altmann from Pixabay. Used under a Pixabay License.
Image by Gerd Altmann from Pixabay. Used under a Pixabay License.

With the rise in the use of artificial intelligence in solving public-interest and public service issues on one side and the use of AI by the government for monitoring and surveillance on the other, it is urgent now more than ever to learn more about AI. The need to increase the level of awareness among citizens about issues related to AI and their communities can now be seen as essential.The increased interest can already be seen in sectors outside of civil society. A Philippine youth group, for example, hosted digital rights discussions during times of public health crises like the current COVID-19 pandemic through a fully online conference.

Online discussions on AI and digital rights have also significantly increased, especially now that several countries in Southeast Asia have already declared lockdowns and people are tied to their laptops and mobile devices than before. These discussions include how civil society organizations can use AI for COVID-19 relief efforts, to how governments use AI to monitor dissent and bad statements on recent government efforts (or the lack of it) to respond to the ongoing health crisis.

With this, EngageMedia and Dr. Jun-E Tan, an independent researcher based in Malaysia, collaborated to produce a country mapping of AI initiatives for those who want to deepen their knowledge on AI and the Southeast Asia context.

For those looking for a resource that is more centered on the Southeast Asia context, this mapping of SEA AI government and corporate initiatives, as well as a snapshot of the regional situation through indexes and studies, is an informative read as well.

The mapping document starts with a regional perspective — an important context-setting before moving to a country-level view of AI. This includes annotations and links on the AI Government Readiness Index, AI Government Surveillance Index, Asia-Pacific AI Readiness Index, and other studies and links that can help paint a picture of the overall situation in Southeast Asia.

The document then zooms in on a country-level AI perspective. The mapping at this point focuses on three aspects: government policies and initiatives, companies and products, and civil society initiatives.

Mapping of government policies and initiatives also include short descriptions, notes written by the researchers as either comments or guides to provided materials, and links to sources used for the research which readers can countercheck and visit as they prefer.

Corporate and product mapping, meanwhile, breaks it down by sector and supplements the list with notes about the business or the product, as well as relevant links to the items enumerated.

Lastly, civil society mapping includes the names and purpose of the initiatives, as well as links and researchers’ comments.

This mapping document is still a work in progress. This version is a result of an initial effort on mapping and exploration and is a by-product of a much larger research project.

AI Country Mapping

Updated as of April 10, 2020

Now more than ever, it is important for citizens to equip themselves with the knowledge and the tools to protect themselves from being subjects of AI surveillance and other attacks. While reading more about the situation would be a big help, constant vigilance and multi-sector action are also important.

Civil society needs to sustain and, in some cases, intensify their advocacy against AI-related human rights attacks while pushing for better citizen engagement and education on AI, human rights, and digital rights.

With the public being distracted on the current public health crisis and with more and more ordinary citizens falling prey to AI-related surveillance and attacks, civil society needs to rise above the fray and put forward this issue as an urgent concern, or else more will be subjected to similar attacks and human rights abuses.

About the Author

Vino Lucero is a Project and Communications Officer at EngageMedia. He is a journalist based in Manila.

The post Mapping AI in Southeast Asia appeared first on Coconet.

]]>
https://coconet.social/2020/mapping-ai-in-southeast-asia/feed/ 0
Artificial Intelligence and Human Rights in Southeast Asia: An Overview https://coconet.social/2020/ai-hr-sea-overview/ https://coconet.social/2020/ai-hr-sea-overview/#respond Wed, 25 Mar 2020 12:23:13 +0000 https://coconet.social/?p=930 EngageMedia worked with Dr. Jun-E Tan, an independent researcher and digital rights expert, to produce a blog post, a three-part series on Artificial Intelligence (AI) and human rights in Southeast Asia, and a video wrapping up the discourse for the whole engagement.

The post Artificial Intelligence and Human Rights in Southeast Asia: An Overview appeared first on Coconet.

]]>

The context of how artificial intelligence (AI) affects our rights as digital natives is worth unpacking, especially during political and public health crises, where online communication is a lifeline for many, and citizens are possibly being subjected to government surveillance and manipulation.

This is especially important when the crisis is of life-and-death importance, like the ongoing Covid-19 pandemic.

With this, EngageMedia worked with Dr. Jun-E Tan, an independent researcher and digital rights expert based in Kuala Lumpur, to unpack how AI plays out for the good — through improving public services and quality of life — and how it can be used by bad actors: to attack political, economic, and cultural rights of citizens, sometimes without them even knowing.

The collaboration resulted in several outputs: a blog post about how AI is tackled during Coconet II: Southeast Asia Digital Rights Camp, a three-part series on AI and human rights in Southeast Asia, and a video wrapping up the discourse for the whole engagement.

Image by Computerizer from Pixabay
Image by Computerizer from Pixabay

AI and Human Rights Video

Produced by EngageMedia, the video athe the top provides an overarching feature of issues on AI, human rights, and its Southeast Asia context, summarizing the issues raised by this series on AI and Human Rights.

Featuring interviews from Dr. Jun-E Tan and Red Tani of EngageMedia, it was shown during the Myanmar Digital Rights Forum on Feb. 28 and 29, 2020, an event attended by more than 350 participants from government, business, and civil society. You can read our blog about the forum here.

The video highlights how AI issues relate to the context of Southeast Asia, particularly recent political movements against authoritarian regimes, as well as other social issues that are susceptible to online hijacking, through manipulation of online narratives and surveillance of dissenters.

AI and Human Rights in Coconet II

Prior to the production of the AI and Human Rights video, discussions about AI and its human rights implications actually started at Coconet II.

After the weeklong camp, Dr. Tan wrote about the learnings from the event, encapsulating how she started the camp with the assessment that AI is a subject of concern for digital rights activists, but is something that they want to learn on a much deeper level, to how Coconet II provided focus on AI and human rights.

“The sessions were very helpful for me, as a participant and a session organiser, to formulate and articulate the problems associated with machine learning from a digital rights perspective. They were also useful to form an initial community concerned about AI, continued through the AI channel in the Coconet Mattermost platform, which is one of its biggest channels with 48 members so far,” she said.

She also concluded that the conversations on AI and digital rights needed to extend beyond the digital rights camp, as the topic “will only increase in importance with time, as more people get connected digitally and more governments adopt these technologies.”

The importance of AI will only increase with time, as more people get connected digitally and more governments adopt these technologies.

- Dr. June-E Tan

This also served as the prelude for the three-part article series on AI and human rights in Southeast Asia, which she briefly mentioned in the blog as well.

You can read the full blog here.

Image by PIRO4D from Pixabay
Image by PIRO4D from Pixabay

3-part series about AI and Human Rights in Southeast Asia

Next up in the collaboration is the three-part article series on AI and its implications to civil, social, economic, cultural, and political rights in Southeast Asia.

This is a series of articles on the human rights implications of AI in the context of Southeast Asia

- Dr. Jun-E Tan

“This is a series of articles on the human rights implications of AI in the context of our region, targeted at raising awareness and engagement of civil society actors who work with marginalised communities, on rights advocacy, and on developmental issues, such as public health, poverty, and environmental causes,” Dr. Tan explained.

The series started its release towards the end of 2019, with an overview of the basic concepts and terms related to AI, as well as an introduction to the human rights context in AI and the Southeast Asia landscape.

It unpacked topics like digital authoritarianism through AI, underrepresentation in AI datasets, socioeconomic impacts of AI, and participation in AI governance through careful curation of recent related studies and publications.

You can check the first part of the series published in the Coconet social website here. The article was picked up for syndication by a Philippine news website and network sharing by Coconet members.

The second part of the series then zoomed in on the impact of AI in the economic, social, and cultural rights (ESCR) of citizens from Southeast Asia.

It first presented the possible benefits of AI in the development sector. “AI, when used strategically and appropriately, can provide immense developmental benefits. Economic growth is a much-touted benefit, but possibilities of AI to improve lives extend much further,” wrote Dr. Tan. This includes benefits in education, healthcare, traffic, and food security.

The article then elaborates the possible abuse of AI to interfere with economic, social, and cultural rights, especially on possibly worsening and even optimising inequality through undue bias in AI data and the system itself.

Read the second article in full via the Coconet social website here, and feel free to check out the republished article via Daily Guardian Philippines as well.

June-E Tan's article at the Daily Guardian Philippines.
June-E Tan's article at the Daily Guardian Philippines.

And lastly, the third article of the series focused on AI as a weapon against civil and political rights, which takes “a closer look on what can happen when AI is weaponised and used against civil and political rights (CPR) such as the right to life and self-determination, as well as individual freedoms of expression, religion, association, assembly, and so on.”

It tackled the use of AI for government surveillance, microtargeting to change voter behaviour, and the use of AI-generated content to fuel disinformation campaigns.

The series then focused on a note on civil society’s role on the AI and human rights issues presented: “AI can be, and has been, weaponised to achieve ends that are incompatible with civil and political rights. At the very least, the civil society within the region should invest energy and resources into following technological trends and new applications of AI so that it will not be taken by surprise by innovations from malicious actors. As is the nature of machine learning and AI, it is expected that the efficacy of the technologies will only get better.”

“Civil society and human rights defenders will need to participate in the discussions of AI governance and push for tech companies to be more accountable towards the possible weaponisation of the technologies that they have created, in order to safeguard human rights globally,” Dr. Tan wrote to conclude the series.

Civil society and human rights defenders will need to participate in the discussions of AI governance and push for tech companies to be more accountable

- Dr. Jun-E Tan

And lastly, the third article of the series focused on AI as a weapon against civil and political rights, which takes “a closer look on what can happen when AI is weaponised and used against civil and political rights (CPR) such as the right to life and self-determination, as well as individual freedoms of expression, religion, association, assembly, and so on.”

It tackled the use of AI for government surveillance, microtargeting to change voter behaviour, and the use of AI-generated content to fuel disinformation campaigns.

Daily Guardian Philippines syndicated the last part of the series and published it during their Mar. 6, 2020 print edition, and republished it online as well. You may also check the version published on the Coconet social website here.

The engagement was able to open the possibility for more mainstream discussion of a seemingly technical issue through presenting its implications

Overall, the collaboration on AI and its Southeast Asia Human Rights implications contributed to bridging the knowledge gap on the issue not just among digital rights activists who needed it for their advocacy — distribution in mainstream news sites and social platforms more broadly increased awareness among civil society.

The engagement was able to open the possibility for more mainstream discussion of a seemingly technical issue through presenting its implications, especially to those who should have guaranteed protections under their laws.

Although it’s relevant for everyone, it posed a challenge especially for civil society — acknowledge AI and its human rights implications as valid and actionable issues, educate yourselves and others about these, and do informed advocacy work in response to the current challenges and threats.

More AI resources in development

Through collaboration with the Coconet community, Dr. Tan has complied two helpful resources: a mapping of AI issues across the region, and a list of relevant resources for those who want to learn more about such issues. We will update this post once these pages are ready.

About the Author

Vino Lucero is a Project and Communications Officer at EngageMedia. He is a journalist based in Manila.

The post Artificial Intelligence and Human Rights in Southeast Asia: An Overview appeared first on Coconet.

]]>
https://coconet.social/2020/ai-hr-sea-overview/feed/ 0
AI as a weapon against civil and political rights https://coconet.social/2020/ai-weapon-civil-political-rights/ https://coconet.social/2020/ai-weapon-civil-political-rights/#respond Wed, 04 Mar 2020 08:28:50 +0000 https://coconet.social/?p=877 We are going to take a closer look on what can happen when AI is weaponised and used against civil and political rights (CPR) such as the right to life and self-determination, as well as individual freedoms of expression, religion, association, assembly, and so on.

The post AI as a weapon against civil and political rights appeared first on Coconet.

]]>

Read this Article in Thai / อ่านบทความนี้ใน ภาษาไทย

Translated into Thai by Teerada Na Jatturas
(To read the Thai version, click the flag icon in the upper right-hand corner of your screen.)

This is the third of a series of articles on the human rights implications of artificial intelligence (AI) in the context of Southeast Asia. In the last article, we had discussed the implications of AI on economic, social, and cultural rights, driving home the point that AI does yield developmental benefits, if it is implemented properly. The human rights concerns were more on AI safety and unintended consequences.

In this article, we are going to take a closer look on what can happen when AI is weaponised and used against civil and political rights (CPR) such as the right to life and self-determination, as well as individual freedoms of expression, religion, association, assembly, and so on.

Within the space of this article, it is impossible to cover the entire extent to which AI can be used against CPR, so we will only address three imminent threats: mass surveillance by governments, microtargeting that can undermine elections, and AI-generated disinformation. For those who are interested to dig deeper, a report by a collection of academic institutions on the malicious use of AI endangering digital, physical, and political security makes for a riveting read.

AI can be weaponised and used against civil and political rights

AI used for Government Surveillance

Privacy is a fundamental human right, and the erosion of privacy impacts on other civil freedoms such as free expression, assembly, and association. In Southeast Asia, where most countries tilt towards the authoritarian side of the democratic spectrum, governments have shown that they can go to great lengths to quench political dissent, such as wielding draconian laws or using extralegal measures to intimidate dissenters.

With machine learning that can sift through mountains of data collected inexpensively and make inferences that were previously invisible, surveillance of the masses becomes cheaper and more effective, making it easier for the powerful to stay in power. 

The table below is adapted from the AI Global Surveillance Index (AIGS 2019), extracting the seven Southeast Asian countries covered (with no data on Brunei, Vietnam, Cambodia, and Timor Leste). It shows that most countries within the region use two or more types of surveillance technologies in the form of smart/safe city implementations, facial recognition, and smart policing; and all of these countries use technologies imported from China, and to a lesser extent from the US as well.

Table adapted from the AI Global Surveillance Index (AIGS 2019)

To provide a wider context, at least 75 out of 176 countries covered in the AIGS 2019 are actively using AI for surveillance purposes, including many liberal democracies. The index does not differentiate between legitimate and unlawful use of AI surveillance. Given the context of Southeast Asia, civil society in the region might want to err on the side of caution.

A CSIS report points out that Huawei’s “Safe City” solutions are popular with non-liberal countries, and sounds the concern that China may be “exporting authoritarianism”. China itself has used facial recognition (developed by Chinese AI companies Yitu, Megvii, SenseTime, and CloudWalk) to profile and track the Muslim Uighur community—it is also known that close to a million Uighurs have been placed in totalitarian “re-education camps”, illustrating the chilling possibilities of human rights violations connected to mass surveillance.

13 Asian countries have a social media surveillance programme

Other forms of government surveillance include social media surveillance and using AI to collect and process personal data and metadata from social media platforms. The Freedom on the Net (FOTN) Report (2019) states that 13 out of the 15 Asian countries that it covers have a social media surveillance programme in use or under development, but does not specify which. The odds are high for these eight Southeast Asian countries covered in the report: Philippines, Malaysia, Singapore, Indonesia, Cambodia, Myanmar, Thailand, and Vietnam.

In particular, examples of Vietnam and the Philippines were highlighted in the FOTN report. In 2018, Vietnam “announced a new national surveillance unit equipped with technology to analyse, evaluate, and categorise millions of social media posts”; and in the same year, Philippine officials were trained by the US Army on developing a new social media unit, which reportedly would be used to counter disinformation by terrorist organisations.

Digital surveillance by the government can also cast a wider net outside social media platforms. In 2018, the Malaysia Internet Crime Against Children (Micac) unit of the Malaysian police demonstrated to a local daily its surveilling capabilities of locating pornography users in real-time, and that it built a “data library” of these individuals—a gross invasion of privacy, as pointed out by a statement by some ASEAN CSOs

Image by Bark 003 via Cool SILH. Public Domain .

Microtargeting to change voter behaviour

In Southeast Asia, civil society is more vigilant about government surveillance than corporate surveillance. However, the effects of corporate surveillance, especially by big tech companies like Facebook and Google, maybe equally sinister or even more far-reaching when their AI technologies, combined with an unimaginable amount of data, are up for hire to predict and change user behaviour for their advertisers. This is particularly problematic when the advertisers are digital campaigners for political groups looking to change public opinions or voter behaviour, affecting the electoral rights of individuals.

Five years ago, researchers had already found that based on Facebook likes, machines could know you better than anyone else (300 likes were all it needed to know you more than your spouse did, and only 10 likes to beat a co-worker). Since then, there have been scandals such as that of Cambridge Analytica, which illegally obtained the data of tens of millions of Facebook users, which they were able to use to create psychographic profiles from, so that they could micro-target voters with different messaging to swing the votes of the 2016 US presidential election. Similar tactics allegedly influenced the outcomes of the Brexit referendum.

With 2 billion users, Facebook is able to train its machine learning systems to predict user behaviours

Cambridge Analytica has since closed down, but the scandal had brought the business model of microtargeted political advertising into public scrutiny. Political commentators have pointed out that Facebook does pretty much the same thing, only in a bigger and more ambitious way. With the data of 2 billion users at their disposal, Facebook is able to train its machine learning systems to predict things like when an individual user is about to switch brand loyalty and rent this user intelligence to whoever that pays. It does not discern between regular advertising and political advertising. It is worth mentioning that Twitter has banned political advertising, and Google has disabled microtargeting for political ads.

86% of Southeast Asia’s Internet users use Facebook. Within the region, concerns have already arisen regarding microtargeting to influence elections. A report that tracks digital disinformation in the 2019 Philippine midterm election points out that Facebook Boosts (Facebook’s advertising mechanism) are essential for local campaigns because of their ability to reach specific geographical locations. Besides advertising the Facebook pages of official candidates, Facebook Boosts were also used to promote negative content about political opponents. In Indonesia, ahead of the 2019 general elections, experts warned of voter behavioural targeting and voter microtargeting strategies which might exploit personal data of Indonesian voters to change election outcomes.

Image via SVG Silh. Public Domain.
Image via SVG Silh. Public Domain.

AI-generated content fuels disinformation campaigns

In the digital era, rumour-mongering becomes much more effective because of the networked nature of our communication. As a result, disinformation or fake news has become a worldwide problem, and in Southeast Asia, the gravest example of possible consequences is the ethnic cleansing of Rohingyas in Myanmar, reportedly fueled by the spread of disinformation and hate speech on social media.

The disinformation economy has flourished within the region. In Indonesia, fake news factories are used to churn out content to attack political opponents and to support their clients. PR companies in the Philippines cultivate online communities and surreptitiously insert disinformation and political messaging with the help of micro and nano influencers. As nefarious actors establish structures to create and profit from disinformation, AI will make content generation much easier and more sophisticated for them.

One of the scariest possibilities of AI-generated content is the so-called “deepfake”, also known as “synthetic media”, which are manipulated videos or sound files which look/sound highly realistic. Deepfakes are already a reality and it is a matter of time (in the matter of months) before they are not discernible from real footage and cheap enough to be produced by any novice. At the moment, they are mainly being used to produce fake pornography of celebrities, but there is a dizzying array of possibilities of how it could be used for creating disinformation. In the region, there is at least one case in Malaysia of a politician claiming his sex video to be a politically motivated deepfake.

The video above gives a good introduction of what deepfakes are, some examples, and why we should be concerned. WITNESS has a good resource pool of articles and videos of deepfakes for those who are interested to dig further.

Another example of what AI is able to do in terms of generating realistic content can be found in the interactive component of this New York Times article —with a click of a button, one can generate commentary on any topic, with any political slant. As can be imagined, the cost of maintaining a cyber army for astroturfing or trolling goes down drastically if machines are used to generate messages that look like they have been written by humans. In a separate report that warns of AI-generated “horrifyingly plausible fake news”, a system called GROVER can generate a fake news article based on only a headline, which can even be customised to mimic styles of major news outlets such as The Washington Post or The New York Times.

The post-truth era has many faces. Lastly, you can have a bit of fun and check out ThisPersonDoesNotExist.com or WhichFaceIsReal.com to see the level of realism in computer-generated photos of human faces, which makes it easy to generate photos for fake social media profiles.

In Conclusion

As has been demonstrated by this article, AI can be, and has been, weaponised to achieve ends that are incompatible with civil and political rights. At the very least, the civil society within the region should invest energy and resources into following technological trends and new applications of AI so that it will not be taken by surprise by innovations from malicious actors. As is the nature of machine learning and AI, it is expected that the efficacy of the technologies will only get better. Civil society and human rights defenders will need to participate in the discussions of AI governance and push for tech companies to be more accountable towards the possible weaponisation of the technologies that they have created, in order to safeguard human rights globally.

About the Author

Dr. Jun-E Tan is an independent researcher based in Kuala Lumpur. Her research and advocacy interests are broadly anchored in the areas of digital communication, human rights, and sustainable development. Jun-E’s newest academic paper, “Digital Rights in Southeast Asia: Conceptual Framework and Movement Building” was published in December 2019 by SHAPE-SEA in an open access book titled “Exploring the Nexus Between Technologies and Human Rights: Opportunities and Challenges in Southeast Asia”. She blogs sporadically here.

To read more about this series on artificial intelligence in Southeast Asia, you can check out the first part here and the second part here.

The post AI as a weapon against civil and political rights appeared first on Coconet.

]]>
https://coconet.social/2020/ai-weapon-civil-political-rights/feed/ 0