Human Rights – Coconet https://coconet.social A Platform for Digital Rights Movement Building in the Asia-Pacific Thu, 12 Aug 2021 04:21:08 +0000 en-US hourly 1 https://wordpress.org/?v=5.8.1 https://coconet.social/wp-content/uploads/2019/07/favicon-150x150.png Human Rights – Coconet https://coconet.social 32 32 Human Rights Day 2020: ‘Recover Better’ in Physical and Digital Spaces https://coconet.social/2020/human-rights-day-digital/ https://coconet.social/2020/human-rights-day-digital/#respond Fri, 11 Dec 2020 06:48:32 +0000 https://coconet.social/?p=4375 On Human Rights Day 2020, the UN called on the world to "Recover Better - Stand Up for Human Rights". These human rights also extend to the digital space.

The post Human Rights Day 2020: ‘Recover Better’ in Physical and Digital Spaces appeared first on Coconet.

]]>

This December 10, the United Nations commemorated Human Rights Day with the theme, “Recover Better – Stand Up for Human Rights.” The theme this year ensures that human rights are at the centre of the world’s recovery from the COVID-19 pandemic. These human rights extend beyond the physical and into the digital space, as stated by the UN Office of the High Commissioner for Human Rights in 2012 and 2019.

To add to the conversation on human and digital rights, allow us to share additional resources on digital rights that were published this year.

Digital Rights Reports from APC

Gaya Khandhadai, Asia policy regional coordinator with the Association for Progressive Communications (APC), has curated the following 2020 digital rights reports on the Asia-Pacific:

  1. Dialling in the Law: A comparative assessment of jurisprudence on internet shutdowns is a report that outlines jurisprudence across the global South on the legality of internet shutdowns. It addresses the growing challenge of
    government-mandated disruptions of internet access around the world, often under the guise of safeguarding public order and upholding national security interests.
  2. Unshackling Expression 2020 is a continuation of the 2017 APC report which studied laws criminalising expression online in Asia. Here are the latest reports:
    1. Philippines: “Unshackling Expression: The Philippines Report“, published on September 30, 2020
    2. Indonesia: “Unshackling Expression: A study on online freedom of expression in Indonesia“, published on November 19, 2020
    3. Nepal: “Unshackling Expression: A study on criminalisation of freedom of expression online in Nepal“, published on November 25, 2020

The above reports are supported by APC through the CYRILLA initiative.

‘What are digital rights?’ now in Thai and Indonesian

Earlier this year, EngageMedia Digital Rights Program Manager Kathleen Azali wrote a blog post exploring the definitions of digital rights according to members of the Coconet community and other regional and international charters.

Aside from the English version, this article is now also available in Thai and Indonesian. The Thai version was translated by volunteer Ben Muangwong, while the Indonesian version was translated by EngageMedia.

If you are interested to translate this article in another language, please reach out via the Contact page.

The post Human Rights Day 2020: ‘Recover Better’ in Physical and Digital Spaces appeared first on Coconet.

]]>
https://coconet.social/2020/human-rights-day-digital/feed/ 0
Apa itu Hak Digital? https://coconet.social/2020/apa-itu-hak-digital/ https://coconet.social/2020/apa-itu-hak-digital/#comments Thu, 10 Dec 2020 07:21:41 +0000 https://coconet.social/?p=4351 Seringkali, pertanyaan, “Apa itu hak digital” dijawab dengan “HAM di ruang digital”, atau “HAM yang tercipta melalui penggunaan teknologi dan internet”.

The post Apa itu Hak Digital? appeared first on Coconet.

]]>
Di Coconet II telah berkumpul 120 pembuat film, periset, pendukung HAM, teknologis, pengacara, akademisi, dan jurnalis pembela hak-hak digital, di antaranya tentang disinformasi, berita bohong, keamanan digital, dan hak-hak pengguna.

Seringkali, pertanyaan, “Apa itu hak digital” dijawab dengan “HAM di ruang digital”, atau “HAM yang tercipta melalui penggunaan teknologi dan internet”.

HAM secara jelas didefinisikan oleh PBB melalui Deklarasi Universal Hak Asasi Manusia atau Universal Declaration of Human Rights (UDHR), dan telah diturunkan ke dalam berbagai peraturan hukum yang mengikat. Namun ikatan-ikatan hukum serupa tidak — atau belum — diterapkan untuk istilah apalagi hak “digital”, “teknologi”, atau “internet”. Karena itu, saat membongkar istilah-istilah ini, kita akan menemukan serangkaian tafsiran yang lebih luas.

Sebagai contoh, istilah digital seringkali digabungkan dengan online atau internet. Padahal ada banyak objek dan sistem digital yang tidak terhubung internet. Misalnya, data biometrik seperti pengenal wajah (facial recognition) dan pemeriksaan sidik jari (fingerprinting) di pos-pos perbatasan adalah salah satu contoh sistem digital yang tidak mutlak membutuhkan internet (meski mungkin terhubung ke intranet).

Begitu pula, istilah teknologi atau tech, sepanjang dekade terakhir seringkali disamakan dengan teknologi digital, sementara teknologi analog tidak lagi diperhitungkan sebagai tech karena dianggap tidak mutakhir. (Coba ketik “tech” pada mesin pencari dan lihat betapa mayoritas hasilnya akan merujuk pada “digital tech”.)  Di Indonesia bahkan muncul istilah “gaptek” atau “gagap teknologi” bagi yang dianggap kurang melek literasi digital. Di tengah saturasi digital tech ini, tak ayal muncul pula kejenuhan terhadap “digital tech”, yang berdampak pada semacam romantisasi teknologi analog. Sebagai contoh, lempengan rekaman vinyl dan buku cetak sebagai teknologi analog kerap dianggap sebagai lebih “asli”, “otentik” ketimbang produk digital seperti file mp3 atau buku elektronik.

Menjelajahi definisi, menantang asumsi

Selama Kamp Coconet II hak-hak digital bulan Oktober tahun 2019 lalu, kami mengajak 120 changemakers untuk mendefinisikan hak-hak digital dalam konteks Asia-Pasifik. Tak mengejutkan, berbagai definisi bermunculan:

  • Hak digital adalah pelaksanaan hak asasi manusia di dalam dunia digital.
  • Hak digital adalah hak mengekspresikan diri secara aman, privat, terjamin dan berkelanjutan di dunia digital.
  • Hak digital adalah hal yang mendasar dan Hak Asasi Manusia yang diwarisi untuk mempromosikan inklusi, kesetaraan, akses ke infrastruktur, dan informasi. Hak digital memastikan kontrol, otonomi, dan agensi manusia sekaligus perlindungan terhadap privatisasi, monopolisasi dan monetisasi kemanusiaan.
  • Hak digital adalah Hak Asasi Manusia yang mendasar di dalam lingkup digital. Ia berupa kebebasan berekspresi, berasosiasi dan berkumpul, akses kepada peralatan internet, hak atas informasi, hak mengakses layanan (mulai dari media sosial hingga sistem kependudukan, perbankan, dan lain-lain), hak hidup dalam ruang daring aman (online safe-space) dengan aspek perlindungan keamanan (security) dan kepastian, privasi dan perlindungan data, peka-gender, anti diskriminasi, dan setara.
  • Hak digital adalah seperangkat Hak Asasi Manusia universal yang memastikan setiap orang – terlepas dari jenis kelamin, usia, ras, gender, dan lainnya – memiliki akses yang sama terhadap internet terbuka yang dikelola secara inklusif, akuntabel, dan transparan, untuk memastikan terjaminnya kebebasan dan hak-hak mendasar milik rakyat.
  • Hak digital adalah Hak Asasi Manusia daring yang memungkinkan akses terhadap informasi dan kebebasan berekspresi di tempat yang aman, yang menghormati privasi dan keamanan.
  • Hak digital adalah Hak Asasi Manusia yang melekat pada pengguna maupun bukan pengguna TIK (teknologi informasi dan komunikasi). Ia akan memastikan akses ke hak yang sama terhadap informasi, teknologi, dan pengetahuan; bebas dari kekerasan, pengawasan (surveillance), dan diskriminasi; dan menghormati privasi, otonomi dan penentuan nasib sendiri.
  • Hak digital adalah HAM daring yang peduli soal akses, partisipasi, keamanan data dan privasi, dengan merengkuh nilai kemanusiaan atas kehormatan, penghargaan, kesetaraan, keadilan, tanggung jawab, kesepakatan (consent) dan keberlangsungan lingkungan hidup.
  • Hak digital memberdayakan manusia melawan perusahaan-perusahaan dan mendorong partisipasi yang setara dan adil.

Jawaban dari Coconet II ini menggemakan jawaban kalimat pendek yang sering kita dengar tentang hak asasi manusia di lingkungan digital di awal artikel ini. Namun jawaban-jawaban ini juga menunjukkan bahwa tidak seperti hak asasi manusia (HAM) yang didefinisikan dengan jelas dan mengikat secara hukum, penafsiran istilah digital, internet, dan teknologi sangatlah beragam, dengan istilah digital terkadang disamakan dengan daring atau terhubung ke internet.

Istilah lain yang kerap muncul dalam pola dikotomi adalah “nyata (real)” dan “virtual”, yang seolah mengatakan interaksi fisik sebagai lebih “nyata” ketimbang interaksi digital atau “virtual”. Tetapi jika kita membuat asumsi itu, apakah kita mengatakan bahwa semua interaksi digital tidak nyata? Dan apa implikasi dari asumsi ini? Apakah ini menyiratkan bahwa ruang “virtual” dan pelecehan daring tidak “nyata”? Dan, akibatnya, apakah semua interaksi fisik selalu nyata? Apakah kita bisa menentukan batasan antara daring dan luring dengan tegas, atau apakah keduanya saling memengaruhi, sehingga melibatkan satu sama lain?

Dari pembahasan singkat di atas, kita dapati muncul berapa istilah terkait yang seringkali dipasangkan sebagai lawan biner. Misalnya: daring – luring; digital – analog atau fisik; nyata – virtual.

Tentu saja, semua definisi dan asumsi ini terbuka untuk dibahas. Artikel ini tidak bertujuan untuk memberikan jawaban yang definitif atau  komprehensif. Sebaliknya, kita perlu menantang asumsi dan ingin mengajak Anda menjelajahi kompleksitas mendefinisikan hak digital.

Tengok Coconet.social/Camps untuk menemukan lebih banyak kisah dari sejumlah pendorong perubahan di kawasan Asia Pasifik yang memperjuangkan hak-hak digital.

Mengenali dan mengonsep kerangka kerja hak digital hak digital

Deklarasi Afrika soal Hak dan Kebebasan Internet merupakan deklarasi berskala luas yang mendalami prinsip-prinsip untuk menegakkan hak-hak rakyat dalam ruang daring, sehingga dapat mempertemukan perkembangan kebutuhan dan tujuan sosial-ekonomi Afrika. Pada 2015, masyarakat sipil Filipina memaklumkan Deklarasi Prinsip dan Kebebasan Internet Filipina, sebuah deklarasi berkode terbuka yang mencerminkan impian, harapan, dan aspirasi masyarakat Filipina mengenai internet.

Sementara itu, Organisasi Pendidikan, Ilmu Pengetahuan, dan Kebudayaan PBB (UNESCO) pada 2015 mengidentifikasi lebih dari 50 kerangka kerja dan deklarasi khusus Internet. Di tahun yang sama, Berkman Klein Center for Internet and Society Research, mendapati 30 konstitusi semacam itu beserta 42 daftar hak-hak, yang dikategorisasikan ke dalam tujuh tema. Tiga tema utama yang disoroti karena keluasan cakupannya dalam kerangka kerja tersebut antara lain adalah: kebebasan berekspresi, hak privasi, dan hak untuk mengakses internet. Tema penting lainnya adalah kebebasan informasi, transparansi, dan keterbukaan proses dan jaringan tata kelola internet.

Menawarkan empat ruang hak digital

Jun-E Tan, seorang peneliti independen dan peserta Coconet II dari Malaysia yang telah melakukan penelitian tentang hak digital di sejumlah negara di Asia Tenggara, menunjukkan bagaimana beberapa studi atau dokumen tentang hak digital sebetulnya malah mempersempit ruang lingkup pembahasan menjadi “dua hingga tiga hak teratas untuk melanjutkan kerja analitis atau advokasi praktis mereka”. Namun tanpa melakukan kerangka konseptualisasi, ujarnya, kita berisiko mengabaikan atau mengorbankan hak-hak asasi yang penting dengan mempedulikan hanya hak-hak yang telah lebih umum dikenal .

Dalam kertas kerja risetnya tahun 2019 mengenai hak-hak digital di Asia Tenggara, Jun-E menawarkan untuk memperluas konsep hak digital dengan mempertimbangkan empat ruang cakupan, yakni:

  1. dengan melihat digital sebagai HAM konvensional di ruang digital;
  2. dengan melihat digital sebagai representasi data dari entitas fisik, sehingga perlu memfokuskan hak digital pada keamanan dan privasi data;
  3. akses ke ruang digital dan partisipasi yang bermakna; dan
  4. partisipasi dalam tata kelola digital atau Internet.
Sebuah tabel dari tulisan Jun-E tahun 2019 berjudul "Exploring the Nexus Between Technologies and Human Rights: Opportunities and Challenges in Southeast Asia".

Tentu saja, kerangka kerja Jun-E bukanlah satu-satunya yang benar, sah, atau valid, namun tawaran kerangka kerjanya baru dibangun dari riset di beberapa negeri Asia Tenggara, khususnya Malaysia, Thailand, dan Filipina. (Untuk mengetahui lebih lanjut tentang seluk-beluk dan tantangan soal konsep hak digital dalam konteks Asia Tenggara, Anda bisa mengakses penelitiannya.)

Seperti yang telah ditekankan di seluruh artikel ini, ada banyak cara yang bisa digunakan untuk membingkai hak digital, terutama yang berkaitan dengan konteks dan pengalaman yang berbeda di kawasan Asia-Pasifik. Semoga dengan membagikan definisi-definisi di atas dari anggota komunitas Coconet, kami dapat berkontribusi dalam membangun strategi dan gerakan penegakan hak-hak digital — dan memikirkan ulang apa yang mendapat perhatian dan apa yang diabaikan dalam pendefinisian batas-batas hak digital. Jika Anda memiliki ide atau saran, sudi kiranya mengontak kami.

 

Mengenai penulis

Kathleen Azali adalah Manager Program Hak Digital – Digital Rights Program Manager of EngageMedia. Dia merupakan periset & aktivis yang melakukan kerja di antara sejumlah bidang informasi, teknologi, desain dan ekonomi politik.

The post Apa itu Hak Digital? appeared first on Coconet.

]]>
https://coconet.social/2020/apa-itu-hak-digital/feed/ 1
Statement: Condemning the arrests of the students for protesting against the civil war in Rakhine state https://coconet.social/2020/myanmar-statement-student-arrests/ https://coconet.social/2020/myanmar-statement-student-arrests/#respond Tue, 03 Nov 2020 07:41:46 +0000 https://coconet.social/?p=3881 Civil society organisations in Myanmar condemn the unjust arrests of the students, and we demand to immediately release them and urgently drop all the charges made against them.

The post Statement: Condemning the arrests of the students for protesting against the civil war in Rakhine state appeared first on Coconet.

]]>

Coconet.social is republishing this statement signed by over 180 civil society organisations from Myanmar. The statement is available in English and Burmese. If you would like to sign, whether as an individual or on behalf of an organisation, please fill out the form at the end of this post. Signatures are updated in real-time in the table below.  You can also access the form via this link.

Aside from signing this statement, you can also read up on previous statements and articles on Myanmar and Rakhine state, also known as Arakan.

(Featured photo from the Athan Twitter account.)

From early 2019, civil war has been raging in Northern Rakhine state and Chin state in Myanmar. Based on Radio Free Asia (RFA) records, between December 2018 to 2nd October 2020, a total of 292 civilian deaths and 654 casualties due to war have been reported in those areas.

Over 200,000 local civilians have to abandon their homes and villages due to the ongoing armed conflicts in Rakhine state. Myanmar military has continued to attack the civilian villages with heavy artillery and arrest local civilians for interrogation even during the COVID-19 pandemic.

The Government has shut down the internet in Rakhine State for over a year and even at this time has only allowed 2G internet connection. As a result, the public has been facing challenges to obtain essential information and health education during the pandemic.

On 10th September 2020, Rakhine Student Union led a protest against the human rights violations and prolonged humanitarian crisis suffered by the Rakhine people in Sittwe. To show solidarity with the Rakhine students, the All Burma Federation of Student Unions (ABFSU) started to mobilize in Yangon, Meikhtila, Mandalay, Monywa, Hsiphaw, Loikaw, and Pyay through similar demonstrations and poster campaigns. In response, the Government started to arrest the student activists under different charges to clamp down on the widely spreading student mobilizations.

The charges made against the students were based on the Peaceful Assembly Law as well as article 505 (a) (b) of the Penal Code and the Natural Disaster Management Law. Students were arrested in their homes and at their present locations (university compounds and monasteries) by a large contingent of police and plainclothes people, as if the latter were raiding organized criminal activities, without any warrant nor any regard to the law. Moreover, Kyaw Thiha Ye Kyaw and Soe Hla Naing, who are ABFSU Central Working Committee members, were arrested on 25th September. They were sentenced to a two-year prison sentence by the Maha Aung Myay township court, a one-year sentence by the Aung Myay Thar Zan township court, and a two-year sentence by the Chan Aye Thar Zan township court. In total, they were sentenced to five years in prison, according to Athan’s record. They still have to face charges prosecuted under the Natural Disaster Management Law and the Peaceful Assembly Law.

On the other hand, although there have been election campaigns and massive mobilizations involving over a thousand people organized by supporters of the current ruling party, military-backed political parties, and other political parties, the Government has not prosecuted any of these actions and even publicly stated that it would be difficult to make charges against the supporters, which is extremely disappointing.

It is an outright basic human rights violation by the Government to unjustly arrest and detain the students and to raid their homes and universities even though all they did was carry out peaceful demonstrations to stop the ongoing civil wars, which have caused immense suffering to the public.

  1. We civil society organizations condemn the unjust arrests of the students and we demand that they be immediately released and that all charges made against them be dropped urgently.
  2. We urge the Government and the military to announce a nation-wide ceasefire, including Rakhine state, without any exception, and we strongly urge to solve political conflicts only through political dialogues.
 
To contact –

Maung Saungkha (Athan) – 09773937273

Mon Yee Kyaw (Nyan Lynn Thit Analytica) – 09784043478

Moe Thway (Generation Wave) – 09979238220

Thinzar Shunlei Yi (ACDD) – 09795574775

ABOUT THE AUTHOR

Maung Saungkha is a poet, activist, and the Executive Director of Athan.

The post Statement: Condemning the arrests of the students for protesting against the civil war in Rakhine state appeared first on Coconet.

]]>
https://coconet.social/2020/myanmar-statement-student-arrests/feed/ 0
เมื่อ AI กลายเป็นอาวุธที่มีผลกระทบต่อสิทธิพลเมืองและสิทธิทางการเมือง https://coconet.social/2020/ai-weapon-civil-political-rights-th/ https://coconet.social/2020/ai-weapon-civil-political-rights-th/#respond Tue, 11 Aug 2020 07:56:57 +0000 https://coconet.social/?p=5535 ในบทความนี้ เราจะมาพิจารณากันในรายละเอียดว่า จะเกิดอะไรขึ้นเมื่อ AI ถูกพัฒนาเพื่อนำมาใช้เป็นอาวุธเพื่อนำมาละเมิดสิทธิพลเมืองและสิทธิทางการเมือง (civil and political rights – CPR) เช่น สิทธิในการมีชีวิตและสิทธิในการกำหนดชะตากรรมตนเอง และรวมทั้งสิทธิในการแสดงออก เสรีภาพของปัจเจกบุคคล สิทธิในการนับถือศาสนา การสมาคม และสิทธิอื่นๆ

The post เมื่อ AI กลายเป็นอาวุธที่มีผลกระทบต่อสิทธิพลเมืองและสิทธิทางการเมือง appeared first on Coconet.

]]>

Read this article in English / อ่านบทความนี้ใน ภาษาอังกฤษ

แปลไทยโดย ธีรดา ณ จัตุรัส

บทความนี้เป็นชิ้นที่สามของซีรีย์บทความที่เกี่ยวกับผลกระทบทางสิทธิมนุษยชนที่เกิดจากปัญญาประดิษฐ์ (Artificial intelligence: AI) ในบริบทของเอเชียตะวันออกเฉียงใต้ ความเดิมจากบทความที่แล้ว เราได้พูดถึงนัยยะสำคัญของ AI ที่มีผลกระทบต่อสิทธิทางเศรษฐกิจ สังคม และวัฒนธรรม โดยได้กล่าวถึงประโยชน์ของการใช้ AI ในด้านการพัฒนาหากนำไปใช้อย่างเหมาะสม แต่ยังคงมีความกังวลทางด้านสิทธิมนุษยชนที่เกี่ยวกับความปลอดภัยของ AI และผลลัพธ์อันไม่พึงประสงค์ที่อาจจะเกิดขึ้นได้

ในบทความนี้ เราจะมาพิจารณากันในรายละเอียดว่า จะเกิดอะไรขึ้นเมื่อ AI ถูกพัฒนาเพื่อนำมาใช้เป็นอาวุธที่ละเมิดสิทธิพลเมืองและสิทธิทางการเมือง (civil and political rights – CPR) เช่น สิทธิในการมีชีวิตและสิทธิในการกำหนดชะตากรรมตนเอง และรวมทั้งสิทธิในการแสดงออก เสรีภาพของปัจเจกบุคคล สิทธิในการนับถือศาสนา การสมาคม และสิทธิอื่นๆ

ด้วยพื้นที่อันจำกัดในบทความชิ้นนี้ จึงเป็นไม่ได้ที่กล่าวถึงผลกระทบต่อสิทธิพลเมืองและสิทธิทางการเมืองได้ทุกประเด็น แต่เราจะเน้นถึง 3 ภัยคุกคามหลัก คือ การสอดส่องมวลชนโดยรัฐ (mass surveillance) เทคนิคการเจาะกลุ่มเป้าหมายเฉพาะเพื่อมุ่งเปลี่ยนแปลงผลการเลือกตั้ง และการใช้ AI ในการสร้างข้อมูลที่ตั้งใจผิดหรือทำให้เข้าใจผิด (disinformation) ส่วนผู้ที่สนใจค้นหาเพิ่มเติมสามารถดูได้ที่รายงานเกี่ยวกับการนำ AI มาใช้ในทางที่ไม่ดีที่ส่งผลกระทบให้เกิดอันตรายทางดิจิทัล ทางร่างกาย และทางความมั่นคงทางการเมือง

AI สามารถนำมาใช้เป็นอาวุธเพื่อนำมาละเมิดสิทธิพลเมืองและสิทธิทางการเมือง

AI ถูกนำมาใช้เพื่อการสอดส่องมวลชนโดยรัฐบาล

ความเป็นส่วนตัวถือเป็นสิทธิมนุษยชนขั้นพื้นฐาน และการละเมิดสิทธิความเป็นส่วนตัวย่อมส่งผลกระทบต่อสิทธิอื่นๆ เช่น สิทธิทางการแสดงออก การชุมนุม และการรวมกลุ่มสมาคม ในภูมิภาคเอเชียตะวันออกเฉียงใต้ หากพิจารณาบรรทัดฐานของประชาธิปไตยของรัฐบาลเกือบทุกประเทศมีแนวโน้มเอนเอียงไปทางฝั่งอำนาจนิยม รัฐบาลเหล่านี้ได้แสดงให้เห็นว่าสามารถขยายการปราบปรามผู้ที่เห็นต่างทางการเมืองอย่างกว้างขวาง เช่น การบังคับใช้กฎหมายที่รุนแรงในการลงโทษ หรือการใช้มาตรการนอกกฎหมายที่มาคุกคามผู้ที่เห็นต่าง

เมื่อพิจารณาความสามารถของ Machine Learning ทำให้การโยกย้ายชุดข้อมูลมหาศาลเป็นเรื่องทำที่ได้ง่ายดายและราคาไม่แพงแบบที่ไม่เคยมีมาก่อน เป็นผลทำให้การสอดส่องมวลชนมีราคาถูกลงและมีประสิทธิภาพเพิ่มมากขึ้นอีกด้วย ภายใต้เงื่อนไขเหล่านี้ทำให้บุคคลที่มีอิทธิพลสามารถที่จะสืบทอดอำนาจได้ง่ายมากขึ้น

ตารางด้านล่างนี้ได้นำข้อมูลมาจาก AI Global Surveillance Index (AIGS 2019) โดยได้คัดเลือก 7 ประเทศจากภูมิภาคเอเชียตะวันออกเฉียงใต้ (ซึ่งไม่รวมถึงบรูไน เวียดนาม กัมพูชา และติมอร์เลสเต เนื่องจากไม่มีการเก็บข้อมูล) จากดัชนีนี้ พบว่าเกือบทุกประเทศในภูมิภาคนี้โดยมากจะใช้เทคโนโลยีเพื่อสอดส่องอย่างสองประเภทหรือมากกว่านั้น เช่น ในรูปแบบการใช้เทคโนโลยีการสอดส่องในเมืองอัจฉริยะ (smart city) หรือเมืองที่ปลอดภัย การใช้เทคโนโลยีจดจำใบหน้า (facial recognition) และวิธีการตรวจตราแบบ smart policing จากดัชนีนี้เรายังพบอีกว่า ประเทศทั้งหมดเหล่านี้ได้นำเข้าเทคโนโลยีเพื่อสอดส่องมาจากประเทศจีน รวมถึงการซื้อเทคโนโลยีจากสหรัฐอเมริกาอีกด้วยถึงแม้ว่าจะน้อยกว่าจีนก็ตาม

Table adapted from the AI Global Surveillance Index (AIGS 2019)

เพื่อให้ภาพที่กว้างขึ้น มีอย่างน้อย 75 ประเทศใน 176 ประเทศที่ปรากฏอยู่ในรายงาน AIGS 2019 กำลังใช้ AI เพื่อการสอดส่องประชาชน และหลายประเทศก็จัดอยู่ในกลุ่มประเทศแนวเสรีนิยมประชาธิปไตยด้วย โดยดัชนีนี้ไม่ได้แบ่งแยกการใช้ AI แบบที่ถูกกฎหมายหรือผิดกฎหมาย แต่เมื่อกลับมาพิจารณาบริบทของเอเชียตะวันออกเฉียงใต้ ภาคประชาสังคมอาจต้องเตรียมพร้อมในการเฝ้าระวังการใช้ AI เพื่อจุดประสงค์ในการสอดส่องโดยรัฐบาล

รายงานฉบับหนึ่งจาก CSIS ชี้ให้เห็นถึงการใช้ “Safe City” ซึ่งพัฒนาโดยบริษัทยักษ์ใหญ่ Huawei กลายมาเป็นทางเลือกให้หลายประเทศในกลุ่มที่อยู่ในสถานะไม่มีเสรีภาพ และเป็นที่น่ากังวลว่าประเทศจีนกำลังส่งออกระบอบอำนาจนิยม (authoritarianism) ไปในต่างประเทศ ทางประเทศจีนเองได้ใช้เทคโนโลยีการจดจำใบหน้า (ซึ่งพัฒนาโดยบริษัทจีนที่มีความเชี่ยวชาญทาง AI อาทิ Yitu, Megvii, SenseTime และ CloudWalk) ซึ่งนำมาใช้ทำโปรไฟล์และติดตามชาวมุสลิมอุยกูร์ และนั่นยังเป็นที่รู้จักกันดีว่าชาวอุยกูร์จำนวนเกือบถึงหนึ่งล้านคนได้ถูกคุมขังในค่ายกักกันแบบเผด็จการเพื่อปรับทัศนคติให้นักโทษ (“re-education camps”) ทำให้เห็นภาพของความเป็นไปได้ที่กลายเป็นข้อกังวลของการละเมิดสิทธิมนุษยชนและการสอดส่องมวลชน

13 ประเทศในภูมิภาคเอเชียมีการสอดส่องทางโซเชียลมีเดีย

นอกจากนี้ยังมีรูปแบบการสอดส่องโดยรัฐที่รวมไปถึงการสอดส่องผ่านโซเซียลมีเดียและการใช้ AI ในการเก็บและวิเคราะห์ข้อมูลส่วนบุคคล รวมไปถึงเมตะดาต้าจากแพลตฟอร์มของโซเซียลมีเดียต่างๆ รายงาน Freedom on the Net (FOTN) ประจำปี 2562 ระบุว่า 13 ประเทศ จาก 15 ประเทศในภูมิภาคเอเชียที่กำลังมีการสอดส่องทางโซเซียลมีเดียหรืออยู่ในช่วงที่กำลังพัฒนาโปรแกรม AI เพื่อจุดประสงค์นี้อยู่ แต่รายงานไม่ได้ระบุว่าประเทศไหนจัดอยูในกลุ่มที่กำลังใช้ หรือกำลังพัฒนาโปรแกรม AI นี้อยู่ แต่ก็มีความเป็นไปได้ค่อนข้างสูงสำหรับ 8 ประเทศที่อยู่ในรายงานฉบับนี้ ได้แก่ ฟิลิปปินส์ มาเลเซีย สิงคโปร์ อินโดนีเซีย กัมพูชา เมียนมา ไทย และเวียดนาม

โดยรายงาน Freedom on the Net ยังได้เน้นไปที่ฟิลิปปินส์และเวียดนาม ซึ่งจากรายงานเมื่อปี 2561 เวียดนามได้ประกาศจัดตั้งหน่วยงานแห่งชาติที่มีจุดประสงค์ในการสอดส่องดูแลโดยเฉพาะ โดยมีการติดตั้งเครื่องมือเทคโนโลยีที่ช่วยในการวิเคราะห์ ประเมินผล และคัดกรองโพสต์หลายล้านข้อความจากโซเซียลมีเดีย และในปีเดียวกันนี้ กองทัพสหรัฐฯได้ฝึกเจ้าหน้าที่ทางการของฟิลิปปินส์ เพื่อก่อตั้งหน่วยงานใหม่ที่ไว้สอดส่องทางโซเซียลมีเดีย ซึ่งรายงานระบุว่า หน่วยงานนี้จะป้องกันการแพร่กระจายของข้อความที่บิดเบือนโดยกลุ่มผู้ก่อการร้าย

การสอดส่องทางดิจิทัลโดยรัฐบาลยังมีผลกว้างออกไปนอกจากแพลตฟอร์มโซเซียลมีเดีย โดยในปี 2561 หน่วยต่อต้านอาชญากรรมแก่เยาวชนบนอินเตอร์เน็ตแห่งมาเลเซีย (Malaysia Internet Crime Against Children – Micac) ที่อยู่ภายใต้สังกัดกรมตำรวจแห่งประเทศมาเลเซีย ได้แสดงความสามารถทางการสอดส่องของหน่วยงานให้แก่นักข่าวท้องถิ่น โดยการติดตามผู้ใช้ที่มีเนื้อหาอนาจารในลักษณะแบบเรียลไทม์ และได้สร้างสิ่งที่เรียกว่า “ห้องสมุดแห่งข้อมูลของบัญชีผู้ใช้โซเซียลมีเดีย” (data library) นี่ถือเป็นการละเมิดสิทธิความเป็นส่วนตัว เช่นเดียวกับแถลงการณ์โดยกลุ่มภาคประชาสังคมใน ASEAN

Image by Bark 003 via Cool SILH. Public Domain .

เทคนิคการเจาะจงกลุ่มเป้าหมาย เพื่อเปลี่ยนพฤติกรรมของผู้มีสิทธิเลือกตั้ง

ในภูมิภาคเอเชียตะวันออกเฉียงใต้นี้ ภาคประชาสังคมได้มุ่งจับตามองการสอดส่องจากรัฐมากกว่าจากบริษัทเอกชน อย่างไรก็ดี ผลกระทบที่มาจากการสอดส่องที่ส่งเสริมโดยบริษัทต่างๆ โดยเฉพาะบริษัทเทคโนโลยียักษ์ใหญ่อย่าง Facebook และ Google อาจจะมีผลกระทบที่เช่นเดียวกับการสอดส่องจากรัฐ หรือแม้แต่การสอดส่องที่ส่งเสริมโดยบริษัทต่างๆ จะมีผลกระทบมากกว่า ลองคิดดูสิว่า เมื่อมีเทคโนโลยี AI เข้ามาเกี่ยวข้องกับข้อมูลมากมายอย่างที่จินตนาการไม่ถึง เทคโนโลยี AI นี่เองที่จะช่วยให้การบริการภาคธุรกิจเพื่อการคาดการณ์และนำมาเปลี่ยนพฤติกรรมของผู้ใช้บริการเพื่อตอบสนองต่อบริษัทโฆษณา ปัญหานี้มีนัยยะที่สำคัญ เมื่อบริษัทโฆษณาทั้งหลายได้ผันตัวเองมาเป็นผู้บริการด้านโฆษณาทางดิจิทัลให้กับกลุ่มการเมืองต่างๆ ซึ่งตั้งเป้าหมายเพื่อเปลี่ยนความคิดเห็นของผู้คน หรือพฤติกรรมของผู้มีสิทธิเลือกตั้ง และการเปลี่ยนความคิดเห็นสาธารณะหรือพฤติกรรมการเลือกตั้ง ย่อมกระทบต่อสิทธิในการเลือกตั้งของปัจเจกบุคคล

เมื่อ 5 ปีก่อน นักวิจัยหลายคนพบว่า machines สามารถล่วงรู้เกี่ยวกับตัวคุณเองได้ดีกว่าใครๆ ซึ่งเรียนรู้มาจากการที่คุณกด Like บน Facebook นั่นเอง (เพียงแค่ machines ดูจากการที่คุณกด Like จำนวน 300 ครั้งเท่านั้น machines สามารถคาดการณ์จากพฤติกรรมของคุณมากกว่าแฟนของคุณเสียอีก และข้อมูลเพียงแค่จากการที่คุณกด Link จำนวน 10 ครั้งเท่านั้นก็ทำให้ machines ประมวลผลและรู้จักตัวคุณดีกว่าเพื่อนร่วมงานของคุณเสียอีก) นับตั้งแต่ที่มีข่าวอื้อฉาวเกี่ยวกับ AI ใน Facebook อย่างกรณีการละเมิดความเป็นส่วนตัวของผู้ใช้บริการโดยบริษัท Cambridge Analytica ซึ่งสามารถเข้าถึงข้อมูลส่วนตัวของผู้ใช้บริการบน Facebook เป็นจำนวนสิบๆล้านคนอย่างผิดกฏหมาย โดยที่บริษัทสามารถเก็บและสร้างข้อมูลของผู้ใช้ Facebook ที่คลิกตอบแบบทดสอบบุคคลิกภาพของ Cambridge Analytica แล้วนำข้อมูลนั้นมาจัดทำโปรไฟล์เกี่ยวกับลักษณะทางจิตวิทยาของผู้บริโภค ทำเกิดการใช้เทคนิคเลือกกลุ่มเป้าหมายที่เฉพาะเจาะจง เพื่อมีจุดประสงค์ในการโน้มน้าวการตัดสินใจลงคะแนนเสียงต่อผู้เข้าแข่งชิงตำแหน่งพรรคนั้นๆ หรือที่เรียกว่า microtargeting ด้วยข้อความโฆษณาหลากหลายที่ทำให้ผลการเลือกตั้งประธานาธิบดีในสหรัฐอเมริกาเมื่อปี 2559 มีความผันผวน ยังมีการกล่าวถึงด้วยอีกว่า กลยุทธ์แบบเดียวกันนี้ได้ถูกนำมาใช้ในการจูงใจผู้เลือกตั้งในสหราชอาณาจักร และส่งผลกระทบต่อผลการลงประชามติจากการออกจากยุโรปของสหราชอาณาจักร หรือ Brexit

ด้วยการมีผู้ใช้บริการถึง 2 พันล้านคน Facebook ได้ใช้ข้อมูลมโหฬารเหล่านี้ในการฝึกระบบ Machine Learning เพื่อการทำนายพฤติกรรมต่างๆ ของผู้ใช้บริการ

นับแต่ตั้งแต่ที่ Cambridge Analytica ได้ปิดตัวลง แต่เรื่องอื้อฉาวนี้ได้ทำให้มีการวิจารณ์ถกเถียงเกี่ยวกับโมเดลธุรกิจของบริษัทที่นำการใช้ microtargeting ในการโฆษณาทางการเมือง ผู้วิจารณ์ทางการเมืองได้ชี้แจงว่าทาง Facebook เองก็ได้ใช้โมเดลธุรกิจแบบ microtargeting เป็นทุนเดิมอยู่แล้ว จะต่างก็ตรงที่โมเดลธุรกิจของ Facebook มีขนาดใหญ่กว่าและมีพลังมากว่า ด้วยขนาดข้อมูลผู้ใช้บริการที่มีจำนวนมหาศาลถึง 2 พันล้านคนได้เอื้ออำนวยให้ Facebook สามารถทำโมเดลธุรกิจแบบ microtargeting นี้ได้ ยิ่งไปกว่านั้น Facebook ได้ใช้ข้อมูลมโหฬารเหล่านี้ในการฝึกระบบ Machine Learning เพื่อการทำนาย เช่น เมื่อผู้ใช้รายบุคคลกำลังจะเปลี่ยนไปใช้สินค้ายี่ห้ออื่นๆ และ Facebook เองยังเปิดให้บริการระบบอัฉริยะที่นำมาทำนายอุปนิสัยการจับจ่ายออนไลน์ของผู้ใช้นี้ให้แก่บริษัทอื่นๆ ที่ยอมจ่ายค่าบริการ นี่แทบจะไม่ต่างกันเลยระหว่างการใช้โมเดลธุรกิจเพื่อการโฆษณา และการโฆษณาทางการเมือง และทำให้ Twitter ได้ประกาศยับยั้งการโฆษณาทางการเมืองแล้ว และ Google เองก็หยุดการใช้ microtargeting ในการโฆษณาทางการเมืองอีกด้วย

จากสถิติ พบว่า 86% ของผู้ที่ใช้อินเตอร์เน็ตในภูมิภาคเอเชียตะวันออกเฉียงใต้มีบัญชี Facebook และทำให้เกิดความกังวลเกี่ยวกับการใช้ microtargeting ที่ส่งผลกระทบต่อผลการเลือกตั้งหลายๆแห่งภายในภูมิภาคนี้ จากรายงานฉบับหนึ่งซึ่งได้ติดตามประเด็นการบิดเบือนข้อมูลทางดิจิทัลในช่วงการเลือกตั้งกลางเทอมในฟิลิปปินส์ เมื่อปี 2562 ซึ่งได้ชี้แจงว่า Facebook Boosts (ซึ่งเป็นกลไกทางโฆษณาของ Facebook นั่นเอง) เป็นปัจจัยสำคัญต่อการรณรงค์เลือกตั้งในท้องถิ่น นอกจากนี้ กลไกทางโฆษณาลักษณะ Facebook Boosts นี้ยังได้ถูกนำมาใช้ประชาสัมพันธ์เนื้อหาในแง่ลบเพื่อการโจมตีคู่แข่งทางการเมืองจากฝ่ายตรงข้าม ในอินโดนีเชีย ผู้เชี่ยวชาญได้เตือนเกี่ยวกับการตั้งเป้าพฤติกรรมของผู้เลือกตั้ง และการนำยุทธศาสตร์ต่างๆ เกี่ยวกับการใช้ microtargeting เพื่อการหาประโยชน์จากข้อมูลส่วนตัวของผู้เลือกตั้งในอินโดนีเชีย และเพื่อส่งผลกระทบต่อผลการเลือกตั้งในช่วงระยะเวลาการเลือกตั้งทั่วไปในปี 2562

Image via SVG Silh. Public Domain.
Image via SVG Silh. Public Domain.

เนื้อหาที่สร้างโดย AI ยิ่งเติมเชื้อเพลิงให้กับแคมเปญที่สร้างข้อมูลบิดเบือน

ในยุคดิจิทัล ข่าวลือได้ถูกทำให้มีประสิทธิผลมากขึ้นกว่าแต่ก่อน ด้วยธรรมชาติของเครือข่ายในการติดต่อสื่อสาร ด้วยเหตุผลนี้ทำให้เกิดการบิดเบือนข้อมูลหรือข่าวปลอม (fake news) ได้กลายมาเป็นปัญหาใหญ่ทั่วโลก รวมทั้งในภูมิภาคเอเชียตะวันออกเฉียงใต้เองด้วย ตัวอย่างที่เศร้าใจที่สุด เห็นได้จากการผลกระทบที่ทำให้เกิดการฆ่าล้างเผ่าพันธุ์ของชาวโรฮิงยาในเมียนมา ซึ่งมีรายงานว่าปัญหานี้เกิดมาจากการกระพือข้อมูลที่บิดเบือนและคำพูดที่สร้างความเกลียดชัง (hate speech) บนโซเซียลมีเดีย

ยิ่งไปกว่านั้น ธุรกิจแห่งการสร้างข้อมูลที่บิดเบือนยังได้งอกงามภายในภูมิภาคนี้ เช่น ในอินโดนีเชีย แหล่งผลิตข่าวปลอมหลายแห่งถูกใช้ปั่นเนื้อหาออกมาเป็นจำนวนมาก โดยตั้งเป้าโจมตีคู่แข่งทางการเมืองฝั่งตรงข้าม และเพื่อสนับสนุนบริการให้กับลูกค้าของแหล่งผลิตข่าวปลอมนั้นๆ อย่างเช่น ในฟิลิปปินส์ บริษัทประชาสัมพันธ์หลายแห่ง ได้ปลูกฝังค่านิยมในชุมชนออนไลน์พร้อมทั้งได้ใส่ข้อความที่บิดเบือนและข้อความที่เกี่ยวกับการเมือง โดยที่บริษัทเหล่านี้ได้รับการช่วยเหลือจากกลุ่มคนที่มีผู้ติดตามออนไลน์จำนวนมาก (influencers) ในกลุ่มที่มีลักษณะมีความเชี่ยวชาญเรื่องใดเรื่องหนึ่งเป็นพิเศษ ทั้งแบบเป็น micro และ nano เมื่อผู้ที่เกี่ยวข้องกับธุรกิจที่ดำเนินงานแบบไร้จรรยาบรรณเหล่านี้ได้สร้างโครงสร้างเพื่อการผลิตข้อมูลที่บิดเบือนและกอบโกยกำไร ทำให้การใช้ AI ในธุรกิจประเภทนี้ยิ่งจะสร้างข้อมูลที่บิดเบือนได้ง่ายและซับซ้อนมากยิ่งขึ้น

อีกหนึ่งเทคโนโลยีที่น่ากลัวคือสิ่งที่เรียกว่า deepfake โดยมีการสร้างเนื้อหาวิดีโอด้วยระบบ AI หรือรู้จักในว่า “synthetic media” ซึ่งเป็นสื่อแบบผสมผสานรวมทั้งการตัดต่อไฟล์วิดีโอหรือไฟล์เสียงเพื่อทำให้ดูและฟังดูเหมือนราวกับว่ามาจากแหล่งข้อมูลที่แท้จริง เทคโนโลยี deepfake ได้สร้างความจริงในช่วงเวลาหนึ่งที่ยังไม่มีใครสามารถแยกแยะได้ว่านี่ไม่ใช่แหล่งข้อมูลจริง ซึ่งบางทีกว่าจะมีคนรู้ว่าเป็นข้อมูลปลอมก็เป็นผ่านไปเป็นเดือน และด้วยต้นทุนที่ราคาถูกในการผลิตยิ่งทำให้มือใหม่เกิดขึ้นได้ง่ายในการสร้าง deepfake ซึ่งในตอนนี้ได้มีคนนำเทคนิคนี้มาใช้ผลิตคลิปวิดีโออนาจารของเหล่าคนดัง และมีความเป็นไปได้หลายแบบที่ deepfake จะถูกนำมาใช้ในการสร้างข้อมูลที่บิดเบือนภายในภูมิภาคนี้ อย่างน้อยมีหนึ่งในตัวอย่างคือ การที่นักการเมืองในประเทศมาเลเซียผู้หนึ่งอ้างว่า ได้มีคลิปวิดีโอ sex ของเขาถูกผลิตโดย deepfake เพื่อการโจมตีทางการเมือง

คลิปวิดีโอข้างต้นได้อธิบายให้เห็นว่าทำไมเทคโนโลยี deepfake จึงเป็นเรื่องที่น่ากังวลและทำไมพวกเราควรต้องระมัดระวังในเรื่องนี้ องค์กร WITNESS ได้เก็บรวบรวมแหล่งข้อมูลที่น่าสนใจสำหรับผู้ที่สนใจประเด็นเกี่ยวการสร้างวิดีโอแบบ deepfake

อีกกรณีคือที่ AI สามารถทำอะไรได้อีกบ้างในการผลิตเนื้อหาที่สมจริงออกมา ในบทความนี้ New York Times ได้เล่าถึงการคลิกเพียงปุ่มเดียว ก็สามารถผลิตคอมเมนต์ทางการเมืองหรือข้อมูลใดๆที่บิดเบือนออกมาได้ อย่างที่พอจะเห็นได้ว่ามีการลงทุนในการสร้างกองกำลังไซเบอร์เพื่อรุมโจมตีความคิดเห็นของฝ่ายตรงข้ามและหากใช้ machines มาใช้ทดแทนคนจริงๆ เพื่อการผลิตเนื้อหาที่สมจริงออกมาให้ดูเหมือนราวกับว่าเป็นมนุษย์เองที่เขียนข้อความเหล่านั้น ในรายงานอีกฉบับหนึ่งยังได้เตือนถึงความน่ากลัวของการทำข่าวปลอมที่ผลิตโดย AI มาอีกด้วย และระบบนั้นเรียกว่า GROVER ที่สามารถผลิตบทความปลอมที่เขียนขึ้นมาจากพาดหัวข่าวชิ้นเดียวเท่านั้น ทั้งยังสามารถเลียนแบบข่าวต่างๆที่รายงานโดยสำนักงานข่าวชั้นนำอย่าง The Washington Post หรือ The New York Times อีกด้วย

ในยุคที่เรียกว่า “ยุคหลังความจริง” หรือ “post-truth” นั้นยังต้องเผชิญกับอีกหลากหลายความท้าทาย คุณสามารถเช็ครูปถ่ายของใบหน้าของบุคคลต่างๆที่ผลิตโดยคอมพิวเตอร์แล้วอัพโหลดไปบนเว็บไซต์ดังต่อไปนี้ ThisPersonDoesNotExist.com หรือ WhichFaceIsReal.com ลองดูถึงความสมจริงของรูปเหล่านี้ เว็บไซต์เหล่านี้เองยังช่วยผลิตรูปภาพนั้นๆได้อย่างง่ายดายเพื่อนำไปใช้ในโปรไฟล์ปลอมบนโซเชียลมีเดีย

บทสรุป

ดังที่บทความนี้ได้กล่าวไปว่าความสามารถของ AI ได้นำมาใช้ในฐานะที่เปรียบเสมือนอาวุธ เพื่อบรรลุวัตถุจุดประสงค์ที่ขัดกับสิทธิพลเมืองและสิทธิทางการเมืองได้ ขณะที่ฝั่งภาคประชาสังคมในภูมิภาคนี้ยังคงต้องคอยจับตามองเพื่อติดตามเทรนด์ของเทคโนโลยีและแอปพลิเคชันใหม่ๆของ AI เพื่อจะไม่ให้ผู้เล่นอื่นนำไปใช้ในทางผิดแบบที่เราไม่ทันสังเกตเห็น เพราะด้วยประสิทธิภาพของเทคโนโลยี Machine Learning และ AI ที่เดินหน้าพัฒนาอย่างต่อเนื่อง ภาคประชาสังคมและนักปกป้องสิทธิมนุษยชนจำเป็นต้องเข้าไปมีส่วนร่วมเพื่อออกแบบระบอบการกำกับดูแลของ AI และผลักดันให้บริษัทเทคโนโลยีทั้งหลายต้องมีความรับผิดชอบต่อการพัฒนาเทคโนโลยีของตน เพื่อมุ่งให้เป็นอาวุธในแบบที่ช่วยปกป้องและส่งเสริมสิทธิมนุษยชนทั่วโลกได้

เกี่ยวกับผู้เขียน

Dr. Jun-E Tan เป็นนักวิจัยอิสระ อาศัยอยู่ในเมืองกัวลาลัมเปอร์ ประเทศมาเลเซีย งานวิจัยและการสนับสนุนของ Jun-E นั้นเกี่ยวกับประเด็นการสื่อสารทางดิจิทัล สิทธิมนุษยชน และการพัฒนาที่ยั่งยืน บทความในปีวิจัยล่าสุดของ Jun-E มีชื่อว่า “สิทธิมนุษยชนทางดิจิทัลในภูมิภาคเอเชียอาคเนย์: กรอบแนวคิดและการสร้างขบวนการเคลื่อนไหว” (Digital Rights in Southeast Asia: Conceptual Framework and Movement Building) ได้เผยแพร่ในหนังสือ open access (สามารถ download เพื่ออ่านได้ฟรี) ที่มีชื่อว่า “การสำรวจความเกี่ยวเนื่องระหว่างเทคโนโลยีต่างๆและสิทธิมนุษยชน: โอกาสและความท้าทายที่หลากหลายในเอเชียอาคเนย์” (Exploring the Nexus Between Technologies and Human Rights: Opportunities and Challenges in Southeast Asia) จัดพิมพ์โดยสำนักพิมพ์ SHAPE-SEA เมื่อเดือนธันวาคม 2562 นอกจากนี้ Jun-E ยังได้เขียนบทความลงในบล็อกของตนเองอยู่เป็นประจำ

คุณสามารถอ่าน บทความแรก และบทความที่สองในซีรีย์เดียวกันนี้ที่เกี่ยวกับผลกระทบสิทธิมนุษยชนที่มาจากปัญญาประดิษฐ์ (Artificial Intelligence – AI) ในบริบทของเอเชียตะวันออกเฉียงใต้

The post เมื่อ AI กลายเป็นอาวุธที่มีผลกระทบต่อสิทธิพลเมืองและสิทธิทางการเมือง appeared first on Coconet.

]]>
https://coconet.social/2020/ai-weapon-civil-political-rights-th/feed/ 0
What are digital rights? https://coconet.social/2020/digital-rights-exploring-definitions/ https://coconet.social/2020/digital-rights-exploring-definitions/#comments Mon, 03 Aug 2020 02:30:00 +0000 https://coconet.social/?p=2259 What are digital rights? While human rights have been more clearly defined through the UN Declaration of Human Rights (UDHR) and translated into various legally-binding laws, the same cannot be said for the terms “digital”, “technology”, or the “internet”. In unpacking these terms, we’ll find the interpretations vary much more widely.

The post What are digital rights? appeared first on Coconet.

]]>

Read this Article in THAI / อ่านบทความนี้ใน ภาษาไทย

Coconet II Camp Digital Rights
At Coconet II, 120 film-makers, researchers, human rights advocates, technologists, lawyers, academics, and journalists across the region working on issues such as disinformation, fake news, digital security among others.

Oftentimes, the simplest one-sentence reply to the question, “What are digital rights?”, is “human rights in the digital environment”, or “human rights that are enabled through technology and the internet”.

While human rights have been more clearly defined through the UN Declaration of Human Rights (UDHR) and translated into various legally binding laws, the same cannot be said for the terms “digital”, “technology”, or the “internet”. In unpacking these terms, we’ll find the interpretations vary much more widely.

For example, the term digital is often conflated with online or the internet. But not everything digital is always connected to the internet. Biometric data, such as facial recognition and fingerprint checking at border crossings, is one example of how the digital may not be online or connected to the internet.

Meanwhile, the term technology, especially the shorthand version tech, in recent decades is often equated to digital technologies, frequently neglecting and undervaluing analogue tech along with their interrelations. (Try typing in “tech” on your search engine, and see how the majority of the results point to digital tech.) Or, sometimes, it’s the other way around, especially after feeling overwhelmed by decades of digital deluge. A common example is how vinyl records and printed books are often romanticised as being more genuine and authentic than their digital counterparts.

Exploring definitions, challenging assumptions

During the Coconet II digital rights camp in October last year, we asked 120 changemakers to define digital rights in the Asia-Pacific context. Unsurprisingly, they came up with a variety of definitions:

  • Digital rights are the exercise of universal human rights in digital spaces.
  • Digital rights are the right to express yourself in a safe, private, secure, and sustainable digital space.
  • Digital rights are fundamental and inherited human rights that promote inclusion, equality, access to infrastructure, and information. Digital rights ensure control, autonomy, and agency of humans while protecting against the privatisation, monopolisation, and monetisation of humanity.
  • Digital rights are fundamental human rights in the digital environment. It is about free speech or expression, association and assembly, access to internet devices, rights and access to information, access to platforms (i.e. Facebook, Twitter, and more), online safe space, security and safety, privacy and data protection, gender-responsiveness and anti-discrimination, and equality.
  • Digital rights are a set of universal human rights that ensures everybody – regardless of their gender, age, race, sexuality, and more – has equal access to an open internet that is governed in an inclusive, accountable, and transparent manner to ensure peoples’ fundamental freedoms and rights.
  • Digital rights are human rights online which allow access to information and freedom of expression in a safe space that respects privacy and security.
  • Digital rights are human rights which are inherent for ICT (information and communications technology) users and non-users. They ensure access to equal rights to information, technology, and knowledge; being free from violence, surveillance and discrimination; and respects privacy, autonomy and self-determination.
  • Digital rights are human rights online that concern access, participation, data security, and privacy, with the human-centred values of dignity, respect, equality, justice, responsibility, consent, and environmental sustainability.
  • Digital rights empower humans over companies and should encourage equal and just participation.

These answers from Coconet II echo the one-sentence reply that we often hear about human rights in the digital environment mentioned at the beginning of this article. They also show how, unlike the clearly defined and legally binding human rights, the interpretations of the terms digital, internet, and technology vary considerably, with digital sometimes equated with being online or connected to the internet.

Another pair of terms that often get mixed up is “real” and “virtual”, which imply that physical interactions are more “real” than digital, “virtual” interactions. But if we’re making that assumption, are we saying that all digital interactions are not real? And what is the implication of this assumption? Does it imply that “virtual” spaces and online harassment are not “real”? And, consequently, are all physical interactions always real? Is the boundary between online and offline always clearly defined, or do they influence and implicate each other?

These are some seemingly simple but tricky questions to answer. We can already identify some pertinent terms often paired as binary opposites – though I’d prefer to put them at opposite ends of a spectrum. For instance: online – offline; digital – analog or physical; real – virtual.

Of course, all these definitions and assumptions are open for discussion. This article does not aim to give a comprehensive answer. Rather, it aims to challenge our assumptions and explore the complexities and intricacies in defining digital rights, knowing that there is a diversity of definitions that can arise.

Defend Digital Rights

Check out Coconet.social/Camps to find out more about how changemakers in the Asia-Pacific are fighting for digital rights.

Identifying and conceptualising frameworks

Indeed, there are various global, regional, and local initiatives that expound on digital rights’ various elements. For example, there are the APC Internet Rights Charter and the Charter of Human Rights and Principles for the Internet by the Internet Rights and Principles Dynamic Coalition at the UN Internet Governance Forum (IGF). Both Charters outline how human rights standards should be interpreted to apply to the online environment.

The African Declaration on Internet Rights and Freedoms is a region-wide declaration that elaborates the principles necessary to uphold people’s rights on the internet, cultivating an online environment that can best meet Africa’s social and economic development needs and goals. In 2015, civil society in the Philippines promulgated the Philippine Declaration on Internet Rights and Principles, a crowdsourced declaration that reflects the dreams, hopes, and aspirations of Filipinos of what their internet should be.

The United Nations Educational, Scientific and Cultural Organisation (UNESCO) in 2015 in fact identified more than 50 Internet-specific declarations and frameworks. Within the same year, the Berkman Klein Center for Internet and Society Research, identified 30 such constitutions and a list of 42 rights, categorising them into seven themes. Across these frameworks, freedom of expression, privacy rights, and the right to access the internet were the three prominent themes most often featured. Other important themes were freedom of information, transparency, and openness of internet governance processes and networks.

Proposing four spheres of digital rights

Jun-E Tan, a Coconet II participant from Malaysia who has been doing research on digital rights in a number of countries in Southeast Asia, has pointed out how some studies or documents on digital rights have chosen to expediently narrow down their scope to “to the top two to three rights and to move along with their analytical work or practical advocacy”. But without a conceptualising framework, she says, we risk foregoing or excluding important rights at the expense of including only prominent ones.

In a 2019 research paper about digital rights in Southeast Asia, Jun-E proposed to expand the conceptualisation of digital rights by thinking in four spheres:

  1. through viewing the digital as a space/spaces and thus digital rights as a translation of conventional rights to digital spaces;
  2. through viewing the digital as data representation of physical entities, therefore focusing digital rights on data security and privacy;
  3. access to digital spaces and meaningful participation; and
  4. participation in the governance of the digital or the Internet.

Table from Jun-E's 2019 paper, "Exploring the Nexus Between Technologies and Human Rights: Opportunities and Challenges in Southeast Asia".

Of course, Jun-E’s framework is not the only valid one, and her proposed framework was built from research in selected countries in Southeast Asia, particularly in Malaysia, Thailand, and the Philippines. (For more on the intricacies and challenges in conceptualising digital rights in the Southeast Asian context, we encourage you to check out her research.)

As has been stressed throughout this article, there are numerous ways by which we can frame digital rights, particularly with respect to different contexts and experiences in the Asia-Pacific region.  Hopefully, by sharing the above definitions from members of the Coconet community, we can contribute to building strategies and movements for digital rights – and rethinking what we’re including and excluding in defining the boundaries of digital rights. If you have more ideas or suggestions, please get in touch.

About the Author

Kathleen Azali is the Digital Rights Program Manager of EngageMedia. She is an activist-researcher whose work intersects the fields of information, technology, design, and political economy.

The post What are digital rights? appeared first on Coconet.

]]>
https://coconet.social/2020/digital-rights-exploring-definitions/feed/ 1
Excerpt: The Case for Technological Solutions to Digital Rights https://coconet.social/2020/excerpt-the-case-for-technological-solutions-to-digital-rights/ https://coconet.social/2020/excerpt-the-case-for-technological-solutions-to-digital-rights/#respond Mon, 29 Jun 2020 01:00:18 +0000 https://coconet.social/?p=1612 What does it mean when technologists say “you can code anything”? In her inaugural article for The IO Foundation, Maryam Lee shares her thoughts on why human rights perspectives have the potential to move technological innovation to greater heights. She also argues that people do not need to choose between enjoying the latest technologies and human rights, and how they both could co-exist in our lives.

The post Excerpt: The Case for Technological Solutions to Digital Rights appeared first on Coconet.

]]>

What does it mean when technologists say “you can code anything”? In her inaugural article for The IO Foundation, Maryam Lee shares her thoughts on why human rights perspectives have the potential to move technological innovation to greater heights. She also argues that people do not need to choose between enjoying the latest technologies and human rights, and how they both could co-exist in our lives.

Maryam writes:

“Principles of human rights as the ones stipulated in the Universal Declaration of Human Rights may be misunderstood as limiters to technological innovation. In reality, we do not have to give up our fundamental rights to enjoy advances in tech. It is more than possible to imagine a world where human rights and technological innovations co-exist, it is in fact already happening.”

Read the full article here. For more articles on data-centric digital rights, you may also visit TheIOFoundation.org/publications.

(Note: The preview thumbnail of this article is an image by WOC in Tech Chat, used under the Flickr Attribution 2.0 Generic (CC BY 2.0) license.)

About the Author

Maryam Lee is Strategic Program Manager at The IO Foundation. She oversees projects and activities designed to prepare technologists in the next step of technological innovation, which inevitably means building technologies that protect and respect human rights by design. With over a decade of experience in human rights work and advocacy, she brings in the perspectives of a human rights worker to the technology sector, applied thoughtfully by considering the multifaceted aspects of digital realities. Her work is evidence that the future is indeed multidisciplinary.

The post Excerpt: The Case for Technological Solutions to Digital Rights appeared first on Coconet.

]]>
https://coconet.social/2020/excerpt-the-case-for-technological-solutions-to-digital-rights/feed/ 0
Artificial Intelligence and Human Rights in Southeast Asia: An Overview https://coconet.social/2020/ai-hr-sea-overview/ https://coconet.social/2020/ai-hr-sea-overview/#respond Wed, 25 Mar 2020 12:23:13 +0000 https://coconet.social/?p=930 EngageMedia worked with Dr. Jun-E Tan, an independent researcher and digital rights expert, to produce a blog post, a three-part series on Artificial Intelligence (AI) and human rights in Southeast Asia, and a video wrapping up the discourse for the whole engagement.

The post Artificial Intelligence and Human Rights in Southeast Asia: An Overview appeared first on Coconet.

]]>

The context of how artificial intelligence (AI) affects our rights as digital natives is worth unpacking, especially during political and public health crises, where online communication is a lifeline for many, and citizens are possibly being subjected to government surveillance and manipulation.

This is especially important when the crisis is of life-and-death importance, like the ongoing Covid-19 pandemic.

With this, EngageMedia worked with Dr. Jun-E Tan, an independent researcher and digital rights expert based in Kuala Lumpur, to unpack how AI plays out for the good — through improving public services and quality of life — and how it can be used by bad actors: to attack political, economic, and cultural rights of citizens, sometimes without them even knowing.

The collaboration resulted in several outputs: a blog post about how AI is tackled during Coconet II: Southeast Asia Digital Rights Camp, a three-part series on AI and human rights in Southeast Asia, and a video wrapping up the discourse for the whole engagement.

Image by Computerizer from Pixabay
Image by Computerizer from Pixabay

AI and Human Rights Video

Produced by EngageMedia, the video athe the top provides an overarching feature of issues on AI, human rights, and its Southeast Asia context, summarizing the issues raised by this series on AI and Human Rights.

Featuring interviews from Dr. Jun-E Tan and Red Tani of EngageMedia, it was shown during the Myanmar Digital Rights Forum on Feb. 28 and 29, 2020, an event attended by more than 350 participants from government, business, and civil society. You can read our blog about the forum here.

The video highlights how AI issues relate to the context of Southeast Asia, particularly recent political movements against authoritarian regimes, as well as other social issues that are susceptible to online hijacking, through manipulation of online narratives and surveillance of dissenters.

AI and Human Rights in Coconet II

Prior to the production of the AI and Human Rights video, discussions about AI and its human rights implications actually started at Coconet II.

After the weeklong camp, Dr. Tan wrote about the learnings from the event, encapsulating how she started the camp with the assessment that AI is a subject of concern for digital rights activists, but is something that they want to learn on a much deeper level, to how Coconet II provided focus on AI and human rights.

“The sessions were very helpful for me, as a participant and a session organiser, to formulate and articulate the problems associated with machine learning from a digital rights perspective. They were also useful to form an initial community concerned about AI, continued through the AI channel in the Coconet Mattermost platform, which is one of its biggest channels with 48 members so far,” she said.

She also concluded that the conversations on AI and digital rights needed to extend beyond the digital rights camp, as the topic “will only increase in importance with time, as more people get connected digitally and more governments adopt these technologies.”

The importance of AI will only increase with time, as more people get connected digitally and more governments adopt these technologies.

- Dr. June-E Tan

This also served as the prelude for the three-part article series on AI and human rights in Southeast Asia, which she briefly mentioned in the blog as well.

You can read the full blog here.

Image by PIRO4D from Pixabay
Image by PIRO4D from Pixabay

3-part series about AI and Human Rights in Southeast Asia

Next up in the collaboration is the three-part article series on AI and its implications to civil, social, economic, cultural, and political rights in Southeast Asia.

This is a series of articles on the human rights implications of AI in the context of Southeast Asia

- Dr. Jun-E Tan

“This is a series of articles on the human rights implications of AI in the context of our region, targeted at raising awareness and engagement of civil society actors who work with marginalised communities, on rights advocacy, and on developmental issues, such as public health, poverty, and environmental causes,” Dr. Tan explained.

The series started its release towards the end of 2019, with an overview of the basic concepts and terms related to AI, as well as an introduction to the human rights context in AI and the Southeast Asia landscape.

It unpacked topics like digital authoritarianism through AI, underrepresentation in AI datasets, socioeconomic impacts of AI, and participation in AI governance through careful curation of recent related studies and publications.

You can check the first part of the series published in the Coconet social website here. The article was picked up for syndication by a Philippine news website and network sharing by Coconet members.

The second part of the series then zoomed in on the impact of AI in the economic, social, and cultural rights (ESCR) of citizens from Southeast Asia.

It first presented the possible benefits of AI in the development sector. “AI, when used strategically and appropriately, can provide immense developmental benefits. Economic growth is a much-touted benefit, but possibilities of AI to improve lives extend much further,” wrote Dr. Tan. This includes benefits in education, healthcare, traffic, and food security.

The article then elaborates the possible abuse of AI to interfere with economic, social, and cultural rights, especially on possibly worsening and even optimising inequality through undue bias in AI data and the system itself.

Read the second article in full via the Coconet social website here, and feel free to check out the republished article via Daily Guardian Philippines as well.

June-E Tan's article at the Daily Guardian Philippines.
June-E Tan's article at the Daily Guardian Philippines.

And lastly, the third article of the series focused on AI as a weapon against civil and political rights, which takes “a closer look on what can happen when AI is weaponised and used against civil and political rights (CPR) such as the right to life and self-determination, as well as individual freedoms of expression, religion, association, assembly, and so on.”

It tackled the use of AI for government surveillance, microtargeting to change voter behaviour, and the use of AI-generated content to fuel disinformation campaigns.

The series then focused on a note on civil society’s role on the AI and human rights issues presented: “AI can be, and has been, weaponised to achieve ends that are incompatible with civil and political rights. At the very least, the civil society within the region should invest energy and resources into following technological trends and new applications of AI so that it will not be taken by surprise by innovations from malicious actors. As is the nature of machine learning and AI, it is expected that the efficacy of the technologies will only get better.”

“Civil society and human rights defenders will need to participate in the discussions of AI governance and push for tech companies to be more accountable towards the possible weaponisation of the technologies that they have created, in order to safeguard human rights globally,” Dr. Tan wrote to conclude the series.

Civil society and human rights defenders will need to participate in the discussions of AI governance and push for tech companies to be more accountable

- Dr. Jun-E Tan

And lastly, the third article of the series focused on AI as a weapon against civil and political rights, which takes “a closer look on what can happen when AI is weaponised and used against civil and political rights (CPR) such as the right to life and self-determination, as well as individual freedoms of expression, religion, association, assembly, and so on.”

It tackled the use of AI for government surveillance, microtargeting to change voter behaviour, and the use of AI-generated content to fuel disinformation campaigns.

Daily Guardian Philippines syndicated the last part of the series and published it during their Mar. 6, 2020 print edition, and republished it online as well. You may also check the version published on the Coconet social website here.

The engagement was able to open the possibility for more mainstream discussion of a seemingly technical issue through presenting its implications

Overall, the collaboration on AI and its Southeast Asia Human Rights implications contributed to bridging the knowledge gap on the issue not just among digital rights activists who needed it for their advocacy — distribution in mainstream news sites and social platforms more broadly increased awareness among civil society.

The engagement was able to open the possibility for more mainstream discussion of a seemingly technical issue through presenting its implications, especially to those who should have guaranteed protections under their laws.

Although it’s relevant for everyone, it posed a challenge especially for civil society — acknowledge AI and its human rights implications as valid and actionable issues, educate yourselves and others about these, and do informed advocacy work in response to the current challenges and threats.

More AI resources in development

Through collaboration with the Coconet community, Dr. Tan has complied two helpful resources: a mapping of AI issues across the region, and a list of relevant resources for those who want to learn more about such issues. We will update this post once these pages are ready.

About the Author

Vino Lucero is a Project and Communications Officer at EngageMedia. He is a journalist based in Manila.

The post Artificial Intelligence and Human Rights in Southeast Asia: An Overview appeared first on Coconet.

]]>
https://coconet.social/2020/ai-hr-sea-overview/feed/ 0
AI as a weapon against civil and political rights https://coconet.social/2020/ai-weapon-civil-political-rights/ https://coconet.social/2020/ai-weapon-civil-political-rights/#respond Wed, 04 Mar 2020 08:28:50 +0000 https://coconet.social/?p=877 We are going to take a closer look on what can happen when AI is weaponised and used against civil and political rights (CPR) such as the right to life and self-determination, as well as individual freedoms of expression, religion, association, assembly, and so on.

The post AI as a weapon against civil and political rights appeared first on Coconet.

]]>

Read this Article in Thai / อ่านบทความนี้ใน ภาษาไทย

Translated into Thai by Teerada Na Jatturas
(To read the Thai version, click the flag icon in the upper right-hand corner of your screen.)

This is the third of a series of articles on the human rights implications of artificial intelligence (AI) in the context of Southeast Asia. In the last article, we had discussed the implications of AI on economic, social, and cultural rights, driving home the point that AI does yield developmental benefits, if it is implemented properly. The human rights concerns were more on AI safety and unintended consequences.

In this article, we are going to take a closer look on what can happen when AI is weaponised and used against civil and political rights (CPR) such as the right to life and self-determination, as well as individual freedoms of expression, religion, association, assembly, and so on.

Within the space of this article, it is impossible to cover the entire extent to which AI can be used against CPR, so we will only address three imminent threats: mass surveillance by governments, microtargeting that can undermine elections, and AI-generated disinformation. For those who are interested to dig deeper, a report by a collection of academic institutions on the malicious use of AI endangering digital, physical, and political security makes for a riveting read.

AI can be weaponised and used against civil and political rights

AI used for Government Surveillance

Privacy is a fundamental human right, and the erosion of privacy impacts on other civil freedoms such as free expression, assembly, and association. In Southeast Asia, where most countries tilt towards the authoritarian side of the democratic spectrum, governments have shown that they can go to great lengths to quench political dissent, such as wielding draconian laws or using extralegal measures to intimidate dissenters.

With machine learning that can sift through mountains of data collected inexpensively and make inferences that were previously invisible, surveillance of the masses becomes cheaper and more effective, making it easier for the powerful to stay in power. 

The table below is adapted from the AI Global Surveillance Index (AIGS 2019), extracting the seven Southeast Asian countries covered (with no data on Brunei, Vietnam, Cambodia, and Timor Leste). It shows that most countries within the region use two or more types of surveillance technologies in the form of smart/safe city implementations, facial recognition, and smart policing; and all of these countries use technologies imported from China, and to a lesser extent from the US as well.

Table adapted from the AI Global Surveillance Index (AIGS 2019)

To provide a wider context, at least 75 out of 176 countries covered in the AIGS 2019 are actively using AI for surveillance purposes, including many liberal democracies. The index does not differentiate between legitimate and unlawful use of AI surveillance. Given the context of Southeast Asia, civil society in the region might want to err on the side of caution.

A CSIS report points out that Huawei’s “Safe City” solutions are popular with non-liberal countries, and sounds the concern that China may be “exporting authoritarianism”. China itself has used facial recognition (developed by Chinese AI companies Yitu, Megvii, SenseTime, and CloudWalk) to profile and track the Muslim Uighur community—it is also known that close to a million Uighurs have been placed in totalitarian “re-education camps”, illustrating the chilling possibilities of human rights violations connected to mass surveillance.

13 Asian countries have a social media surveillance programme

Other forms of government surveillance include social media surveillance and using AI to collect and process personal data and metadata from social media platforms. The Freedom on the Net (FOTN) Report (2019) states that 13 out of the 15 Asian countries that it covers have a social media surveillance programme in use or under development, but does not specify which. The odds are high for these eight Southeast Asian countries covered in the report: Philippines, Malaysia, Singapore, Indonesia, Cambodia, Myanmar, Thailand, and Vietnam.

In particular, examples of Vietnam and the Philippines were highlighted in the FOTN report. In 2018, Vietnam “announced a new national surveillance unit equipped with technology to analyse, evaluate, and categorise millions of social media posts”; and in the same year, Philippine officials were trained by the US Army on developing a new social media unit, which reportedly would be used to counter disinformation by terrorist organisations.

Digital surveillance by the government can also cast a wider net outside social media platforms. In 2018, the Malaysia Internet Crime Against Children (Micac) unit of the Malaysian police demonstrated to a local daily its surveilling capabilities of locating pornography users in real-time, and that it built a “data library” of these individuals—a gross invasion of privacy, as pointed out by a statement by some ASEAN CSOs

Image by Bark 003 via Cool SILH. Public Domain .

Microtargeting to change voter behaviour

In Southeast Asia, civil society is more vigilant about government surveillance than corporate surveillance. However, the effects of corporate surveillance, especially by big tech companies like Facebook and Google, maybe equally sinister or even more far-reaching when their AI technologies, combined with an unimaginable amount of data, are up for hire to predict and change user behaviour for their advertisers. This is particularly problematic when the advertisers are digital campaigners for political groups looking to change public opinions or voter behaviour, affecting the electoral rights of individuals.

Five years ago, researchers had already found that based on Facebook likes, machines could know you better than anyone else (300 likes were all it needed to know you more than your spouse did, and only 10 likes to beat a co-worker). Since then, there have been scandals such as that of Cambridge Analytica, which illegally obtained the data of tens of millions of Facebook users, which they were able to use to create psychographic profiles from, so that they could micro-target voters with different messaging to swing the votes of the 2016 US presidential election. Similar tactics allegedly influenced the outcomes of the Brexit referendum.

With 2 billion users, Facebook is able to train its machine learning systems to predict user behaviours

Cambridge Analytica has since closed down, but the scandal had brought the business model of microtargeted political advertising into public scrutiny. Political commentators have pointed out that Facebook does pretty much the same thing, only in a bigger and more ambitious way. With the data of 2 billion users at their disposal, Facebook is able to train its machine learning systems to predict things like when an individual user is about to switch brand loyalty and rent this user intelligence to whoever that pays. It does not discern between regular advertising and political advertising. It is worth mentioning that Twitter has banned political advertising, and Google has disabled microtargeting for political ads.

86% of Southeast Asia’s Internet users use Facebook. Within the region, concerns have already arisen regarding microtargeting to influence elections. A report that tracks digital disinformation in the 2019 Philippine midterm election points out that Facebook Boosts (Facebook’s advertising mechanism) are essential for local campaigns because of their ability to reach specific geographical locations. Besides advertising the Facebook pages of official candidates, Facebook Boosts were also used to promote negative content about political opponents. In Indonesia, ahead of the 2019 general elections, experts warned of voter behavioural targeting and voter microtargeting strategies which might exploit personal data of Indonesian voters to change election outcomes.

Image via SVG Silh. Public Domain.
Image via SVG Silh. Public Domain.

AI-generated content fuels disinformation campaigns

In the digital era, rumour-mongering becomes much more effective because of the networked nature of our communication. As a result, disinformation or fake news has become a worldwide problem, and in Southeast Asia, the gravest example of possible consequences is the ethnic cleansing of Rohingyas in Myanmar, reportedly fueled by the spread of disinformation and hate speech on social media.

The disinformation economy has flourished within the region. In Indonesia, fake news factories are used to churn out content to attack political opponents and to support their clients. PR companies in the Philippines cultivate online communities and surreptitiously insert disinformation and political messaging with the help of micro and nano influencers. As nefarious actors establish structures to create and profit from disinformation, AI will make content generation much easier and more sophisticated for them.

One of the scariest possibilities of AI-generated content is the so-called “deepfake”, also known as “synthetic media”, which are manipulated videos or sound files which look/sound highly realistic. Deepfakes are already a reality and it is a matter of time (in the matter of months) before they are not discernible from real footage and cheap enough to be produced by any novice. At the moment, they are mainly being used to produce fake pornography of celebrities, but there is a dizzying array of possibilities of how it could be used for creating disinformation. In the region, there is at least one case in Malaysia of a politician claiming his sex video to be a politically motivated deepfake.

The video above gives a good introduction of what deepfakes are, some examples, and why we should be concerned. WITNESS has a good resource pool of articles and videos of deepfakes for those who are interested to dig further.

Another example of what AI is able to do in terms of generating realistic content can be found in the interactive component of this New York Times article —with a click of a button, one can generate commentary on any topic, with any political slant. As can be imagined, the cost of maintaining a cyber army for astroturfing or trolling goes down drastically if machines are used to generate messages that look like they have been written by humans. In a separate report that warns of AI-generated “horrifyingly plausible fake news”, a system called GROVER can generate a fake news article based on only a headline, which can even be customised to mimic styles of major news outlets such as The Washington Post or The New York Times.

The post-truth era has many faces. Lastly, you can have a bit of fun and check out ThisPersonDoesNotExist.com or WhichFaceIsReal.com to see the level of realism in computer-generated photos of human faces, which makes it easy to generate photos for fake social media profiles.

In Conclusion

As has been demonstrated by this article, AI can be, and has been, weaponised to achieve ends that are incompatible with civil and political rights. At the very least, the civil society within the region should invest energy and resources into following technological trends and new applications of AI so that it will not be taken by surprise by innovations from malicious actors. As is the nature of machine learning and AI, it is expected that the efficacy of the technologies will only get better. Civil society and human rights defenders will need to participate in the discussions of AI governance and push for tech companies to be more accountable towards the possible weaponisation of the technologies that they have created, in order to safeguard human rights globally.

About the Author

Dr. Jun-E Tan is an independent researcher based in Kuala Lumpur. Her research and advocacy interests are broadly anchored in the areas of digital communication, human rights, and sustainable development. Jun-E’s newest academic paper, “Digital Rights in Southeast Asia: Conceptual Framework and Movement Building” was published in December 2019 by SHAPE-SEA in an open access book titled “Exploring the Nexus Between Technologies and Human Rights: Opportunities and Challenges in Southeast Asia”. She blogs sporadically here.

To read more about this series on artificial intelligence in Southeast Asia, you can check out the first part here and the second part here.

The post AI as a weapon against civil and political rights appeared first on Coconet.

]]>
https://coconet.social/2020/ai-weapon-civil-political-rights/feed/ 0
Can’t live with it, can’t live without it? AI impacts on economic, social, and cultural rights https://coconet.social/2020/ai-impacts-economic-social-cultural-rights/ https://coconet.social/2020/ai-impacts-economic-social-cultural-rights/#comments Wed, 12 Feb 2020 10:20:51 +0000 https://coconet.social/?p=815 This is the second in a series of articles on the human rights implications of artificial intelligence (AI) in the context of Southeast Asia, targeted at raising awareness and engagement of civil society on the topic.

The post Can’t live with it, can’t live without it? AI impacts on economic, social, and cultural rights appeared first on Coconet.

]]>

Read this Article in Thai / อ่านบทความนี้ใน ภาษาไทย

Translated into Thai by Teerada Na Jatturas
(To read the Thai version, click the flag icon in the upper right-hand corner of your screen.)

This is the second in a series of articles on the human rights implications of artificial intelligence (AI) in the context of Southeast Asia, targeted at raising awareness and engagement of civil society on the topic.

In the previous article, we looked at the definitions of AI and machine learning, and discussed some considerations of their applications in the Southeast Asian context. In this article and the next, we will continue the discussion on potential human rights impacts, from the angles of 1) economic, social, and cultural rights (ESCR), and 2) civil and political rights (CPR). To provide adequate space to unpack the ideas, this article will focus on the first group of rights.

What are economic, social, and cultural rights (ESCR)?

Drawing from the International Covenant of Economic, Social and Cultural Rights (ICESCR), these rights include the rights to health, education, social security, proper labour conditions, quality of life, and participation in cultural life and creative activities. These rights are often considered as positive rights, which require action to fulfil (such as providing opportunities for decent work), as opposed to civil and political rights which require inaction (such as not restricting freedom of expression).

It is important to note that ESCR implications of AI is not a binary “good” or “bad”. Even in the same application, outcomes may differ for different people—some may be impacted positively and some negatively. For example, relying on AI for deciding on credit trustworthiness based on a large pool of data points may benefit the poor with a thin credit profile, as they buy fewer big items and cannot prove that they are trustworthy based on their credit history. However, using data points broader than credit history may discriminate against others based on non-related data points, sometimes in arbitrary ways—an example was given on a certain AI system giving lower points if an applicant typed in all-caps, which is apparently correlated with a higher risk of default.

To structure our discussion, we can look at the implications of AI on ESCR from two angles: 1) the cost of not implementing AI for development, and 2) the cost of implementing it badly.

"fikiran" is licensed under CC0 1.0

Developmental benefits of AI

AI, when used strategically and appropriately, can provide immense developmental benefits. Economic growth is a much-touted benefit, but possibilities of AI to improve lives extend much further. Here are some examples of what the technologies can already achieve in Southeast Asia:

  • Healthcare: In Singapore, a local startup Kronikare worked with AI Singapore to develop a system to capture, analyse, and diagnose chronic wound conditions. This system was then scaled up and is currently deployed in some hospitals and nursing homes in Singapore.
  • Traffic: Malaysia City Brain, a collaboration between Alibaba, Malaysia Digital Economy Corporation, and the city council of Kuala Lumpur, aims to reduce traffic in the congested city. City Brain in Hangzhou has seen traffic speed up by 15% in some locations.
  • Education: Ruangguru, an online education platform in Indonesia that connects students and teachers for online tutoring, and provides other services such as video content on a wide range of subject areas. It uses AI to personalise education for its 15 million students, 80% of whom are outside of urban areas.
  • Food security: In Vietnam, startups are using AI and IoT sensors to increase agricultural productivity and save on water and fertiliser use. Sero, a Vietnamese startup, claims an accuracy rate of 70-90% for identifying 20 types of crop diseases, thus lowering the rates of crop failures.

However, across the eleven countries of Southeast Asia, the implementation of (and capacity to) implement AI is uneven. This can be illustrated using the AI Government Readiness Index by Oxford Insights and the International Development Research Centre, a ranking of governments according to their readiness to use AI for administration and delivery of services. Singapore tops the world ranking. Six Southeast Asian countries are within the top 100, including Malaysia (22), Philippines (50), Thailand (56), Indonesia (57), and Vietnam (70).

Country (World Ranking)

Score

Singapore (1)
~9.186
Malaysia (22)
~7.108
Philippines (50)
~5.704
Thailand (56)
~5.458
Indonesia (57)
~5.420
Vietnam (70)
~5.081
Brunei Darussalam (121)
~3.143
Cambodia (125)
~2.810
Laos (137)
~2.314
Myanmar (159)
~1.385
Timor Leste (173)
~0.694

Indeed, countries higher up on the list have (or are building) national strategies that aim to capitalise upon the advantages of the technology and to build enabling environments for supporting homegrown AI. Singapore with its National Artificial Intelligence Strategy aims to be a leader in the field by 2030, strengthening the AI ecosystem and providing funding support of more than S$500 million to drive AI initiatives. Other Southeast Asian countries coming up with overarching AI policies include Malaysia (with a National AI Framework coming up in 2020, and a National Data and AI Policy being proposed to the cabinet) and Indonesia (targeting completion of its AI strategy in 2020).

On the other hand, those on the lower side of the spectrum are still struggling with basic Internet access—only 30.3% of the population of Timor Leste is online, while Myanmar has 33.1% and Laos has 35.4%. With that, we see a divide between those who have access to the technologies and those who do not.

While some governments may lag behind in their readiness for AI, corporations are already gearing up to provide services. In general, there is a great appetite in the region to jump on the “smart” bandwagon, which includes the use of AI in improving products and services. The ASEAN Smart Cities Network (ASCN) mooted in 2018, has 26 cities across Southeast Asia aiming to use technology as an enabler for city development. One of the key goals of the Network is to link these cities with private sector solution providers.

In general, the plans and visions look promising: focal developmental areas of the ASCN are to improve social and cultural cohesion, health and well-being, public safety, environmental protection, built infrastructure, as well as industry and innovation.

Artificial Intelligence & AI & Machine Learning
Artificial Intelligence & AI & Machine Learning. Image by Mike MacKenzie via www.vpnsrus.com

Potential risks of AI affecting ESCR

The developmental benefits brought about by AI are contingent upon the implementation. This is also where many potential risks lie. Even though well-known cases of AI safety and harms have not surfaced in our region where the technology is still nascent, we would do well to observe other localities for known problems.

The “Automating Poverty” series from The Guardian, for instance, gives some chilling examples from India, UK, US, and Australia of how automated social security systems assisted by AI can be very dehumanising and penalise the marginalised further. The case from India, in particular, shows us some devastating consequences of faulty implementation in the context of a developing country. The complete transition from a paper system to a digital one has left the poor vulnerable to technological glitches, ranging from electricity blackouts and unstable Internet, to unexplained rejections by the system to disburse social welfare to the deserving. The system covers social protection and medical reimbursements for the poor, and errors have led to starvation-related deaths.

System bias and accessibility

Opaque decision-making with AI on social security can lead to dire consequences and human suffering with little recourse. Southeast Asia is weak in at least two aspects required for better AI-powered decision-making. The first is good training data for machine learning, which the region lacks, due to populations not yet connected to the Internet, or bad quality data. The second is that most of the countries are importers of AI technologies, which means that most of the engineers designing the systems may not understand the local context. As mentioned in an earlier article, these are fundamental problems that have repercussions on human rights.

Most of the engineers designing the systems may not understand the local context

When people depend on technology to access their economic, social, and political life, they are subject to the availability and stability of the technology. As pointed out earlier, the AI divide is there between the haves and the have-nots—those who have limited abilities to build their own technology will have to rely on using technology that may not be built in an accessible manner for them. Accessibility may be considered from many angles. In this culturally rich region that speaks many languages, it is important to cater to all, but such localisation exercises are costly and may not be implemented. Accessibility can also be obstructed by physical or mental disabilities, low education level and digital literacy, or even just a lack of basic infrastructure.

These fundamental issues need to be considered seriously before one jumps into AI solutions.

Not all problems can be solved by applying technology

Technology is not a cure-all

Not all problems can be (or should be) solved by applying technology. As pointed out by The Guardian’s report on India, the root of inefficiencies associated with the previous system was corruption and poor management at a higher level, and not duplicate or fake cards, as was the problem targeted by Aadhaar. When the problem is a deeper, structural problem, a technological solution may divert attention from other reforms needed and create further problems.

In Southeast Asia, the fervour for all things AI has led to statements by top leaders promising to apply AI to all sorts of contexts. For example, Indonesia’s President Jokowi announced that his administration would replace some higher-level civil servants with AI, while in Malaysia, the Education Minister announced that machines would provide schoolchildren with career guidance in the future. It is debatable whether these are the most appropriate solutions to problems faced, and any such moves should be preceded by multistakeholder consultations and human rights impact assessments.

Worsening inequality, optimised by AI

Lastly, when AI is discussed in the context of this region, it is usually seen from the angle of economic growth or displaced jobs. These are two sides of the same coin—corporations gain profit when they are able to replace human workers with machines. Even when workers have not been replaced (yet), we see a trend towards informalisation of work with the gig economy (such as Grab, Go-Jek, or other platforms for freelancers), which is largely unregulated in Southeast Asia, leading to concerns about worker exploitation optimised by algorithms.

Governments in Southeast Asia tend to see AI as a vehicle for economic, rather than social development

It has been noted at forums discussing AI in Asia that governments in the region tend to see AI as a vehicle for economic, rather than social development. It is, therefore, a concern that AI will be used to optimise profit-making for the technology owners at the expense of people and the planet—a scenario not so different from what we have now, but at a faster rate.

In conclusion

In terms of AI impacts on economic, social, and cultural rights, the short answer to the question of whether AI is good or harmful in the Southeast Asian context is, “it depends”. Civil society in the region should understand more and debate about potential benefits and harms, anchored in the challenges and particularities of local contexts.

Will we be uplifting the lives of vulnerable millions with the benefits of AI, or exposing them to systems that will further disempower them? What about their data and associated privacy? The last question will be discussed more in the next article when we talk about AI and civil and political rights.

About the Author

Dr. Jun-E Tan is an independent researcher based in Kuala Lumpur. Her research and advocacy interests are broadly anchored in the areas of digital communication, human rights, and sustainable development. Jun-E’s newest academic paper, “Digital Rights in Southeast Asia: Conceptual Framework and Movement Building” was published in December 2019 by SHAPE-SEA in an open access book titled “Exploring the Nexus Between Technologies and Human Rights: Opportunities and Challenges in Southeast Asia”. She blogs sporadically here.

The post Can’t live with it, can’t live without it? AI impacts on economic, social, and cultural rights appeared first on Coconet.

]]>
https://coconet.social/2020/ai-impacts-economic-social-cultural-rights/feed/ 1
Human Rights Concerns on Artificial Intelligence in Southeast Asia: An Overview https://coconet.social/2019/human-rights-artificial-intelligence-southeast-asia/ https://coconet.social/2019/human-rights-artificial-intelligence-southeast-asia/#comments Tue, 24 Dec 2019 04:39:00 +0000 https://coconet.social/?p=782 Despite the rapid proliferation of artificial intelligence (AI) in our everyday life and communications, it is still little understood by much of civil society in Southeast Asia. What exactly is AI? And what are its current applications in the region? How do we relate these new technologies with risks of human rights violations? And what are the possible advocacy strategies?

The post Human Rights Concerns on Artificial Intelligence in Southeast Asia: An Overview appeared first on Coconet.

]]>

Read this Article in Thai / อ่านบทความนี้ใน ภาษาไทย

"Inteligencia Artificial: ECI 33 (UBA)" by Juan Pablo Dellacha is licensed under CC BY-NC-ND 4.0
"Inteligencia Artificial: ECI 33 (UBA)" by Juan Pablo Dellacha is licensed under CC BY-NC-ND 4.0

Translated into Thai by Teerada Na Jatturas
(To read the Thai version, click the flag icon in the upper right-hand corner of your screen.)

Despite the rapid proliferation of artificial intelligence (AI) in our everyday life and communications, it is still little understood by much of civil society in Southeast Asia. What exactly is AI? And what are its current applications in the region? How do we relate these new technologies with risks of human rights violations? And what are the possible advocacy strategies?

This is a series of articles on the human rights implications of AI in the context of our region, targeted at raising awareness and engagement of civil society actors who work with marginalised communities, on rights advocacy, and on developmental issues, such as public health, poverty, and environmental causes.

AI Explained

Artificial intelligence is a catch-all term that can mean many things. Indeed, most papers on the topic start off by saying that there is no universally accepted definition of what it is.

Broadly speaking, AI is “the study of devices that perceive their environment and define a course of action that will maximise its chance of achieving a given goal” (World Wide Web Foundation, 2017).

In practical terms, machine learning is the subset of AI that is most widely applied, and it is what we usually refer to when we consider the societal implications of AI.

AI is the study of devices that perceive their environment and define a course of action.

The Internet Society (2017) explains machine learning as such: instead of giving computers step-by-step instructions to solve a problem, the human programmer gives the computer instructions and rules to learn from the data provided. Based on inferences gained from the data, the computer then generates new rules to provide information and services.

In other words, algorithms, defined as “a sequence of instructions used to solve a problem”, generate algorithms. With that, machines can provide solutions to complicated tasks that cannot be manually programmed.

Human Rights Impacts of AI

Scholars from the Berkman Klein Center for Internet & Society of Harvard University point out that (positive and negative) human rights impacts of machine learning come from at least three main sources:

  1. Quality of training data: This is known as the “garbage in, garbage out” problem where even the best algorithms will give skewed outputs when the data that it trains on is biased.
  2. System design: The human designers of the AI systems may incorporate their own values on the design, such as prioritising certain variables to be optimised, over others.
  3. Complex interactions: The AI system may interact with its environment in a way that leads to unpredictable outcomes.

The same study provides six use cases on decision-making with AI, from criminal justice to healthcare diagnostics. Possible impacts are mapped onto the human rights framework, which gives a concrete depiction of specific rights affected by AI use in different fields.

It is important to note also that the efficacy of AI varies according to different functions, and the positive results of some use cases are sometimes overly exaggerated.

Inaccuracies in prediction results can be devastating to human life and dignity.

In a presentation titled “How to Recognise AI Snake Oil”, Professor Arvind Narayanan from Princeton University argues that while AI has been applied successfully in the areas of perception (such as content identification, face recognition, and medical diagnosis from scans), usage in predicting social outcomes (such as likelihood of criminal activity or job performance) is deemed to be “fundamentally dubious”.

This is something to keep in mind, as inaccuracies in prediction results can be devastating to human life and dignity.

"kecerdasan" is licensed under CC0 1.0
"kecerdasan" (intelligence) is licensed under CC0 1.0

The Southeast Asian Context

Not much has been written about human rights concerns of AI usage in the context of Southeast Asia. While AI ethics and principles have been heavily discussed and debated, most of these conversations happen within developed countries (and China) where the technologies originate.

Here is a useful visualisation that sums up 32 sets of AI principles, or guidelines for ethical AI, which represent international and transnational perspectives from governments, companies, advocacy groups, and multistakeholder forums. None of these perspectives come from Southeast Asia. This is problematic because some challenges brought by AI to this region may differ from those faced by other regions. Here are some considerations to set the scene:

Digital authoritarianism through AI:

The latest report from Civicus Monitor shows that none of the eleven countries in the region received a rating higher than “obstructed”. None of the eight countries assessed in the Freedom on the Net report by Freedom House (2018) obtained a “free” status in Internet freedom. What this implies is that civil society in the region is often cautious about the state applying AI in ways that restrict civil and political rights, such as digital surveillance. The human rights impacts of AI, therefore, go beyond inherent problems of the technology (as mentioned in the above section) and cover the weaponisation of AI to restrict freedoms.

The human rights impacts of AI go beyond inherent problems of the technology.

...exclusion from datasets is a larger concern than potential illegitimate use of data.

Underrepresentation in datasets:

In a session during the Internet Governance Forum 2017 on “AI in Asia: What’s Similar, What’s Different?”, it was pointed out that in certain Asian countries (examples given were India and Malaysia), exclusion from datasets is a larger concern than potential illegitimate use of data. This runs counter to data protection and privacy narratives coming from the West. The lack of quality data coming from the region is also considered “a major challenge” for machine learning startups, which are forced to use datasets coming from US and UK to train their machines, leading to data biases that don’t work in local contexts.

Socioeconomic impacts of AI:

A McKinsey report (2017) notes that AI has the potential to automate about half the work activities (equivalent to more than $900bil worth of wages) in the four biggest economies of ASEAN: Indonesia (52%), Malaysia (51%), the Philippines (48%), and Thailand (55%). It has also been noted by the World Wide Web Foundation (2017) that the price of capital, not the price of labour, will determine the location of production of AI in the future. The socioeconomic impacts will hit women disproportionately in office and administrative functions.

AI has the potential to automate about half the work activities.

...lack of technical capacity is another barrier in participation in governance.

Participation in AI Governance:

The US and China are the main global players when it comes to AI, even though there is AI activity in each member state of ASEAN (McKinsey Global Institute, 2017). Being distant geographically and politically from the power centres of technology, the peoples of Southeast Asia have little say in AI design and governance, and little control over their personal data and digital trails when using applications offered by the US and China. The lack of technical capacity is another barrier in participation in governance, as indicated by my previous research on the digital rights movement in Southeast Asia (2019).

The above points are not exhaustive, but provide some context of the region when it comes to concerns about AI and machine learning. It is clear that AI will bring major disruptions to the region in coming years, and civil society will need to follow the technological advancements closely to understand the opportunities and risks it will bring to our work.

"идея" (idea) is licensed under CC0 1.0
"идея" (idea) is licensed under CC0 1.0

The next articles in the series will go deeper into the topic of AI policies, applications, and implications within the region. As part of this project, we are building an annotated reading list that will continue to be updated in the coming months– which you can also check out for further reading.

About the Author

Dr. Jun-E Tan is an independent researcher based in Kuala Lumpur. Her research and advocacy interests are broadly anchored in the areas of digital communication, human rights, and sustainable development. Jun-E’s newest academic paper, “Digital Rights in Southeast Asia: Conceptual Framework and Movement Building” was published in December 2019 by SHAPE-SEA in an open access book titled “Exploring the Nexus Between Technologies and Human Rights: Opportunities and Challenges in Southeast Asia”. She blogs sporadically here.

The post Human Rights Concerns on Artificial Intelligence in Southeast Asia: An Overview appeared first on Coconet.

]]>
https://coconet.social/2019/human-rights-artificial-intelligence-southeast-asia/feed/ 2