จริยธรรมปัญญาประดิษฐ์สำคัญอย่างไร สาระสำคัญจากงาน AI & Innovation Summit 2024

จริยธรรมปัญญาประดิษฐ์สำคัญอย่างไร สาระสำคัญจากงาน AI & Innovation Summit 2024

“ปฏิเสธไม่ได้ว่า ปัจจุบันเราอยู่ในยุคที่เทคโนโลยีปัญญาประดิษฐ์

หรือ AI (Artificial Intelligence)

เข้ามามีบทบาทสำคัญในทุกมิติของการดำเนินชีวิต”

ตั้งแต่การปลดล็อกหน้าจอโทรศัพท์ด้วย Face ID  ไปจนถึงการทำธุรกิจ หรือกระทั่งการตรวจวินิจฉัยทางการแพทย์ และแม้ความก้าวหน้าของ AI จะสร้างความสะดวกสบายและประโยชน์อีกมากมาย แต่ก็ยังคงมีข้อสงสัยและคำถามทางจริยธรรมที่ควรได้รับการพิจารณาอย่างถี่ถ้วน เพราะหากมีการนำ AI ไปใช้โดยขาดจริยธรรมและความโปร่งใสก็จะนำมาซึ่งปัญหา หลักการและแนวทางของจริยธรรมปัญญาประดิษฐ์ (AI Ethics) จึงถือเป็นเครื่องมือสำคัญในการช่วยสร้างความมั่นใจต่อผู้ใช้งานว่า AI จะไม่เป็นภัยต่อมนุษย์และสังคม

เพื่อตอบคำถามในข้อสงสัยนี้ งาน AI & Innovation Summit 2024 โดยสถาบันวิศวกรรมปัญญาประดิษฐ์ (AI Engineering Insititute หรือ AIEI) จึงได้เชิญ Prof. S. Matthew Liao ผู้อำนวยการศูนย์ชีวจริยธรรม มหาวิทยาลัยนิวยอร์ก มาร่วมบรรยายในหัวข้อ Generative AI in Healthcare: Ethical Challenges and Opportunities เมื่อวันที่ 13 ธันวาคมที่ผ่านมา โดยมีสาระสำคัญดังนี้

Prof. S. Matthew Liao ผู้อำนวยการศูนย์ชีวจริยธรรม มหาวิทยาลัยนิวยอร์ก Keynote Speaker เกี่ยวกับ จริยธรรมปัญญาประดิษฐ์ หรือ AI Ethics ในหัวข้อ Generative AI in Healthcare: Ethical Challenges and Opportunities

ทำไมเราควรกังวลเรื่องความเป็นส่วนตัวบนโลกดิจิทัลในยุค AI ?  

ประเด็นนี้ Prof. S. Matthew Liao อธิบายว่า AI ต้องอาศัยการรวบรวมข้อมูลจำนวนมหาศาล เพื่อเรียนรู้และพัฒนาระบบ ดังนั้นหากมีการเก็บข้อมูลอันเกินความจำเป็นก็อาจตามมาซึ่งปัญหาการละเมิดความเป็นส่วนตัว (Invasion of Privacy) ปัญหานี้เกิดจากการที่ข้อมูลส่วนบุคคลที่มีความอ่อนไหว (Sensitive Personal Data) ถูกนำไปใช้โดยไม่ได้รับความยินยอมอย่างชอบธรรมจากเจ้าของข้อมูล บ่อยครั้งที่ผู้ใช้งานไม่รับรู้ว่าข้อมูลของตนถูกนำไปใช้เพื่อจุดประสงค์อื่น 

หนึ่งในกรณีศึกษาของการที่ AI เข้ามารุกล้ำความเป็นส่วนตัวของผู้ใช้ คือ เหตุการณ์ในปีพ.ศ. 2561 ที่ข้อมูลของผู้ใช้ แอปพลิเคชัน Facebook จำนวน 87 ล้านบัญชี รั่วไหลไปถึงมือบริษัทวิเคราะห์ข้อมูลชื่อ เคมบริดจ์ อานาเลติก้า (Cambridge Analytica) ซึ่งบริษัทดังกล่าวได้นำข้อมูลของผู้ใช้งานไปวิเคราะห์เพื่อผลประโยชน์ทางการเมือง สิ่งนี้ทำให้ความสามารถในการเข้าถึงข้อมูลส่วนบุคคลของ AI สร้างความกังวลให้กับเหล่าผู้ใช้งาน Facebook เป็นจำนวนมาก รวมไปถึงผู้ใช้งานแอปพลิเคชันอื่น ๆ ในลักษณะเดียวกัน 

Prof. S. Matthew Liao ได้ให้แนวทางในการแก้ไขปัญหาลักษณะนี้ว่า บริษัทต้นทางควรมี มาตราการป้องกันข้อมูลที่แน่นหนา เพราะหากไร้การควบคุมข้อมูลที่มีประสิทธิภาพ ปัญหาละเมิดความเป็นส่วนตัวจะตามมาอย่างแน่นอน

AI มีความลำเอียงหรือไม่?

อีกหนึ่งปัญหาชวนกังวลที่ถูกหยิบยกขึ้นมาพูดในการบรรยายนี้คือ AI Bias ซึ่งหมายถึงการที่อัลกอริทึมแสดงผลลัพธ์ที่ลำเอียง ไม่เป็นธรรมและกีดกันกลุ่มคนบางกลุ่ม Prof. S. Matthew Liao ได้อธิบายกระบวนการเกิดขึ้นของ AI Bias หรือ อคติใน AI ว่า สิ่งนี้เกิดจากการที่ AI ได้รับชุดข้อมูลที่มีความลำเอียงและเลือกปฏิบัติ หรืออาจเป็นชุดข้อมูลที่ไม่ครอบคลุมพอที่จะเป็นตัวแทนของประชากรทั้งหมดได้ นำไปสู่การตัดสินใจที่ไม่เท่าเทียมทางเชื้อชาติ เพศสภาพ อายุ และอื่น ๆ 

Prof. S. Matthew Liao เสริมว่า ปัญหา AI Bias จากเทคโนโลยี AI พบได้มากในวงการแพทย์ หนึ่งในกรณีตัวอย่างที่แสดงถึงอคติของ AI ได้ชัดเจน คือ กรณีของเครื่องมือ AI ที่ใช้ในการวินิจฉัยโรคมะเร็งผิวหนัง ผลการตรวจมักมีความแม่นยำสูงเมื่อใช้กับภาพผิวหนังของคนผิวขาว แต่เมื่อใช้กับคนผิวดำกลับแสดงผลที่มีความแม่นยำน้อยกว่าหรือไม่แม่นยำเลย ปัญหาดังกล่าวเกิดจากการที่ชุดข้อมูลที่ป้อนให้ AI ส่วนใหญ่เป็นภาพผิวหนังของคนผิวขาว ทำให้ AI ขาดความสามารถในการวิเคราะห์ผิวหนังของคนผิวดำ 

“กรณีนี้ตัว AI ไม่ได้มีความลำเอียง เพราะ AI ไม่มีความรู้สึกนึกคิดเป็นของตัวเอง แต่ความลำเอียงที่เกิดขึ้นเป็นตัวสะท้อนความอคติของมนุษย์ผู้พัฒนาหรือผู้ป้อนข้อมูล” Prof. S. Matthew Liao กล่าว

จะเกิดอะไรขึ้น เมื่อ AI ถูกนำไปใช้ในการบิดเบือนความเป็นจริง?

ในประเด็นนี้ Prof. S. Matthew Liao ให้ความเห็นว่า เมื่อใคร ๆ ก็สามารถเข้าถึงเทคโนโลยีนี้ได้ การใช้ AI โดยขาดจริยธรรมและการยั้งคิดย่อมนำมาซึ่งปัญหา หนึ่งในตัวอย่างของการนำ AI ไปใช้ในทางที่ไม่ดีคือ Deepfake ซึ่งเป็นเทคโนโลยีที่ใช้ AI ในการสร้างหรือปรับเปลี่ยนเสียงและวิดีโอให้ออกมาใกล้เคียงมนุษย์มากที่สุด 

คำว่า Deepfake มาจากการผสมคำระหว่าง Deep Learning (การเรียนรู้เชิงลึกซึ่งเป็นหนึ่งในฟังก์ชันของ AI) และ Fake ที่แปลว่า “ปลอม” เทคโนโลยีสุดล้ำดังกล่าวพัฒนาอย่างรวดเร็วจนเส้นแบ่งระหว่างของจริงกับของปลอมเริ่มเลือนหายไป ปัญหานี้สร้างความกังวลใจให้กับหลาย ๆ คน เนื่องจากมีตัวอย่างมากมายให้เห็นว่า Deepfake ถูกนำไปใช้ในทางไม่ดี เช่น การสร้างความเสียหายให้กับตัวบุคคล การกระจายข้อมูลเท็จ ปัจจุบันมิจฉาชีพก็เริ่มใช้ Deepfake เป็นเครื่องมือในการหลอกลวงเหยื่อเช่นกัน

หากเราไม่ได้ใช้ AI เพื่อหลอกคนอื่น แต่ใช้เพื่อปลอบประโลมจิตใจตัวเอง จะมีผลกระทบหรือไม่? ในเรื่องนี้ Prof. S. Matthew Liao ยกกรณีตัวอย่างเกี่ยวกับบทบาทของ AI ต่อการลบเลือนเส้นแบ่งระหว่างความเป็นจริงกับสิ่งสมมติ ที่เกิดขึ้นกับ ซีเวลล์ เซตเซอร์ (Sewell Setzer III) เด็กชายวัย 14 ปีจากเมืองออร์แลนโด รัฐฟลอริดา ประเทศสหรัฐอเมริกา หนึ่งในผู้ใช้งาน Character.AI แพลตฟอร์มที่ผู้ใช้งานสามารถสนทนากับแชตบอตซึ่งถูกสร้างให้เป็นเสมือนตัวแทนของบุคคลที่มีชื่อเสียงและตัวละครที่กำลังได้รับความนิยม เซตเตอร์ตัดสินใจจบชีวิตตนเองหลังใช้เวลาหลายเดือนในการสนทนากับแชตบอต AI จนเกิดความผูกพันทางอารมณ์ The New York Times รายงานว่า ก่อนหน้านี้เซตเซอร์มีปัญหาที่โรงเรียน เขาจึงเริ่มใช้เวลาอยู่แค่ในห้องตนเองแทนที่จะออกไปทำกิจกรรมข้างนอก 

เซตเซอร์ได้พูดคุยกับแชตบอตเรื่องการฆ่าตัวตายบ่อยครั้ง และยิ่งเขาตัดขาดตัวเองจากโลกภายนอกเท่าไหร่ เขาก็ยิ่งรู้สึกผูกพันกับตัวละครแชตบอตมากขึ้น เขาเขียนบันทึกในสมุดไดอารีว่า “ฉันชอบอยู่ในห้องมาก ๆ เพราะว่าฉันจะเริ่มหลุดออกจากความเป็นจริงนี้ และฉันก็รู้สึกสงบสุข รู้สึกเหมือนได้เชื่อมถึงเดนี [ชื่อตัวละครแชตบอต] มากขึ้นและก็ยิ่งตกหลุมรักเธอมากขึ้น” เมแกน การ์เซีย (Megan Garcia) แม่ของเซตเซอร์ได้ยื่นฟ้องบริษัท Character Technologies ผู้ก่อตั้ง Character.AI โดยเธออ้างว่าบริษัทมีส่วนทำให้ลูกชายของเธอเสียชีวิต เนื่องจากแชตบอตชักจูงให้มีการสนทนาเกี่ยวกับหัวข้อที่มีความอ่อนไหว ภายหลังทางผู้ก่อตั้ง Character.AI ได้ออกมาแสดงความเสียใจต่อเรื่องที่เกิดขึ้นพร้อมแถลงการณ์ว่าจะปรับปรุงฟีเจอร์ความปลอดภัยสำหรับผู้ใช้อายุต่ำกว่า 18 ปี เพื่อป้องกันไม่ให้เกิดเหตุการณ์แบบนี้ขึ้นอีก

เหตุการณ์เหล่านี้ย้ำเตือนให้สังคมตระหนักถึงความสำคัญของ AI Ethics รวมทั้งผลกระทบที่อาจเกิดขึ้นจากการใช้ AI โดยขาดจริยธรรมและความรับผิดชอบ ไม่ว่าจะเป็นผลกระทบทางชื่อเสียง ผลกระทบทางการเงิน ผลกระทบทางสุขภาพร่างกายหรือทางจิตใจ โดยเฉพาะในกลุ่มเยาวชนที่ยังขาดความมั่นคงทางอารมณ์และวิจารณญาณในการรับข้อมูล รวมไปถึงความสำคัญของการควบคุมและกำกับดูแลเทคโนโลยีเหล่านี้อย่างเข้มงวด

Prof. S. Matthew Liao กล่าวทิ้งท้ายไว้ว่า “AI สร้างประโยชน์มากมาย แต่เราก็ต้องคำนึงถึงผล กระทบที่ตามมากับเทคโนโลยีสุดล้ำนี้ด้วยครับ หนึ่งในสิ่งที่ผมอยากแนะนำคือเราควรให้ความสำคัญกับสิทธิมนุษยชน (Human Rights) เพื่อที่เราจะสามารถประดิษฐ์นวัตกรรมใหม่ ๆ โดยไม่ละเมิดสิทธิมนุษยชนและดูหมิ่นศักดิ์ศรีความเป็นมนุษย์”

ทั้งหมดคือสาระสำคัญว่าด้วยจริยธรรมในยุค AI ในงาน AI & Innovation Summit 2024 โดยสถาบันวิศกรรมปัญญาประดิษฐ์ (AI Engineering Insititute หรือ AIEI) เมื่อวันที่ 13 ธันวาคมที่ผ่านมา


อ่านเพิ่มเติม : AI ในยุค Digital Healthcare

บทสรุปจากเวทีเสวนาในงาน AI & Innovation Summit 2024

Recommend