Please wait...
SOLUTIONS CORNER
จริยธรรมของปัญญาประดิษฐ์คืออะไร

จริยธรรมของเทคโนโลยีปัญญาประดิษฐ์คืออะไร?


เราจะอธิบายได้อย่างไรว่า “ผลลัพธ์ที่ดีคืออะไร ” เมื่อพูดถึงอัลกอรึทึม
 
ถ้าจะให้กล่าวถึงโอกาสที่หุ่นยนต์จะลุกขึ้นมาทำร้ายคนหรือเป็นภัยต่อสังคมเหมือนอย่างระบบปัญญาประดิษฐ์ Skynet ในหนังเรื่อง Terminator โอกาสที่จะเกิดขึ้นแทบจะเป็นไปไม่ได้เลย เทคโนโลยีปัญญาประดิษฐ์ (AI) กำลังพัฒนาขึ้นอย่างแน่นอน แต่ความคิดที่ว่าของเครื่องจักรจะนำไปสู่การเป็นทาสของเผ่าพันธุ์มนุษย์นั้นเป็นเรื่องไร้สาระที่อยู่ในนิยายเท่านั้นแหละ
 
ปัญญาประดิษฐ์ที่ใช้กันอย่างแพร่หลายที่พวกเราส่วนใหญ่คุ้นเคยโดยส่วนมากจะอยู่ในฐานะผู้ช่วยเสมือนจริงที่ใช้เทคโนโลยีพลังงาน อย่างเช่น Siri ของ Apple หรือ Alexa ของ Amazon ซึ่งสิ่งนี้ยังถือเป็นการปูทางไปสู่การพัฒนาเทคโลยีการประมวลผลภาษาธรรมชาติ (NL) อีกด้วย นอกจากนั้นปัญญาประดิษฐ์ยังนำมาใช้สำหรับการจดจำใบหน้าแบบอัตโนมัติหรือใช้ในการวิเคราะห์ข้อมูลขนาดใหญ่ได้ โดยข้อมูลเหล่านั้นจะได้รับการประเมินเพื่อให้ได้ข้อมูลเชิงลึกที่เป็นประโยชน์ต่อการพัฒนาและสามารถเป็นตัวขับเคลื่อนเพื่อใช้ในการตัดสินใจทางธุรกิจให้แม่นยำยิ่งขึ้น
 
ถึงแม้ว่าการประมวลผลทางความคิดและความฉลาดของเครื่องจักรจะล้าหลังกว่าสมองของมนุษย์ที่แท้จริงเพียงไม่กี่ปี แต่ปัญญาประดิษฐ์นั้นก็มีศักยภาพอยู่พอสมควรเนื่องจากมันได้ถูกนำมาใช้ในงานวิจัยจำนวนมากที่ดำเนินการโดยธุรกิจและนักวิชาการ และยิ่งไปกว่านั้นนวัตกรรมประเภทนี้ยังสามารถเข้าถึงชีวิตความเป็นส่วนตัวและการเป็นอยู่ของเราได้อีกด้วย ด้วยเหตุนี้จึงเป็นผลที่ทำให้เราจำเป็นต้องพูดถึงเรื่องของจริยธรรมขององค์ประกอบในเทคโนโลยีนี้มากขึ้น เช่น เครื่องมือคำแนะนำ และการจดจำใบหน้า
 
เป็นเรื่องยากที่จะอธิบายว่าอัลกอริทึมสามารถบรรลุข้อสรุปบางอย่างได้อย่างไร และผลลัพธ์ที่รวมอยู่ในข้อมูลที่ใช้เป็นพื้นฐานที่ได้นั้นจะปราศจากอคติใดๆ และเชื่อถือได้หรือไม่ 
 
ถ้าเราจะสร้างระบบที่ให้ผลลัพธ์เสมือนมนุษย์ เราจะนิยามความเหมือนมนุษย์ได้อย่างไร? แน่นอนว่าหากเราหวังว่าจะมีบางสิ่งที่นึกคิดเหมือนมนุษย์ สิ่งนั้นก็ไม่ควรมาพร้อมกับการพิจารณามากมายที่มีอิทธิพลต่อการตัดสินใจของเราอย่างนั้นหรือ? และเราจะวางใจได้อย่างไรว่าเครื่องจักรมีความยุติธรรมเพียงพอ?
 
ก็เป็นเพราะคำถามเหล่านี้นี่แหละที่ทำให้เรามาถึงแนวคิดเรื่องจริยธรรม ซึ่งก็คือหลักศีลธรรมที่ควบคุมการกระทำของตัวบุคคลหรือเฉพาะกลุ่ม หรือในกรณีนี้ซึ่งหมายถึง เครื่องจักร นั้นเอง มีการกล่าวว่าจริยธรรมของปัญญาประดิษฐ์ไม่เพียงแต่เกี่ยวข้องกับการนำมาประยุกต์ใช้ในเทคโนโลยีเท่านั้น แต่ผลลัพธ์และการคาดการณ์ของปัญญาประดิษฐ์ก็มีความสำคัญเช่นเดียวกัน 


คำนิยามของ “ผลลัพธ์ที่ดี”

ระบบปัญญาประดิษฐ์เป็นตัวแทนของความแตกต่างจากคอมพิวเตอร์แบบดั้งเดิมที่ยึดผลลัพธ์ตามหลักการทางคณิตศาสตร์ หากคุณป้อน 4 + 4 ลงในคอมพิวเตอร์ คำตอบที่ได้ควรเป็น 8 เสมอไม่ว่ามันจะซับซ้อนเพียงใดก็ตาม แต่ด้วยการพัฒนาแอปพลิเคชันช่วยให้สามารถสร้างซอฟต์แวร์ใหม่ขึ้นได้เพื่อปรับให้เหมาะสมกับความต้องการที่หลากหลายมากขึ้น แต่ทั้งนี้ทั้งนั้นก็ยังต้องใช้ภาษาเข้ารหัสที่สร้างไว้ล่วงหน้าก่อนเสมอ ซึ่งในแง่นี้จะไม่มีความคลุมเครือว่าผลที่ออกมาควรหรือไม่ควร
 
หากลองพิจารณาตัวอย่างของระบบที่ออกแบบมาเพื่อบ่งบอกความสุขของบุคคลตามลักษณะใบหน้าของพวกเขา โดยระบบจะต้องได้รับการฝึกฝนเกี่ยวกับข้อมูลประชากรที่หลากหลายเพื่อพิจารณาการผสมผสานของเชื้อชาติ, อายุ, และเพศที่เป็นไปได้ทั้งหมด ยิ่งไปกว่านั้นแม้เราจะคิดว่าระบบสามารถอธิบายได้ทั้งหมดแล้ว แต่เราจะใช้เกณฑ์อะไรมาวัดว่าความสุขนั้นเป็นอย่างไร?
 
อคติ เป็นปัญหาสำคัญอย่างหนึ่งของปัญญาประดิษฐ์ เนื่องจากการพัฒนาขึ้นอยู่กับตัวเลือกของนักวิจัยที่เกี่ยวข้องเสมอ สิ่งนี้ทำให้ไม่สามารถสร้างระบบที่เป็นกลางโดยสิ้นเชิงได้ และจึงเป็นเหตุผลที่ว่าทำไมจริยธรรมของปัญญาประดิษฐ์จึงมีความสำคัญ


หุ่นยนต์จริยธรรม

หุ่นยนต์จริยธรรมเป็นหลักการในการออกแบบระบบอัจฉริยะที่ประดิษฐ์ขึ้นโดยใช้หลักจรรยาบรรณที่ทำให้มั่นใจได้ว่าระบบอัตโนมัติสามารถตอบสนองต่อสถานการณ์ได้อย่างมีจริยธรรม นั่นคือตรวจสอบให้แน่ใจว่าหุ่นยนต์ทำงานในลักษณะที่เหมาะสมกับกรอบทางจริยธรรมของสังคมที่กำลังดำเนินการอยู่
 
เช่นเดียวกับจริยธรรมแบบดั้งเดิม หุ่นยนต์จริยธรรมเกี่ยวข้องกับการสร้างความมั่นใจว่า เมื่อระบบที่สามารถตัดสินใจได้เองเข้ามาติดต่อกับมนุษย์จะสามารถจัดลำดับความสำคัญของสุขภาพและความเป็นอยู่ที่ดีของมนุษย์ได้เหนือสิ่งอื่นใด ในขณะเดียวกันก็ประพฤติไปในแนวทางที่เหมาะสมต่อสถานการณ์
 
หุ่นยนต์จริยธรรมมักจะถูกเน้นไปที่การอภิปรายเกี่ยวกับการใช้ปัญญาประดิษฐ์ในสถานการณ์การต่อสู้ ซึ่งถือเป็นความคิดยอดนิยมที่ว่าไม่ควรสร้างหุ่นยนต์ขึ้นมาเพื่อทำร้ายหรือฆ่ามนุษย์
 
ในขณะที่หุ่นยนต์จริยธรรมมักจะมุ่งเน้นไปที่การกระทำของหุ่นยนต์ แต่ในความจริงแล้วจะเกี่ยวข้องกับความคิดและการกระทำของนักพัฒนามนุษย์ที่อยู่เบื้องหลังมันมากกว่าตัวหุ่นยนต์เอง ด้วยเหตุนี้เราจึงหันไปใช้จริยธรรมของเครื่องจักรโดยเน้นไปในเรื่องของกระบวนการเพิ่มพฤติกรรมทางศีลธรรมให้กับเครื่องจักรปัญญาประดิษฐ์มากกว่า
 

ข้อถกเถียงเกี่ยวกับจริยธรรมของปัญญาประดิษฐ์ 

นักคิดในอุตสาหกรรมบางคนได้โจมตีเกี่ยวกับจริยธรรมของปัญญาประดิษฐ์ โดยกล่าวว่า มันเป็นไปไม่ได้ที่จะสามารถปฏิบัติต่อหุ่นยนต์และปัญญาประดิษฐ์เสมือนมนุษย์ได้
 
Joseph Weizenbaum นักวิทยาศาสตร์คอมพิวเตอร์ชื่อดัง ได้มีการถกเถียงมาตั้งแต่ทศวรรษที่ 60 ว่า ไม่ควรใช้สิ่งมีชีวิตที่ไม่ใช่มนุษย์เข้ามายุ่งเกี่ยวในบทบาทที่ต้องอาศัยการปฏิสัมพันธ์ของมนุษย์หรือการสร้างความสัมพันธ์ เขากล่าวว่าบทบาทของความรับผิดชอบ เช่น การบริการลูกค้า, นักบำบัด, ผู้ดูแลผู้สูงอายุ, เจ้าหน้าที่ตำรวจ, ทหาร และผู้พิพากษา ไม่ควรถูกแทนที่ด้วยปัญญาประดิษฐ์ไม่ว่าจะเป็นหุ่นยนต์ทางกายภาพหรือระบบอื่นใดๆ ที่ขัดต่อสัญชาตญาณของมนุษย์

ในบทบาทเหล่านี้มนุษย์จำเป็นต้องได้สัมผัสกับความเห็นอกเห็นใจ และไม่ว่ามนุษย์จะมีปฏิสัมพันธ์กับปัญญาประดิษฐ์อย่างไร ก็ไม่สามารถแทนที่อารมณ์ที่เกิดขึ้นในสถานการณ์ที่มีในบทบาทของงานเหล่านี้ได้
 

ปฏิกิริยาทางการเมืองต่อจริยธรรมของปัญญาประดิษฐ์

สหราชอาณาจักรมีบทบาทสำคัญในการพัฒนาจริยธรรมของปัญญาประดิษฐ์ อดีตนายกรัฐมนตรี Theresa May ได้ให้คำมั่นว่าจะพัฒนาศูนย์จริยธรรมและนวัตกรรมด้านข้อมูลเพื่อให้แน่ใจว่าสังคมได้เตรียมพร้อมสำหรับเทคโนโลยีที่ขับเคลื่อนด้วยข้อมูลแล้ว
 
May กล่าวว่า “การที่ช่วยพวกเราจัดการกับประเด็นทางจริยธรรมใหม่ๆ ที่เกิดขึ้นจากเทคโนโลยีที่พัฒนาอย่างรวดเร็วอย่างปัญญาประดิษฐ์ จะช่วยให้ศูนย์สามารถกำหนดมาตรการที่จำเป็นเพื่อสร้างความไว้วางใจและเปิดใช้งานนวัตกรรมในข้อมูลเทคโนโลยีขับเคลื่อนได้ อย่างเช่นการตกลงแนวทางการปฏิบัติที่ดีที่สุดที่เกี่ยวกับการใช้ข้อมูลเพื่อระบุกฎระเบียบใหม่ๆ ที่อาจเกิดขึ้น" และ "ความน่าเชื่อถือที่เป็นรากฐานสำคัญของเศรษฐกิจที่แข็งแกร่งและความไว้วางใจในข้อมูลเป็นปัจจัยหนุนเศรษฐกิจดิจิทัลที่แข็งแกร่ง"
 
ในเดือนเมษายน คณะกรรมาธิการยุโรปได้เผยแพร่ชุดแนวทางสำหรับการพัฒนาปัญญาประดิษฐ์อย่างมีจริยธรรม ซึ่งใจความสำคัญหลักคือความจำเป็นในการกำกับดูแลที่สม่ำเสมอของมนุษย์
 

ปฏิกิริยาทางธุรกิจต่อจริยธรรมของปัญญาประดิษฐ์

Google เป็นหนึ่งในบริษัทแรกๆ ที่ให้คำมั่นว่าปัญญาประดิษฐ์จะถูกนำมาใช้อย่างมีจริยธรรมเท่านั้น ซึ่งนั้นหมายถึงปัญญาประดิษฐ์จะไม่มีวันได้รับการออกแบบให้กลายเป็นอาวุธอย่างแน่นอน นอกจากนั้น Sundar Pichai ยังได้กล่าวว่า Google จะไม่เข้าร่วมในการเฝ้าระวังที่ขับเคลื่อนด้วยปัญญาประดิษฐ์เช่นกัน
 
Google เผยแพร่หลักปฏิบัติทางจริยธรรมของตนเองในเดือนมิถุนายน ปี 2018 เพื่อตอบรับต่อการวิพากษ์วิจารณ์อย่างกว้างขวางเกี่ยวกับความสัมพันธ์กับโครงการอาวุธของรัฐบาลสหรัฐฯ โดยบริษัทได้กล่าวว่าจะไม่ร่วมมือกับรัฐบาลสหรัฐฯในโครงการที่ตั้งใจจะใช้อัลกอริธึมเป็นอาวุธอีกต่อไป

Amazon, Google, Facebook, IBM และ Microsoft ได้ร่วมมือกันเพื่อพัฒนาแนวทางปฏิบัติที่ดีที่สุดสำหรับปัญญาประดิษฐ์ โดยมีส่วนสำคัญในการตรวจสอบว่าปัญญาประดิษฐ์ควรเป็นอย่างไรและสามารถใช้งานได้อย่างมีจริยธรรม ตลอดจนแบ่งปันแนวคิดในการให้ความรู้แก่สาธารณชนเกี่ยวกับการใช้ปัญญาประดิษฐ์และปัญหาอื่นๆ ที่อยู่รอบๆ เทคโนโลยีนี้
 
กลุ่มบริษัทต่างๆ อธิบายว่า: "ความร่วมมือด้านปัญญาประดิษฐ์นี้จะดำเนินการวิจัย, จัดการอภิปราย, ให้ความเป็นผู้นำทางความคิด, ปรึกษากับบุคคลภายนอกที่เกี่ยวข้อง, ตอบคำถามจากสาธารณชนและสื่อ และสร้างสื่อการศึกษาที่ช่วยเพิ่มความเข้าใจในเทคโนโลยีปัญญาประดิษฐ์ รวมถึงการรับรู้เครื่องจักร, การเรียนรู้ และการให้เหตุผลโดยอัตโนมัติ"
 
หลังจากการทดลองที่หายนะกับแชทบอทออนไลน์ Tay ในเดือนมีนาคม ปี2559 ไมโครซอฟท์ได้ดำเนินการเพื่อยกเครื่องนโยบายภายในเกี่ยวกับการพัฒนาปัญญาประดิษฐ์ โดยเฉพาะอย่างยิ่งเมื่อเกี่ยวข้องกับกรณีการใช้งานที่ละเอียดอ่อน สิ่งนี้ยังรวมไปถึงการสร้างสำนักงานสำหรับปัญญาประดิษฐ์ที่มีความรับผิดชอบในการให้คำแนะนำและดำเนินนโยบายปัญญาประดิษฐ์ทั่วทั้งธุรกิจที่เรียกว่า 'Aether' (จริยธรรมของปัญญาประดิษฐ์และผลกระทบด้านวิศวกรรม และการวิจัย) หน่วยงานที่ปรึกษาที่ไม่มีผลผูกพันซึ่งประกอบไปด้วยผู้ที่มีส่วนได้ส่วนเสียที่สำคัญ
 
ไมโครซอฟท์ยังทำงานอย่างใกล้ชิดกับสหภาพยุโรปในการพัฒนากรอบการกำกับดูแลด้านปัญญาประดิษฐ์ ซึ่งถือเป็นครั้งแรกในการร่วมพัฒนาเทคโนโลยีประเภทนี้ โดยความหวังคือการสร้างสิ่งที่มีแนวป้องกันและหลักการแบบเดียวกับที่ GDPR กำหนดเกี่ยวกับการใช้ข้อมูล

ที่มา: 
https://bit.ly/3lj8oZa

ควิกเซิร์ฟ
สินค้า
งานระบบ
บริการ
กิจกรรม
ออนไลน์