ปัจจุบัน AI หรือ ปัญญาประดิษฐ์ นับเป็นเทคโนโลยีที่ทั่วโลกกำลังจับตามอง โดยมีส่วนช่วยในการพัฒนาทางธุรกิจและเพิ่มความสะดวกสบายในการใช้ชีวิตประจำวันของคนเรา
แต่ต่อม “เอ๊ะ” ของผู้เขียนก็เริ่มกังวลว่าหากปัญญาประดิษฐ์ถูกนำมาใช้เพื่อทำอาวุธสงคราม มันจะน่ากลัวแค่ไหน ซึ่งถ้าเราย้อนกลับไปดูในปี 2016 Alphago ของ Deepmind มันสามารถเอาชนะแชมโกะโลก อี เซ-ดล ด้วยคะแนน 4 ต่อ 1
ถัดมาในปี 2017 ภายในงาน Future of Go Summit ที่จัดขึ้นใกล้กับนครเซียงไฮ้ประเทศจีน ได้มีการจัดแข่งขัน AlphaGo ขึ้นอีกครั้ง ซึ่งในครั้งนั้น Alphago ก็ได้เอาชนะ Ke jie แชมป์โกะระดับโลกวัย 19 ปี ไปอย่างขาดลอยด้วยคะแนน 2 – 0 โดยเป็นการแข่งในรูปแบบสามเกม คำถามคือ เราควรพัฒนา AI ต่อไปไหม ในเมื่อมันน่ากลัวขนาดนี้
เมื่อปีที่แล้ว ทุกคนอาจจะสังเกตุเห็นดราม่าในโลกโซเชี่ยลเกี่ยวกับการพัฒนาด้าน AI โดย CEO มหาอำนาจด้านเทคโนโลยีอย่าง Mark Zuckerberg , Elon Musk หรือคนอื่น ๆ ต่างเห็นไม่ตรงกันในการพัฒนาด้าน AI โดยกลุ่มนึงมองว่ามันอาจถูกนำไปพัฒนาเป็นอาวุธเพื่อใช้เข่นฆ่ากัน และพยายามควบคุมการพัฒนาให้เป็นไปตามลักษณะที่ควรจะเป็น
อย่างที่บอกไว้ข้างต้นแล้วว่า AI เป็นเทคโนโลยีที่ช่วยในการพัฒนาธุรกิจและสามารถช่วยยกระดับคุณภาพชีวิตของมนุษย์ การหยุดไม่ให้พัฒนาต่อไปเป็นเรื่องที่ทำได้ค่อนข้างยาก แต่การควบคุมนั้นสามารถทำได้
โดยเมื่อไม่นานมานี้ ชื่อที่เราคุ้นเคยและรุ้จักกันดีอย่าง Elon Musk , บริษัท Deepmind และผู้ทรงคุณวุฒิด้าน AI อื่น ๆ ของได้ลงนามในสัญญาว่าจะไม่พัฒนา AI ไปในอาวุธสงครามที่ทำให้ที่ทำให้เกิดการเข่นฆ่ากัน แต่อาจจะทำในลักษณะของการปกป้องผลประโยชน์ของประเทศแทน ซึ่งคำ ๆ นี้มันก็ยังครุนเครือนะ ถ้าหากประเทศใดประเทศหนึ่งคิดว่าผลประโยชน์ของประเทศอื่นคือผลประโยชน์ของตนเอง อย่างในสงครามอิรัก… เป็นต้น
ทั้งนี้ผู้ลงนามมีตั่งแต่ Elon Musk ,Demis Hassabis ของ DeepMind, Shane Legg และ Mustafa Suleyman , ผู้ก่อตั้ง Skype Jaan Tallinn; และนักวิจัยด้าน AI ที่รู้จักกันดี Stuart Russell, Yoshua Bengio และ Jurgen Schmidhuber
ในความเป็นจริง อาจเป็นเรื่องยากที่จะห้ามผลิตอาวุธด้านปัญญาประดิษฐ์ ซึ่งปัจจุบันมีระบบอาวุธแบบอิสระนี้เกิดขึ้นแล้วมากมายและอีกนับพันที่กำลังอยู่ระหว่างการพัฒเช่น จีน กำลังพัฒนาเรือดำน้ำขนาดเล็กโดยมี AI ในการคุมบังเหียนของเรือเพื่อประโยชน์ในการปกป้องน่านน้ำและใช้ล่อศัตรูหากต้องทำสงคราม
และสิ่งสุดท้ายที่ยังสร้างแรงกระตุ้นต่อเนื่อง คือบริษัทด้านเทคโนโลยีหลายแห่ง ต่างก็กระตือรือร้นที่จะบรรลุสัญญาทางทหารเพื่อทำอาวุธในลักษณะนี้ เพราะมันคือแหล่งรายได้มหาศาลที่หอมหวนและเย้ายวน สรุปคือเราไม่สามารถหยุดการพัฒนา AI สำหรับอาวุธสงคราม (ถึงมีการห้าม ก็คงแอบสร้างอยู่ดี) แต่สามารถกำหนดกรอบให้ชัดเจนถึงการนำมาใช้และกำหนดกรอบทางศีลธรรมที่ไม่ส่งผลกระทบต่อมนุษย์มากเกินไป ซึ่งต้องดูกันต่อไปว่า อาวุธที่ถูกยัด AI เข้าไปยังมีลักษระใด….