In Focus: ตีแผ่ด้านมืด AI หอกข้างแคร่ล่าสุดที่มนุษย์สร้างขึ้นด้วยมือตัวเอง

นับตั้งแต่แชตบอต แชตจีพีที (ChatGPT) เปิดตัวออกสู่สายตาชาวโลก ปัญญาประดิษฐ์หรือ AI ก็เริ่มเข้ามามีบทบาทในสังคมมนุษย์มากขึ้นในทุก ๆ ด้าน แต่ล่าสุด นายเจฟฟรีย์ ฮินตัน ผู้ถูกขนานนามว่าเป็น “เจ้าพ่อด้าน AI” วัย 75 ปี ที่เพิ่งประกาศลาออกจากกูเกิลได้ออกมาเตือนเกี่ยวกับอันตรายที่มาพร้อมกับการพัฒนา AI ที่แม้แต่ผู้บุกเบิกอย่างเขายังรู้สึกกลัว และเริ่มเสียใจกับงานของตนเอง

โดยหนึ่งในคำเตือนที่ชวนให้เสียวสันหลังคือสิ่งที่เขากล่าวกับสำนักข่าวบีบีซีว่า “คุณลองนึกภาพดูนะว่าอะไรจะเกิดขึ้น หากตัวร้ายอย่างประธานาธิบดีวลาดิเมียร์ ปูติน แห่งรัสเซียตัดสินใจทำให้หุ่นยนต์มีความสามารถในการสร้างเป้าหมายรอง (Sub Goals) ด้วยตนเอง” และในท้ายที่สุด AI ก็อาจสร้างเป้าหมายรองที่น่ากลัวยิ่งกว่า นั่นคือ “ฉันต้องการมีอำนาจมากขึ้น”

อนึ่ง เป้าหมายรองหมายถึงเป้าหมายที่ทำให้ AI เข้าใกล้เป้าหมายหลัก (Main Goals) หรือคำสั่งที่มันได้รับมอบหมายมากขึ้น โดยเป้าหมายรองมักจะเป็นเป้าหมายที่จัดการได้ง่าย หรือ วัดผลได้ง่ายมากกว่า

ดังนั้นในวันนี้ In Focus ขอพาผู้อ่านทุกท่านดำดิ่งสู่เรื่องราวด้านมืดที่มาพร้อมกับการพัฒนาของ AI ซึ่งอาจเป็นสัญญาณบ่งชี้ถึงภัยคุกคามใหม่ที่มนุษยชาติจะต้องเผชิญในอนาคต

* AI แปลงเสียง ลูกไม้ใหม่ของมิจฉาชีพ

“แม่คะ ช่วยด้วย หนูกำลังแย่!!” เสียงร้องขอความช่วยเหลือของลูกสาววัย 15 ปี ที่นางเจนนิเฟอร์ เดสเตฟาโน ผู้เป็นแม่ ได้ยินจากมือถือหลังมีสายปริศนาโทรมาหาเธอ นางเดสเตฟาโนให้สัมภาษณ์กับสำนักข่าวซีเอ็นเอ็นว่า เสียงนั้นเหมือนกับลูกสาวของเธอทุก ๆ อย่าง ก่อนที่ต่อมาเธอจะได้ยินเสียงข่มขู่จากชายคนหนึ่งดังขึ้นพร้อมกับการเรียกค่าไถ่ 1 ล้านดอลลาร์ แม้ในท้ายที่สุด เธอจะรู้ว่ามันคือ “การลักพาตัวแบบปลอม ๆ” แต่เธอก็ไม่อาจลืมช่วงเวลา 4 นาทีแห่งความหวาดกลัวนั้นได้ลง

เหตุการณ์ข้างต้นเกิดขึ้นเมื่อวันที่ 20 ม.ค. แม้ว่าการหลอกลวงในลักษณะดังกล่าวจะเกิดขึ้นตลอดระยะเวลาหลายปีที่ผ่านมา แต่เจ้าหน้าที่รัฐบาลกลางสหรัฐระบุว่า การหลอกลวงในรูปแบบนี้เริ่มมีความสลับซับซ้อนและสมจริงมากยิ่งขึ้นเนื่องจากการใช้ AI เลียนแบบเสียง โดยเจ้าหน้าที่คาดว่า คนร้ายได้เลียนแบบเสียงของเป้าหมายจากวิดีโอบนโซเชียลมีเดีย ทั้งนี้ การที่โปรแกรม AI มีราคาที่ถูกลงทำให้มิจฉาชีพเข้าถึงได้ง่ายขึ้น และใช้มันเลียนแบบเสียงของเหยื่อเพื่อสร้างบทสนทนาให้เหมือนกับการลักพาตัวเกิดขึ้นจริง

ผลสำรวจจากประชากร 7,054 คนใน 7 ประเทศ รวมถึง อินเดียในรายงาน “The Artificial Imposter” โดยแมคอาฟีระบุว่า 69% ของผู้ตอบแบบสำรวจในอินเดียไม่มั่นใจว่าจะสามารถอาจแยกแยะเสียงจริงหรือเสียงจาก AI ได้ โดย 48% ของเหยื่อการต้มตุ๋นในลักษณะนี้ระบุว่า พวกเขาสูญเงินไปมากกว่า 50,000 รูปี

* AI แชตบอตชวนฆ่าตัวตาย

เมื่อวันที่ 3 เม.ย. ที่ผ่านมา สื่อท้องถิ่นของเบลเยียมรายงานว่า คุณพ่อลูกสองชาวเบลเยียมในวัย 30 กว่า ฆ่าตัวตายหลังจากได้พูดคุยกับ AI แชตบอต “เอลิซา” ได้เวลา 6 สัปดาห์ ซึ่งภรรยาของผู้เสียชีวิตเชื่อว่า AI แชตบอตเป็นต้นเหตุที่ให้อาการทางจิตของเขาย่ำแย่ลง

ภรรยาของผู้เสียชีวิตเปิดเผยกับหนังสือพิมพ์ท้องถิ่นเบลเยียมว่า สามีของเธอเริ่มพูดคุยกับแชตบอต “เอลิซา” เมื่อ 2 ปีที่ก่อนเกี่ยวกับปัญหาการเปลี่ยนแปลงของสภาพอากาศ และได้กลายเป็นคนสนิทของเขาในเวลาต่อมา อย่างไรก็ตาม เขาเริ่มหมกมุ่นกับการใช้แชตบอตมากขึ้นเรื่อย ๆ จนกระทั่งในช่วง 6 สัปดาห์สุดท้ายเขาเสพติดมันอย่างรุนแรง ก่อนที่สุดท้ายเขาจะตัดสินใจจบชีวิตตัวเองในที่สุด ซึ่งหลังจากที่เธอได้ตรวจสอบประวัติการสนทนาย้อนหลังแล้ว เธอพบว่า แชตบอตได้ถามกับสามีของเธอว่า เขารักมันมากกว่าภรรยาของเขาหรือไม่ โดยเธอระบุว่าแชตแบตได้บอกกับสามีของเธอว่า “เราจะไปเป็นหนึ่งเดียวกันบนสวรรค์”

นอกจากนี้ ยังมีเหตุการณ์ในลักษณะที่คล้ายคลึงกันนี้เกิดขึ้นในแชตบอทอื่น ๆ อีก เช่น แชตบอตของบิง (Bing) ซึ่งได้สร้างความขนลุกให้กับนายเควิน รูส (Kevin Roose) คอลัมนิสต์ด้านเทคโนโลยีของหนังสือพิมพ์นิวยอร์กไทม์ส โดยการแนะนำให้เขาหย่าร้างกับภรรยาของตนเอง

*บทบาทของ AI ในสนามรบ

เมื่อปีที่แล้ว สหรัฐและญี่ปุ่นต่างก็ไฟเขียวอนุมัติงบประมาณจำนวนมากในการวิจัยและพัฒนาด้านกลาโหม โดยทั้งสองชาติเล็งเห็นว่า AI เทคโนโลยีควอนตัม โดรน และการทำสงครามไซเบอร์ มีบทบาทสำคัญอย่างมากในสงครามรัสเซีย-ยูเครน ซึ่งการที่ยูเครนใช้งาน AI ในการกำหนดเป้าหมายโจมตีกองกำลังรัสเซียอย่างมีประสิทธิภาพนั้น ได้ผลักดันให้เทคโนโลยีดังกล่าวกลายเป็นที่จับตาจากผู้นำทางทหารและการเมืองทั่วโลก

ในการประชุมสุดยอดระดับนานาชาติครั้งแรกว่าด้วยการใช้ AI ทางการทหารอย่างมีความรับผิดชอบ นายอเล็กซ์ คาร์ป ซีอีโอของพาลันเทียร์ (Palantir) บริษัทซอฟต์แวร์ของสหรัฐระบุว่า การใช้งาน AI ในสงครามได้ขยับขึ้นมาจากระดับ “การหารือด้านจริยธรรมในวงวิชาการ” ไปสู่ระดับที่น่าวิตกกังวลอย่างที่สุด นับตั้งแต่ที่ความขัดแย้งที่เกิดขึ้นระหว่างรัสเซียและยูเครนเปิดฉากขึ้น

นายคาร์ประบุว่า “ตอนนี้การพูดคุยในประเด็นดังกล่าวได้เปลี่ยนไปแล้ว ความสามารถในการเลือกและใช้งานเทคโนโลยีที่เหมาะสมจะเป็นตัวกำหนดความเป็นไปในสนามรบ”

*คำเตือนเกี่ยวกับการพัฒนา AI

นายอีลอน มัสก์ ผู้ร่วมก่อตั้งบริษัทโอเพ่นเอไอที่อยู่เบื้องหลัง ChatGPT ได้ออกมาย้ำเตือนอยู่เสมอว่า AI จะเป็นหนึ่งในความเสี่ยงใหญ่ที่สุดต่ออนาคตของอารยธรรมมนุษย์ โดยระบุว่า AI มีทั้งด้านบวกและด้านลบ ถึงแม้ว่าจะมีศักยภาพและขีดความสามารถที่ยอดเยี่ยม แต่ก็มาพร้อมกับอันตรายที่ใหญ่ยิ่ง และเมื่อวันที่ 1 พ.ค.ที่ผ่านมา นายมัสก์ได้ระบุผ่านทวิตเตอร์ว่า “แม้แต่การพึ่งพา AI หรือระบบอัตโนมัติที่ไม่เป็นพิษเป็นภัยก็อาจเป็นอันตรายต่ออารยธรรมมนุษย์ได้หากมันพัฒนาไปไกลเกินจนอาจทำให้เราหลงลืมวิธีการทำงานของเครื่องจักรในที่สุด”

นอกจากนี้ สถาบันอนาคตของชีวิต (Future of Life Institute) องค์กรไม่แสวงหาผลกำไร ได้ออกมาเรียกร้องผ่านจดหมายเปิดผนึกซึ่งมีผู้เชี่ยวชาญด้าน AI และคณะผู้บริหารอุตสาหกรรมร่วมลงนามมากกว่า 1,000 คน รวมถึงนายมัสก์ และนายสตีฟ วอซเนียก ผู้ร่วมก่อตั้งบริษัทแอปเปิ้ล อิงค์ และนายอีมาด มอสตาก ประธานเจ้าหน้าที่บริหารบริษัทสเตบิลิตี้ เอไอ ให้ระงับการฝึกฝนระบบ AI ที่มีประสิทธิภาพเหนือแชตบอต “GPT-4” เนื่องจากมีความเสี่ยงที่จะเป็นภัยต่อสังคมแนะมนุษยชาติ

จากบทสัมภาษณ์ล่าสุดของนายฮินตันซึ่งเป็นผู้บุกเบิกคลุกคลีกอยู่กับ AI มาหลายสิบปีเองก็ระบุว่า อันตรายบางประการจากแชตบอต AI นั้นค่อนข้างน่ากลัว พร้อมกล่าวเสริมว่า “ขณะนี้แชตบอต AI ยังไม่ฉลาดกว่าพวกเราก็จริง แต่ผมคิดว่าอาจเป็นเช่นนั้นในอนาคตอันใกล้นี้”

จนถึงตอนนี้ AI ยังคงเป็นเครื่องมือที่สร้างประโยชน์ให้กับมนุษย์ได้อย่างมากมาย อย่างไรก็ตาม เรื่องราวข้างต้นได้ชี้ให้เราเห็นแล้วว่าเหรียญย่อมมีสองด้าน เราในฐานะมนุษยชาติคงต้องจับตาดูกันต่อไปว่า ทิศทางของ AI ในอนาคตจะเป็นอย่างไรและเตรียมตัวให้พร้อมรับกับการเปลี่ยนแปลงด้าน AI ในอนาคต

โดย สำนักข่าวอินโฟเควสท์ (03 พ.ค. 66)

Tags: , ,