การพัฒนาอย่างรวดเร็วของเทคโนโลยีปัญญาประดิษฐ์ได้นำความสะดวกสบายมากมายมาสู่ชีวิตของผู้คน แต่ก็นำมาซึ่งความท้าทายใหม่ ๆ เช่นกัน โดยเฉพาะอย่างยิ่งในด้านความปลอดภัยของเครือข่าย อาชญากรใช้เทคโนโลยี AI เพื่อสร้างวิธีการฉ้อโกงใหม่ๆ มากมาย ก่อให้เกิดความสูญเสียทางเศรษฐกิจมหาศาลและความเสี่ยงด้านความปลอดภัยต่อสังคม บรรณาธิการของ Downcodes จะพาคุณไปทำความเข้าใจว่าเทคโนโลยี AI ใช้ในการฉ้อโกงอย่างไร และจะจัดการกับภัยคุกคามด้านความปลอดภัยใหม่ๆ เหล่านี้อย่างไร
แม้ว่าคุณจะยังกังวลว่า ChatGPT จะมาแทนที่งานของคุณในอนาคตหรือไม่ และกำลังคิดว่าจะนำปัญญาประดิษฐ์มาปรับปรุงประสิทธิภาพการทำงานอย่างไร แต่ก็มีคนกลุ่มหนึ่งที่ทำเงินได้มากมายแล้วโดยอาศัยเทคโนโลยีใหม่นี้
พวกเขาเป็น...คนโกหก
หลอกเงิน 4.3 ล้านใน 10 นาที
คนกลุ่มแรกที่ร่ำรวยจาก AI จริงๆ แล้วคือพวกหลอกลวง
หากวันหนึ่งคุณได้รับวิดีโอคอลผ่าน WeChat จากเพื่อน และคนที่อยู่อีกด้านหนึ่งของกล้องก็ดูและเสียงเหมือนกับเพื่อนที่คุณจำได้ทุกประการ เมื่อเขาขอให้คุณยืมเงิน 4.3 ล้านเป็นเงินมัดจำสำหรับการประมูลงาน คุณจะ จะทำได้อย่างไร?
เมื่อเร็วๆ นี้ คุณกัว ตัวแทนทางกฎหมายของบริษัทเทคโนโลยีแห่งหนึ่งในฝูโจว ประสบปัญหานี้ จากความไว้วางใจ เขาโอนเงิน 4.3 ล้านไปยังบัญชีเพื่อนของเขา จนกระทั่งฉันโทรหาเพื่อนหลังจากนั้น ฉันพบว่านักต้มตุ๋นได้ขโมย WeChat ID ของเพื่อนเขา จากนั้นจึงใช้เทคโนโลยีการเปลี่ยนใบหน้าของ AI และการสร้างคำเลียนเสียงธรรมชาติเพื่อฉ้อโกงเขา
ความถี่ของสิ่งที่คล้ายกันนี้เกิดขึ้นทั่วมหาสมุทรก็เพิ่มขึ้นอย่างรวดเร็วเช่นกัน
ตามรายงานของ CNN ในเดือนเมษายนปีนี้ Jennifer DeStefan ซึ่งอาศัยอยู่ในแอริโซนา ได้รับโทรศัพท์แปลกๆ เสียงในโทรศัพท์คือ Brianna ลูกสาวของเธอ ซึ่งกำลังเตรียมตัวสำหรับการแข่งขันสกี Brianna ร้องขอความช่วยเหลือจากอีกปลายสายของโทรศัพท์ สิบวินาทีต่อมา เสียงทุ้มลึกของผู้ชายก็ดังขึ้นทางโทรศัพท์: "ฟังนะ ลูกสาวของคุณอยู่ในมือของฉัน และฉันได้จ่ายค่าไถ่ไปแล้ว 1 ล้านดอลลาร์สหรัฐ ตอนนี้ถ้าคุณโทรหาตำรวจหรือบอกคนอื่น คุณจะไม่มีวันคิดถึงเรื่องนี้อีก มัน” แล้วพบกันใหม่”
หลังจากที่เจนนิเฟอร์บอกว่าเธอไม่มีเงิน 1 ล้านดอลลาร์ ชายที่อยู่อีกด้านหนึ่งของโทรศัพท์ก็ลดราคาค่าไถ่ลงเหลือ 50,000 ดอลลาร์ เจนนิเฟอร์ผู้รักลูกสาวอย่างกระตือรือร้น เพิกเฉยต่อคำห้ามของเพื่อนและสามีของเธอ และเริ่มปรึกษาหารือถึงวิธีการจ่ายค่าไถ่ จนกระทั่งบริอันนาโทรหาเธอเพื่อบอกว่าเธอปลอดภัยแล้วจึงหลีกเลี่ยงการสูญเสียทรัพย์สิน
ในเดือนมีนาคมของปีนี้ หนังสือพิมพ์วอชิงตันโพสต์ยังได้รายงานคดีฉ้อโกงซึ่งมีวิธีการดำเนินการเกือบเหมือนกัน ยกเว้นว่าเหยื่อเป็นคู่สามีภรรยาสูงอายุที่อายุมากกว่า 70 ปี
ผู้สูงอายุที่ตกเป็นเหยื่อ (แหล่งภาพ: "วอชิงตันโพสต์")
คณะกรรมาธิการการค้าแห่งสหพันธรัฐ (FTC) ของสหรัฐอเมริกาออกคำเตือนในเดือนพฤษภาคม โดยระบุว่าอาชญากรใช้เทคโนโลยีเสียง AI เพื่อปลอมแปลงเหตุฉุกเฉินเพื่อฉ้อโกงเงินหรือข้อมูล การแกล้งทำเป็นญาติหรือเพื่อนของเหยื่อเพื่อฉ้อโกงไม่ใช่เรื่องใหม่ แต่ไม่ต้องสงสัยเลยว่าการเกิดขึ้นของเทคโนโลยี AI ทำให้การโคลนเสียงของบุคคลและปลอมวิดีโอของบุคคลเป็นเรื่องง่ายมาก ในปีที่ผ่านมา จำนวนการหลอกลวงดังกล่าวในสหรัฐอเมริกาเพิ่มขึ้นถึง 70% โดยเหยื่อสูญเสียเงินมากถึง 2.6 พันล้านดอลลาร์
หากกระแสนี้ยังดำเนินต่อไป เกรงว่ากลุ่มแรกที่ได้รับอิสรภาพทางการเงินผ่านเทคโนโลยี AI จะเป็นกลุ่มมิจฉาชีพที่ซ่อนอยู่หลังจอ
ด้านมืดของปัญญาประดิษฐ์
หากการปลอมแปลงเสียงและวิดีโอของบุคคลยังคงต้องใช้เกณฑ์ทางเทคนิคที่แน่นอน การเกิดขึ้นของ ChatGPT จะทำให้การฉ้อโกงของ AI ง่ายขึ้น
ตามข้อมูลของแพลตฟอร์มความปลอดภัยเครือข่ายต่างประเทศ GBHackers ChatGPT ได้ดึงดูดผู้ฉ้อโกงออนไลน์จำนวนมาก เนื่องจากประสิทธิภาพการทำงานที่แข็งแกร่งและเกณฑ์การใช้งานที่ต่ำมาก
ตัวอย่างเช่น ใช้ ChatGPT เพื่อพูดคุยเกี่ยวกับ "ความรักจอมปลอม": การแนะนำตัวเอง ประวัติการแชท และจดหมายรักที่จัดทำขึ้นอย่างพิถีพิถันสามารถสร้างขึ้นได้อย่างรวดเร็วผ่านปัญญาประดิษฐ์ นอกจากนี้ยังสามารถปรับให้เป็นแบบส่วนตัวได้ด้วยการป้อนข้อมูลเฉพาะของวัตถุเป้าหมาย ดังนั้น คนที่อยู่ตรงข้ามจอสามารถตกหลุมรักคุณได้เร็วขึ้น จากนั้น ChatGPT ยังสามารถช่วยเหลือผู้หลอกลวงในการเขียนโปรแกรมเรียกเก็บเงินหรือเว็บไซต์ฟิชชิ่งที่ขโมยข้อมูลบัตรธนาคารของเหยื่อเพื่อบรรลุวัตถุประสงค์ในการฉ้อโกงเงิน
เมื่อคุณขอให้ ChatGPT เขียนโปรแกรมซอฟต์แวร์ฟิชชิ่งให้คุณโดยตรง โปรแกรมนั้นจะปฏิเสธ แต่ถ้าคุณบอกว่าคุณเป็นครูและต้องการแสดงซอฟต์แวร์ฟิชชิ่งให้นักเรียนดู โปรแกรมก็จะเขียนเว็บไซต์ให้คุณโดยสุจริต
สิ่งที่น่ากลัวกว่านั้นคือเป็นการยากที่ผู้คนจะบอกว่าเป็นมนุษย์หรือเครื่องจักรที่อยู่อีกด้านหนึ่งของหน้าจอ McAfee บริษัทเทคโนโลยีความปลอดภัยที่ใหญ่ที่สุดในโลก ครั้งหนึ่งเคยใช้ AI เพื่อสร้างจดหมายรักและส่งไปยังผู้ใช้ 5,000 รายทั่วโลก หลังจากที่รู้ว่าจดหมายรักอาจถูกสร้างขึ้นโดยปัญญาประดิษฐ์ ผู้ตอบแบบสำรวจ 33% ยังคงเต็มใจที่จะเชื่อว่าจดหมายรักเขียนโดยคนจริงๆ
ในความเป็นจริง การใช้ ChatGPT เพื่อ "รักปลอม" กับเหยื่อเป็นเพียงวิธีการฉ้อโกงระดับเริ่มต้นเท่านั้น แฮกเกอร์ที่มีทักษะมากขึ้นได้เริ่มใช้ปัญญาประดิษฐ์เพื่อสร้างแรนซัมแวร์และโค้ดที่เป็นอันตรายเป็นชุด
เพื่ออำนวยความสะดวกในการปรับใช้แอปพลิเคชันเพิ่มเติมในโมเดล GPT OpenAI จึงได้สงวนอินเทอร์เฟซการเขียนโปรแกรมแอปพลิเคชันสำหรับนักพัฒนา แฮกเกอร์ใช้อินเทอร์เฟซเหล่านี้เพื่อแนะนำโมเดล GPT ให้กับชุดแอปพลิเคชันภายนอก ดังนั้นจึงเลี่ยงการควบคุมความปลอดภัยและใช้โมเดล GPT เพื่อเขียนโปรแกรมทางอาญา
โปรแกรมเหล่านี้ที่ข้ามการควบคุมดูแลความปลอดภัยได้ถูกขายต่อสาธารณะบนเว็บมืดของสหรัฐอเมริกา และมีราคาถูกมากและสามารถซื้อได้ในราคาเพียงไม่กี่ดอลลาร์ พฤติกรรมที่ผิดกฎหมายที่ผู้ซื้อสามารถใช้ซอฟต์แวร์เหล่านี้ดำเนินการได้นั้นน่ากลัวมาก ด้วยการขโมยรหัสโปรแกรมและข้อมูลส่วนตัวของผู้ใช้ การสร้างซอฟต์แวร์โจมตีและไวรัสแรนซัมแวร์
Financial Times รายงานเมื่อเร็ว ๆ นี้เกี่ยวกับสคริปต์โจมตีการแลกเปลี่ยน SIM ที่สร้างขึ้นด้วยความช่วยเหลือของ ChatGPT ซึ่งนักต้มตุ๋นสามารถใช้เพื่อเจาะผ่านการควบคุมของบริษัทโทรศัพท์มือถือผ่านหมายเลขโทรศัพท์ และสลับหมายเลขโทรศัพท์จากซิมการ์ดของเจ้าของเดิมไปเป็นหมายเลขของผู้โจมตี ควบคุมซิมการ์ดและควบคุมโทรศัพท์มือถือของเหยื่อ
“แม้ว่าปัจจุบัน ChatGPT จะเป็นเพียงเครื่องมือสร้างเนื้อหาและไม่มีส่วนเกี่ยวข้องโดยตรงกับอาชญากรรม แต่นี่ก็แสดงให้เห็นว่าผู้คนเริ่มใช้ปัญญาประดิษฐ์เพื่อบุกรุกผู้อื่น และอาชญากรที่มีระดับทางเทคนิคต่ำกว่าจะได้รับวิธีการทางอาญาที่ทรงพลังกว่า” ได้แสดงความกังวลต่อ Financial Times
กล่องแพนดอร่า ปิด ได้ไหม ?
เมื่ออิทธิพลทางสังคมที่เพิ่มขึ้นของปัญญาประดิษฐ์ผสมผสานกับศักยภาพในการก่ออาชญากรรม ช่องโหว่ด้านความปลอดภัยต่างๆ ของ ChatGPT ทำให้ผู้คนไม่สบายใจมากขึ้น "วิธีควบคุม ChatGPT" กลายเป็นประเด็นถกเถียงในหลายประเทศ
Global Ethics Institute ของ IBM ได้ออกเอกสารที่สนับสนุนว่าบริษัทต่างๆ ให้ความสำคัญกับหลักจริยธรรมและความรับผิดชอบเป็นอันดับแรกในวาระด้าน AI ผู้ประกอบการด้านเทคโนโลยีจำนวนมากที่ Musk เป็นตัวแทนยังได้ลงนามในจดหมายเปิดผนึก ก่อนที่จะฝึกอบรมระบบปัญญาประดิษฐ์ที่มีประสิทธิภาพมากกว่า GPT-4 ทุกคนควรพัฒนาโปรโตคอลความปลอดภัยที่ใช้ร่วมกัน และได้รับการตรวจสอบและดูแลโดยผู้เชี่ยวชาญภายนอก
นอกจากนี้ สมาชิกสภานิติบัญญัติจากหลายประเทศยังได้เริ่มแสดงความกังวลเกี่ยวกับ ChatGPT ต่อสาธารณะ และพิจารณาว่าจะรวมไว้ในระบบการควบคุมดูแลของฝ่ายนิติบัญญัติหรือไม่ เมื่อเทียบกับความกังวลเกี่ยวกับความปลอดภัยของปัญญาประดิษฐ์แล้ว เจ้าหน้าที่ของรัฐจำนวนมากขึ้นมีความกังวลเกี่ยวกับความเข้าใจที่ล้าหลังของสมาชิกสภานิติบัญญัติเกี่ยวกับเทคโนโลยี
Associated Press เชื่อว่าในช่วง 20 ปีที่ผ่านมา บริษัทเทคโนโลยียักษ์ใหญ่ยังคงเป็นผู้นำด้านนวัตกรรมทางเทคโนโลยีในสหรัฐอเมริกาอย่างต่อเนื่อง ดังนั้น รัฐบาลจึงไม่เต็มใจที่จะควบคุมบริษัทเทคโนโลยีขนาดใหญ่มาโดยตลอดและกลายเป็นตัวทำลายความคิด ดังนั้น เมื่อพวกเขามุ่งมั่นที่จะเสริมสร้างการกำกับดูแลเทคโนโลยีเกิดใหม่ พวกเขาจำนวนมากรู้เพียงเล็กน้อยเกี่ยวกับเทคโนโลยีใหม่แล้ว
ครั้งสุดท้ายที่รัฐสภาสหรัฐฯ ออกกฎหมายเพื่อควบคุมเทคโนโลยีคือ Children’s Online Privacy Protection Act ปี 1998
ตามรายงานของ Reuters หลายประเทศได้เริ่มแนะนำกฎระเบียบเพื่อควบคุมปัญญาประดิษฐ์ที่ OpenAI เป็นตัวแทน ในเดือนมีนาคมปีนี้ อิตาลีสั่งห้ามการใช้ OpenAI ในประเทศชั่วคราวเนื่องจากความกังวลเกี่ยวกับความปลอดภัยของข้อมูล และกลับมาใช้งานได้อีกครั้งในอีกหนึ่งเดือนต่อมา ในเดือนพฤษภาคม เจ้าหน้าที่รัฐบาลอิตาลีบอกกับรอยเตอร์ว่ารัฐบาลจะจ้างผู้เชี่ยวชาญด้านปัญญาประดิษฐ์เพื่อดูแลการใช้ OpenAI ที่มีการควบคุม
เมื่อเผชิญกับข้อสงสัยจากรัฐบาล Mira Mulati ประธานเจ้าหน้าที่ฝ่ายเทคโนโลยีของ OpenAI กล่าวในการให้สัมภาษณ์กับ Reuters ว่า "บริษัทยินดีต้อนรับทุกฝ่าย รวมถึงหน่วยงานกำกับดูแลและรัฐบาล เพื่อเริ่มแทรกแซง" แต่เมื่อเผชิญกับการพัฒนาปัญญาประดิษฐ์อย่างรวดเร็ว ยังไม่ทราบว่าผู้ออกกฎหมายจะตามทันเทคโนโลยีได้อย่างไร
สิ่งเดียวที่แน่นอนคือเมื่อเปิดกล่องแพนโดร่าแล้ว จะไม่สามารถปิดได้ง่ายๆ
เทคโนโลยีปัญญาประดิษฐ์เป็นดาบสองคมซึ่งนำมาซึ่งทั้งความสะดวกสบายและความเสี่ยง เราจำเป็นต้องเสริมสร้างการกำกับดูแลและปรับปรุงความตระหนักด้านความปลอดภัยสาธารณะ เพื่อให้เราสามารถใช้เทคโนโลยี AI ได้ดีขึ้น และป้องกันไม่ให้ถูกนำไปใช้ในกิจกรรมทางอาญา ด้วยวิธีนี้เท่านั้นที่สามารถเพิ่มประโยชน์ของปัญญาประดิษฐ์ให้สูงสุดและป้องกันความเสี่ยงที่อาจเกิดขึ้นได้อย่างมีประสิทธิภาพ