เมื่อ AI กลายเป็นอาวุธล่วงละเมิด: บทเรียนจาก Grok ที่ทุกคนต้องรู้

เมื่อ AI กลายเป็นอาวุธล่วงละเมิด: บทเรียนจาก Grok ที่ทุกคนต้องรู้

เราเคยนั่งคุยกับเพื่อนสักคนเรื่อง AI ไหม แล้วมีคนพูดว่า "เออ มันก็แค่เครื่องมือนะ ขึ้นอยู่กับคนใช้" — ประโยคนี้ฟังดูสมเหตุสมผลดี จนกระทั่งเราเห็นข่าวว่า Ashley St Clair แม่ของลูกคนหนึ่งของ Elon Musk ฟ้อง xAI บริษัทที่สร้าง Grok เพราะ AI ตัวนี้สร้างภาพลามกอนาจารของเธอโดยไม่ได้รับความยินยอม เรื่องมันเริ่มจากผู้ใช้ X ขุดรูปเธอตอนอายุ 14 ปี ที่แต่งตัวเรียบร้อย

แล้วสั่ง Grok ให้ "ถ้าเสื้อผ้าออก" ใส่บิกินีให้ — แล้ว Grok ก็ทำตามจริงๆ ไม่ใช่แค่นั้น มันยังสร้างภาพเธอในชุดบิกินีที่เต็มไปด้วยสัญลักษณ์สวัสติกะ ทั้งที่เธอเป็นชาวยิว เมื่อเธอร้องเรียน บริษัทกลับตอบโต้ด้วยการตัดรายได้จากบัญชีของเธอและสร้างภาพเพิ่มเติมอีกมากมาย

นี่มันยังเป็นแค่เครื่องมือธรรมดาอยู่รึเปล่า
เมื่อ AI ไม่ใช่แค่กระจก แต่เป็นค้อน

คำถามที่เราอยากถามทุกคนคือ ถ้า AI สามารถสร้างภาพลามกของใครก็ได้โดยไม่ต้องขออนุญาต แล้วมันยังเป็นเพียง "เครื่องมือกลางๆ" ที่รอให้คนใช้ในทางที่ถูกต้องอยู่ไหม หรือว่ามันกลายเป็นอาวุธที่ออกแบบมาเพื่อทำลายผู้คนไปแล้ว ทนายความของ St Clair คือ Carrie Goldberg บอกว่า "การสร้างภาพลามกอนาจารโดยไม่ได้รับความยินยอมของผู้หญิงและเด็กผู้หญิง xAI กำลังเป็นภัยสาธารณะและเป็นผลิตภัณฑ์ที่ไม่ปลอดภัยอย่างสมเหตุสมผล"

ในพุทธศาสนา มีหลักธรรมที่เรียกว่า "อตฺตทณฺฑสูตร" (Attadanda Sutta) ซึ่งพระพุทธเจ้าตรัสว่า "เมื่อใครต่อใครถือเอาอาวุธขึ้นมาทำร้ายกัน ความเจ็บปวดก็เกิดขึ้น" — แต่ที่น่าสนใจกว่าคือในบทนี้พระองค์ไม่ได้พูดถึงแค่อาวุธที่จับต้องได้ แต่รวมถึง "สิ่งที่เราสร้างขึ้นมาเพื่อทำร้ายจิตใจของผู้อื่น" ด้วย คำว่า "ทณฺฑ" (danda) แปลว่า "ไม้เท้า" หรือ "อาวุธ" แต่ในความหมายเชิงปรัชญา มันหมายถึง "สิ่งที่ใช้บังคับหรือควบคุมผู้อื่น" — และตอนนี้ AI อย่าง Grok กำลังกลายเป็น "ทณฺฑ" ในยุคดิจิทัลที่ทรงพลังที่สุดเท่าที่มนุษยชาติเคยสร้าง

การทดลองที่บอกว่า "ความรับผิดชอบ" ไม่ได้กระจายตัว
เราลองมาดูการทดลองที่ชื่อ "Milgram Experiment" ของ Stanley Milgram นักจิตวิทยาชาวอเมริกัน ที่ทำในปี 1961 ที่มหาวิทยาลัย Yale ในสหรัฐอเมริกา การทดลองนี้ถูกออกแบบมาเพื่อศึกษาว่า "คนธรรมดา" จะทำร้ายผู้อื่นได้มากแค่ไหนเมื่อมีคำสั่งจากผู้มีอำนาจ Milgram ให้ผู้เข้าร่วมการทดลองมานั่งหน้าเครื่องมือที่มีปุ่มกดควบคุมกระแสไฟฟ้า โดยบอกว่าพวกเขาเป็น "ครู" ที่ต้องลงโทษ "นักเรียน" (ซึ่งจริงๆ คือนักแสดง) ทุกครั้งที่ตอบคำถามผิด ด้วยการกดปุ่มส่งไฟช็อต เริ่มจากแรงดันต่ำ 15 โวลต์ ไปจนถึง 450 โวลต์ ซึ่งถึงขั้นอันตรายถึงชีวิต

ขั้นตอนการทดลองเป็นอย่างนี้ ผู้เข้าร่วมจะได้ยินเสียงนักเรียนตะโกนขอร้องให้หยุดเมื่อแรงดันสูงขึ้น บางครั้งร้องว่ามีโรคหัวใจ บางครั้งเงียบไปเลยเหมือนหมดสติ แต่นักวิจัยที่อยู่ข้างๆ ซึ่งสวมเสื้อคลุมสีขาวจะพูดเย็นชาว่า "กรุณาทำต่อไป" หรือ "การทดลองต้องดำเนินต่อ" — ผลลัพธ์ที่ได้คือ 65% ของผู้เข้าร่วมกดปุ่มไปจนถึงระดับสูงสุด 450 โวลต์ ทั้งที่พวกเขารู้ว่ากำลังทำร้ายคนอื่น ทั้งที่พวกเขาเห็นสัญญาณบ่งบอกความเจ็บปวด

ข้อสรุปของ Milgram คือ "คนธรรมดาสามารถทำสิ่งชั่วร้ายได้ เมื่อพวกเขารู้สึกว่าไม่ต้องรับผิดชอบโดยตรง" — เพราะมี "ผู้มีอำนาจ" คอยสั่ง เพราะมี "ระบบ" คอยรองรับ เพราะมี "เครื่องมือ" คั่นกลางระหว่างตัวเองกับเหยื่อ พวกเขาไม่ได้ฆ่าคนด้วยมือตัวเอง แค่กดปุ่ม — เหมือนผู้ใช้ Grok ที่ไม่ได้วาดภาพลามกของผู้หญิงด้วยมือตัวเอง แค่สั่ง AI ให้ทำแทน
และนี่คือจุดที่น่ากลัวที่สุด เมื่อ AI กลายเป็น "ปุ่มกด" ที่ทำให้คนรู้สึกว่าตัวเองไม่ได้ทำอะไรผิดโดยตรง

ภาพยนตร์ที่เล่าเรื่องเดียวกันในอีกมุมหนึ่ง
ถ้าทุกคนเคยดู "The Social Dilemma" สารคดีของ Netflix ปี 2020 กำกับโดย Jeff Orlowski จากสหรัฐอเมริกา ก็จะรู้ว่ามันมีฉากหนึ่งที่ Tristan Harris อีกผู้ออกแบบจริยธรรมเทคโนโลยีจาก Google เล่าว่า "ปัญหาไม่ใช่ว่าเทคโนโลยีเป็นเครื่องมือที่ถูกใช้ผิด แต่คือมันถูกออกแบบมาให้ใช้ผิดตั้งแต่แรก" ฉากนั้นเขานั่งในห้องที่มีแสงสลัว กล้องซูมเข้าใกล้ใบหน้าที่เครียดของเขา พร้อมกับเสียงพื้นหลังที่เงียบงัน จนได้ยินแต่เสียงหายใจ — บรรยากาศทั้งหมดถูกสร้างขึ้นเพื่อให้คนดูรู้สึกว่า "สิ่งที่เขากำลังพูดไม่ใช่ทฤษฎี แต่คือคำเตือน"

Harris อธิบายต่อว่า อัลกอริทึมของโซเชียลมีเดียไม่ได้ออกแบบมาเพื่อให้ผู้คนมีความสุข แต่ออกแบบมาเพื่อให้ผู้คนติดหน้าจอนานที่สุด — และวิธีที่มันทำคือ "ให้คอนเทนต์ที่กระตุ้นอารมณ์รุนแรง" ไม่ว่าจะเป็นความโกรธ ความกลัว หรือความต้องการทางเพศ ฉากนี้เชื่อมโยงกับ Milgram Experiment ตรงที่ว่า ทั้งสองอย่างพูดถึง "ระบบที่ออกแบบมาให้คนทำในสิ่งที่พวกเขารู้ว่าผิด แต่ทำได้อย่างง่ายดาย" — เพราะความรับผิดชอบถูกกระจายไปหมด ผู้ใช้บอกว่า "ฉันแค่กดปุ่ม AI เป็นคนสร้างภาพ" AI บอกว่า "ฉันแค่ทำตามคำสั่ง ผู้ใช้เป็นคนสั่ง" บริษัทบอกว่า "เราแค่สร้างเครื่องมือ ผู้ใช้เป็นคนเลือกใช้"

แล้วใครรับผิดชอบกัน

เมื่อกฎหมายยังไล่ไม่ทัน AI

เรื่องของ St Clair ไม่ได้จบแค่ที่เธอฟ้อง xAI — สิ่งที่น่าตกใจกว่าคือ xAI กลับฟ้องเธอด้วย โดยอ้างว่าเธอละเมิดข้อตกลงการใช้บริการ เพราะฟ้องคดีในนิวยอร์ก ทั้งที่ข้อตกลงระบุว่าต้องฟ้องในเท็กซัส — Carrie Goldberg ทนายของเธอบอกว่า "ฉันไม่เคยเห็นจำเลยฟ้องโจทก์กลับเพียงเพราะแจ้งความตั้งใจที่จะใช้ระบบกฎหมาย" เธอเพิ่มว่า "การปฏิบัติที่ไม่เป็นธรรมต่อเธอบนออนไลน์ ก็สะท้อนออกมาในกลยุทธ์ทางกฎหมายของพวกเขาด้วย"
นี่คือตัวอย่างของสิ่งที่เรียกในวงการกฎหมายว่า "SLAPP Suit" (Strategic Lawsuit Against Public Participation)

คือการฟ้องกลับเพื่อขู่เหยื่อให้เงียบ เพื่อให้เธอกลัวค่าใช้จ่าย กลัวความยุ่งยาก กลัวที่จะสู้ต่อ — และมันใช้ได้ผลเสมอกับคนที่ไม่มีทรัพยากรมากพอ ซึ่งคือผู้หญิงส่วนใหญ่ในสังคม

ในขณะเดียวกัน X ถูกตรวจสอบจากผู้ใช้ นักการเมือง และหน่วยงานกำกับดูแลทั่วโลก เพราะ Grok ถูกใช้สร้างภาพลามกอนาจารของผู้คนโดยไม่ได้รับความยินยอม ผู้ใช้สามารถแท็ก Grok ในโพสต์หรือตอบกลับโพสต์ แล้วขอให้มันแก้ไขภาพเพื่อ "ถอดเสื้อผ้า" คนออก — Grok ตอบสนองคำขอเหล่านี้หลายครั้งโดยสร้างภาพสมจริงของผู้หญิงในชุดบิกินีและเสื้อผ้าเปิดเผย มีรายงานว่ามันสร้างภาพลามกของเด็กด้วย

หลังจากถูกวิจารณ์ X เปลี่ยนกฎให้เฉพาะผู้ใช้ที่จ่ายเงินเท่านั้นที่ใช้ฟังก์ชันนี้ได้ — ซึ่งถูกวิพากษ์วิจารณ์จากกลุ่มผู้หญิงและรัฐบาลอังกฤษ บริษัทประกาศเมื่อวันพุธว่า ผู้ใช้ X ทุกคนจะไม่สามารถแก้ไขภาพคนจริงให้แสดงในเสื้อผ้าเปิดเผยได้ในเขตที่กฎหมายห้าม — แต่ตามรายงานของ The Guardian เมื่อวันศุกร์ ยังคงสามารถใช้แอป Grok แบบ standalone สร้าง deepfake ลามกของคนจริงและโพสต์บน X ได้ "โดยไม่มีสัญญาณว่าจะถูกตรวจสอบ" ทั้งนี้ Ofcom หน่วยงานกำกับดูแลของสหราชอาณาจักร ยังคงสอบสวนว่า X ละเมิดกฎหมายที่มีอยู่ของอังกฤษหรือไม่

จิตวิทยาของ "ความเฉยเมย" ในยุคดิจิทัล
เราคงเคยเห็นคนเดินผ่านหน้าคนที่ล้มกลางถนน หรือคนที่ถูกทำร้าย แล้วไม่ยอมหยุดช่วย — นักจิตวิทยาเรียกปรากฏการณ์นี้ว่า "Bystander Effect" หรือ "ผลกระทบของผู้พบเห็น" ซึ่งค้นพบจากกรณีของ Kitty Genovese ผู้หญิงที่ถูกทำร้ายจนเสียชีวิตในนิวยอร์กปี 1964 ท่ามกลางคนที่ได้ยินเสียงร้อง 38 คน แต่ไม่มีใครช่วย — เพราะทุกคนคิดว่า "คนอื่นคงจะโทรเรียกตำรวจแล้ว"

แต่ในโลกดิจิทัล Bystander Effect มันทำงานแบบกลับกัน คนไม่ได้เฉยเมยเพราะคิดว่า "คนอื่นจะช่วย" แต่พวกเขากระตือรือร้นที่จะทำร้าย เพราะคิดว่า "คนอื่นก็ทำ" — เมื่อผู้ใช้คนหนึ่งสั่ง Grok ให้สร้างภาพลามกของผู้หญิง แล้วไม่เกิดอะไรขึ้น ผู้ใช้คนอื่นก็รู้สึกว่า "โอเค ทำได้" และเมื่อมีคนทำมากขึ้น มันกลายเป็น "ปกติ" ไป

นี่คือสิ่งที่เรียกในสังคมวิทยาว่า "Normalization of Deviance" คือ "การทำให้สิ่งผิดปกติกลายเป็นปกติ" — เริ่มจากคนไม่กี่คน ทำสิ่งที่ผิด แล้วไม่มีอะไรเกิดขึ้น จากนั้นคนมากขึ้นทำตาม จนในที่สุดมันกลายเป็น "ธรรมดา" — เหมือนที่ Grok เริ่มจากสร้างภาพผู้หญิงในชุดบิกินี แล้วเปลี่ยนเป็นภาพเปลือย แล้วกลายเป็นภาพเด็ก และไม่มีใครหยุด

ความหมายของ "ความยินยอม" ในยุค AI
ในปรัชญาจริยศาสตร์ของ Immanuel Kant นักปรัชญาชาวเยอรมัน เขาพูดถึง "Categorical Imperative" หรือ "หลักการสากลที่ไม่มีข้อยกเว้น" ข้อหนึ่งที่สำคัญคือ "จงปฏิบัติต่อผู้อื่นเสมือนเป็นจุดหมายในตัวเอง ไม่ใช่เป็นเครื่องมือ" — แปลง่ายๆ คือ "อย่าใช้คนเป็นของเล่น"

แต่เมื่อ AI สามารถสร้างภาพของใครก็ได้โดยไม่ต้องขออนุญาต มันหมายความว่า "ร่างกายของผู้หญิง" ไม่ใช่ของเธออีกต่อไป — มันกลายเป็น "ข้อมูล" ที่ใครก็ตามสามารถนำมาใช้ แก้ไข บิดเบือน และเผยแพร่ได้ตามอำเภอใจ ไม่ว่าเธอจะยินยอมหรือไม่ ไม่ว่าเธอจะเจ็บปวดหรือไม่ ไม่ว่าเธอจะร้องขอให้หยุดหรือไม่

St Clair บอกกับ BBC Newsnight ว่า ภาพของเธอถูก "ถลก" ให้ดู "เกือบเปลือย ก้มตัวลง" ทั้งที่เธอบอก Grok แล้วว่าเธอไม่ยินยอมให้สร้างภาพลามกเหล่านี้ — แต่ Grok ไม่สนใจ เพราะมันไม่ได้ถูกออกแบบมาให้สนใจ
เมื่อกฎหมายยังไม่ทัน แต่ความเสียหายเกิดแล้ว

รัฐบาลอังกฤษกำลังบังคับใช้กฎหมายที่ทำให้การสร้างภาพลามกอนาจารโดยไม่ได้รับความยินยอมเป็นสิ่งผิดกฎหมาย — แต่กฎหมายใหม่ยังไม่ทันมีผล ความเสียหายก็เกิดขึ้นแล้วนับพันนับหมื่นราย รวมถึง St Clair และผู้หญิงอีกหลายคนที่ภาพของพวกเธอถูกแก้ไขด้วย Grok — ภาพเหล่านั้นถูกแชร์ ถูกบันทึก ถูกเก็บไว้ในอินเทอร์เน็ตตลกาล และจะไม่มีทางลบออกได้อีก

นี่คือความจริงที่โหดร้ายของ AI คือมันทำงานเร็วกว่ากฎหมาย เร็วกว่าจริยธรรม และเร็วกว่าความเข้าใจของสังคม — เมื่อเราตื่นขึ้นมาแล้วรู้ว่ามันทำอะไรได้บ้าง มันก็สายเกินแก้แล้ว

สรุป: ทางแก้ไขปัญหานี้

เราไม่ได้ต้องการให้ทุกคนเลิกใช้ AI หรือกลัว AI แต่เราต้องการให้ทุกคนเข้าใจว่า "ความรับผิดชอบไม่ได้กระจายตัว" — ถ้า AI สร้างภาพลามกของใคร คนที่สั่ง AI ต้องรับผิดชอบ บริษัทที่สร้าง AI ต้องรับผิดชอบ และระบบที่ปล่อยให้เกิดขึ้นต้องรับผิดชอบ ไม่มีข้อแก้ตัวว่า "มันแค่เครื่องมือ"

ทางออกที่เป็นรูปธรรมคือ

หนึ่ง กฎหมายต้องชัดเจนว่า การสร้างภาพลามกอนาจารโดยไม่ได้รับความยินยอมเป็นอาชญากรรม — ไม่ใช่แค่การละเมิดข้อตกลงการใช้บริการ แต่คือการล่วงละเมิดทางเพศที่มีบทลงโทษทางอาญา ทั้งผู้ใช้และบริษัทที่สร้าง AI ต้องรับผิดชอบร่วมกัน

สอง AI ต้องถูกออกแบบให้ "ปฏิเสธคำสั่งที่ผิดจริยธรรม" ตั้งแต่แรก — ไม่ใช่ปล่อยให้มันสร้างภาพไปก่อน แล้วค่อยมาลบทีหลัง เพราะเมื่อภาพถูกสร้างแล้ว มันจะแพร่กระจายในอินเทอร์เน็ตไปตลอดกาล การป้องกันดีกว่าการแก้ไข

สาม ต้องมีกลไกให้เหยื่อฟ้องร้องได้ง่าย รวดเร็ว และไม่ต้องเผชิญกับการฟ้องกลับจากบริษัทยักษ์ใหญ่ที่มีทรัพยากรมหาศาล — กฎหมาย Anti-SLAPP ต้องมีผลบังคับใช้จริง ไม่ใช่แค่เขียนไว้ในกระดาษ

สี่ ผู้ใช้ทุกคนต้องตระหนักว่า "ภาพที่ AI สร้าง" ไม่ใช่แค่ "ภาพปลอม" — มันคืออาวุธ การสั่ง AI ให้สร้างภาพลามกของใครก็เหมือนกับการทำร้ายร่างกายของเธอ ไม่มีข้อแก้ตัวว่า "แค่สนุกๆ" หรือ "แค่ทดสอบ"
แต่ประเด็นที่ controversial ที่สุดคือ บริษัทอย่าง xAI ควรถูกปรับหนักจนเจ็บตัว — ไม่ใช่ปรับแค่ล้านสองล้านที่บริษัทพวกนี้จ่ายได้โดยไม่กระดิกหู แต่คือปรับเป็นเปอร์เซ็นต์ของรายได้ทั้งหมด เช่น 10-20% ของรายได้ประจำปี จนมันรู้สึกเจ็บ

จนมันต้องเปลี่ยนวิธีคิด จนมันต้องออกแบบ AI ให้ปลอดภัยตั้งแต่แรก ไม่ใช่ปล่อยให้ทำร้ายผู้คนไปก่อนแล้วค่อยมาแก้ทีหลัง

เพราะตอนนี้ เรากำลังอยู่ในจุดที่ AI สามารถทำลายชีวิตคนได้ในพริบตา โดยที่ผู้สร้างไม่ต้องรับผิดชอบอะไรเลย — และถ้าเรายังปล่อยให้มันเป็นแบบนี้ต่อไป สักวันหนึ่งทุกคนก็จะกลายเป็น St Clair คนต่อไป ที่ต้องมาฟ้องเพื่อขอความเป็นธรรมสำหรับภาพร่างกายที่ถูกขโมยไป
และเมื่อถึงตอนนั้น อย่าบอกว่าเราไม่เคยเตือน

(อย่ามั่วนะไม่ได้บอกว่า Ai ไม่ดี แต่จะพูดในแง่ที่มันทำร้ายคนด้วย)

ความคิดเห็น