ปัญหาทางกฎหมายเกี่ยวกับ AI:ใครรับผิดชอบเมื่อ AI ทำผิด และความท้าทายจากหลักฐานเท็จ ที่สร้างโดย AI

ปัญหาทางกฎหมายเกี่ยวกับ AI:ใครรับผิดชอบเมื่อ AI ทำผิด และความท้าทายจากหลักฐานเท็จ ที่สร้างโดย AI





Image
ad1

ในยุคดิจิทัลที่ เทคโนโลยีปัญญาประดิษฐ์ ( Artificial Intelligence ) หรือ AIกำลังเข้ามามีบทบาทสำคัญในชีวิตประจำวันและหลากหลายอุตสาหกรรม ไม่ว่าจะเป็น ด้านกฎหมาย การแพทย์ การเงิน หรือระบบอัตโนมัติต่างๆ ความสามารถของ AI ในการเลียนแบบสติปัญญาของมนุษย์ รวมถึงการเรียนรู้ การใช้เหตุผล และการแก้ปัญหา ได้นำมาซึ่งประโยชน์มหาศาล แต่ขณะเดียวกันก็ สร้างความท้าทายและประเด็นทางกฎหมายที่ซับซ้อน ประเด็นสำคัญที่กำลังถูกตั้งคำถามและพิจารณาอย่างกว้างขวางคือ
 
“AI ทำผิด ใครรับผิดชอบ? ” และปัญหาที่ร้ายแรงไม่แพ้กันคือ 
“ การใช้ AI ในการสร้างพยานหลักฐานเท็จ ”ซึ่งส่งผลกระทบโดยตรงต่อความน่าเชื่อถือของระบบยุติธรรม ใครรับผิดชอบเมื่อ AI ทำผิด ?
       
คำถามที่ว่า “ใครจะรับผิดชอบเมื่อ AI ทำผิด” นั้น ขึ้นอยู่กับบริบทของการใช้งาน AI และกรอบกฎหมายของแต่ละประเทศ โดยทั่วไปมีแนวทางหลักๆ ในการพิจารณาความรับผิดดังนี้:

1.ผู้พัฒนา AI (AI Developer) หากความผิดพลาดหรือความเสียหายเกิดขึ้นจากการออกแบบที่บกพร่อง เช่น การเขียนอัลกอริทึมที่ผิดพลาด หรือการฝึกโมเดลด้วยข้อมูลที่มีอคติ (bias) ผู้พัฒนาหรือบริษัทผู้สร้าง AI อาจต้องรับผิดชอบ โดยเฉพาะอย่างยิ่งหากสามารถพิสูจน์ได้ว่ามีความประมาทเลินเล่อในการพัฒนา ตัวอย่างเช่น หาก AI วินิจฉัยโรคผิดพลาดเนื่องจากโมเดลถูกฝึกด้วยข้อมูลที่มีอคติ อาจถือเป็นความผิดของผู้พัฒนาได้

2. ผู้ใช้งาน (End User) ในกรณีที่ผู้ใช้งานนำ AI ไปใช้ผิดวัตถุประสงค์ หรือเพิกเฉยต่อคำเตือนหรือข้อจำกัดของ AI ผู้ใช้งานเองอาจต้องรับผิดชอบต่อผลที่เกิดขึ้น ตัวอย่างเช่น หากผู้ใช้ใช้ AI เช่น ChatGPT แนะนำยาและนำไปใช้โดยไม่ปรึกษาแพทย์ แล้วเกิดผลเสีย อาจเป็นความรับผิดชอบของผู้ใช้งานเอง
3. องค์กรที่นำ AI ไปใช้ (ผู้ให้บริการ / บริษัท) หาก AI ถูกนำไปใช้ในระบบหรือบริการขององค์กร เช่น รถยนต์ขับเคลื่อนอัตโนมัติของบริษัทขนส่งเกิดอุบัติเหตุ บริษัทซึ่งเป็นเจ้าของระบบที่ใช้ AI อาจต้องรับผิดชอบในฐานะผู้ประกอบการ
4. ไม่มีใครรับผิดชอบ (ในทางกฎหมายปัจจุบัน) ในบางกรณี กรอบกฎหมายปัจจุบันอาจยังไม่ชัดเจน หรือ ยังไม่มีบทบัญญัติที่ครอบคลุมการทำงานและข้อผิดพลาดที่เกิดจาก AI ได้อย่างสมบูรณ์ ซึ่งนำไปสู่สิ่งที่เรียกว่า "ช่องว่างความรับผิด" (Accountability gap)

5. การออกกฎหมายใหม่ หลายประเทศและภูมิภาค รวมถึงสหภาพยุโรป กำลังอยู่ในระหว่างการพัฒนาและบัญญัติกฎหมายใหม่ที่เกี่ยวข้องกับความรับผิดของ AI โดยเฉพาะ เช่น EU AI Act ซึ่งพยายามวางแนวทางในการควบคุมและความรับผิดตามระดับความเสี่ยงของการใช้ AI

      
กล่าวโดยสรุป การพิจารณาว่าใครจะเป็นผู้รับผิดชอบเมื่อ AI ทำผิดนั้นขึ้นอยู่กับปัจจัยหลายประการ ได้แก่ ใครเป็นเจ้าของ ใครเป็นผู้พัฒนา ใครเป็นผู้ใช้งาน AI ถูกใช้งานในลักษณะใด รวมถึงกรอบกฎหมายที่มีอยู่ในขณะนั้น
ปัญหาต่อไป คือ “ ความท้าทายจากการใช้ AI สร้างพยานหลักฐานเท็จ ”
นอกเหนือจากปัญหาเรื่องความรับผิดเมื่อ AI ทำผิดพลาดโดยไม่เจตนา ปัญหาที่ร้ายแรงและเป็นภัยคุกคามต่อระบบยุติธรรมโดยตรงคือ
“ การใช้ AI สร้างพยานหลักฐานเท็จ”  ในยุคที่ AI สามารถ “ สร้างภาพ ปลอมเสียง ข้อความ หรือแม้แต่เอกสารที่ดูสมจริงอย่างมาก ” เช่น เทคโนโลยี Deepfake หรือ แบบจำลองภาษาที่สร้างข้อความได้เหมือนมนุษย์ 
ปัญหาการสร้างหลักฐานเท็จโดย AI ยิ่งทวีความรุนแรง
ปัญหาหลักที่เกิดจากการใช้ AI สร้างพยานหลักฐานเท็จ ได้แก่:

1.บิดเบือนกระบวนการยุติธรรม หลักฐานที่ปลอมขึ้นโดย AI สามารถถูกนำไปใช้ในการใส่ร้ายผู้อื่น ทำลายความน่าเชื่อถือของพยาน หรือทำให้ศาลหรือเจ้าหน้าที่สอบสวนตัดสินใจผิดพลาด ซึ่งเป็นการบ่อนทำลายรากฐานของกระบวนการยุติธรรม

2.ตรวจจับได้ยาก AI สมัยใหม่สามารถ “ สร้างเนื้อหาที่เหมือนจริงมากจนยากที่จะแยกแยะ” ว่าเป็นของจริงหรือของปลอม แม้ผู้เชี่ยวชาญหรือเครื่องมือพิเศษก็ยังอาจต้องใช้ความพยายามในการตรวจจับ
3. ผู้ไม่ประสงค์ดีเข้าถึงเทคโนโลยีได้ง่าย เครื่องมือในการสร้างภาพ เสียง หรือข้อความปลอมผ่าน AI มีการเข้าถึงได้ง่ายในปัจจุบัน ไม่ว่าจะเป็นผ่านเว็บไซต์บริการออนไลน์ หรือแบบจำลองเปิดเผยรหัส (open-source model) ซึ่งขาดการควบคุมการใช้งานอย่างเข้มงวด
4.กระทบความเชื่อมั่นในระบบยุติธรรม หากประชาชนเริ่มเคลือบแคลงสงสัยในความถูกต้องของหลักฐานที่นำเสนอในศาล เนื่องจากเกรงว่าอาจถูกสร้างขึ้นด้วย AI จะก่อให้เกิดภาวะ 
            
"ความไม่แน่ใจในสิ่งที่เห็น" (epistemic crisis) ขึ้นในสังคม ทำให้ความเชื่อมั่นในระบบยุติธรรมและข้อเท็จจริงตามหลักฐานสั่นคลอน

แนวทางรับมือกับปัญหาหลักฐานเท็จจาก AI
เพื่อรับมือกับปัญหาการใช้ AI สร้างพยานหลักฐานเท็จ ซึ่งถือเป็นภัยต่อระบบกฎหมายและความยุติธรรมอย่างยิ่ง มีแนวทางต่างๆ ที่กำลังถูกพิจารณาและนำมาใช้ ได้แก่:
1.พัฒนาเครื่องมือตรวจจับ AI-generated content การสร้างและพัฒนาเครื่องมือทางเทคนิคเพื่อช่วยในการตรวจจับเนื้อหาที่สร้างโดย AI เช่น เครื่องมือตรวจจับ Deepfake การวิเคราะห์ข้อมูล          เมทาดาตา (metadata) ของไฟล์ หรือการวิเคราะห์รูปแบบ (pattern) เฉพาะของโมเดล AI ที่ใช้ในการสร้างเนื้อหา

2.บัญญัติกฎหมายเฉพาะ หลายประเทศเริ่มร่างกฎหมายที่เกี่ยวข้องกับการใช้ AI เพื่อสร้างเนื้อหาปลอมโดยมีเจตนาหลอกลวงโดยเฉพาะ เช่น ในบางรัฐของสหรัฐอเมริกา การใช้ Deepfake เพื่อหลอกลวงในคดีอาญาถือเป็นความผิดทางกฎหมาย EU AI Act ก็มีแนวทางที่จะควบคุมกรณี "การใช้ AI อย่างมีความเสี่ยงสูง" ซึ่งอาจรวมถึงการสร้างเนื้อหาที่ทำให้เข้าใจผิด

3.เพิ่มบทลงโทษสำหรับผู้ใช้ AI สร้างหลักฐานเท็จ การกำหนดบทลงโทษที่หนักขึ้นสำหรับผู้ที่ใช้เครื่องมืออัตโนมัติอย่าง AI ในการสร้างหลักฐานเท็จ โดยพิจารณาว่าเป็นการกระทำที่มีเจตนาทำร้ายผู้อื่นด้วยเครื่องมือที่มีประสิทธิภาพสูง อาจจำเป็นต้องมีโทษที่หนักกว่าการปลอมแปลงเอกสารธรรมดา
4.ความรู้และการฝึกอบรมเจ้าหน้าที่ จำเป็นต้องมีการฝึกอบรมให้แก่เจ้าหน้าที่ผู้บังคับใช้กฎหมาย เช่น ตำรวจ อัยการ และผู้พิพากษา ให้มีความรู้ความเข้าใจเกี่ยวกับเทคโนโลยี AI และวิธีการตรวจสอบหลักฐานสมัยใหม่ที่อาจถูกสร้างขึ้นโดย AI
กล่าวโดยสรุป การรับมือกับปัญหานี้ต้องอาศัยมาตรการแบบองค์รวม ทั้งในมิติของกฎหมาย เครื่องมือตรวจสอบ และการสร้างความรู้เท่าทันในหมู่ทุกฝ่ายที่เกี่ยวข้อง
สถานการณ์ในประเทศไทย
สำหรับประเทศไทย สถานการณ์เกี่ยวกับปัญหาการใช้ AI สร้างหลักฐานเท็จมีความเฉพาะเจาะจงและยังมีความท้าทายหลายประการ:
1.กฎหมายไทยยังไม่มีบทบัญญัติเฉพาะ กฎหมายไทยในปัจจุบันยังไม่มีบทบัญญัติที่กล่าวถึงการปลอมแปลงหลักฐานโดยใช้ AI หรือ Deepfake โดยตรง แม้ว่าจะมีกฎหมายบางฉบับที่อาจนำมาปรับใช้ได้ในบางกรณี เช่น ประมวลกฎหมายอาญามาตรา 265 (ปลอมเอกสารราชการ) มาตรา 268 (ใช้เอกสารปลอม) หรือ มาตรา 14 ของ พ.ร.บ.คอมพิวเตอร์ฯ (นำเข้าข้อมูลปลอมที่บิดเบือนความจริงและก่อให้เกิดความเสียหาย) รวมถึง พ.ร.บ.ป้องกันและปราบปรามการฟอกเงิน หากหลักฐานปลอมนำไปสู่การหลอกลวงทางการเงิน
 
แต่ประเด็นคือ กฎหมายเหล่านี้ไม่ได้ระบุคำว่า "AI" หรือ "Deepfake" โดยตรง ทำให้เกิดความคลุมเครือในการตีความ เช่น หากเป็นคลิปเสียงปลอมที่ไม่ได้อยู่ในรูปแบบ "เอกสาร" จะยังถือว่าเป็นการ "ปลอมเอกสาร" หรือไม่ หรือหาก AI สร้างข้อความเท็จในรูปแบบการสนทนา ใครควรเป็นผู้รับผิดชอบ

2.หน่วยงานบังคับใช้กฎหมายยังขาดความเชี่ยวชาญ เจ้าหน้าที่ตำรวจและเจ้าหน้าที่สอบสวนจำนวนมากยังไม่มีเครื่องมือหรือทักษะที่จำเป็นในการตรวจสอบ Deepfake หรือข้อมูลที่สร้างโดย AI ทำให้การพิสูจน์ว่าเนื้อหานั้นมาจาก AI หรือไม่ เป็นเรื่องที่ทำได้ยากและต้องใช้เวลา

3.ศาลยังไม่มีแนววินิจฉัยแน่ชัด ยังไม่มีแนวคำพิพากษาในประเทศไทยที่ยืนยันว่าหลักฐานที่สร้างจาก AI สามารถนำมาใช้ในกระบวนการพิจารณาคดีได้หรือไม่ หรือมีน้ำหนักเพียงใด หากเกิดคดีที่มีการใช้หลักฐานจาก AI และคู่ความฝ่ายหนึ่งโต้แย้งว่าเป็นของปลอม อาจต้องมีการนำผู้เชี่ยวชาญมาเบิกความ ซึ่งอาจเป็นประเด็นใหม่ที่ศาลยังไม่คุ้นเคย
4.ความเสี่ยงในทางการเมืองและสื่อ เคยมีกรณีในประเทศไทยที่มีการเผยแพร่คลิปเสียงหรือภาพปลอมในช่วงที่มีความอ่อนไหวทางการเมือง แม้ว่าในภายหลังคลิปเหล่านั้นจะได้รับการพิสูจน์แล้วว่าเป็นของปลอม แต่ความเสียหายในเชิงสังคมและการเมืองได้เกิดขึ้นไปแล้วอย่างรวดเร็ว
5.ประชาชนขาดความรู้เท่าทัน ประชาชนจำนวนมากยังคง  เชื่อข้อมูลที่เห็นในรูปแบบของคลิป ภาพ หรือเสียง โดยไม่ได้ตระหนักถึงความเป็นไปได้ว่าเนื้อหานั้นอาจถูกสร้างขึ้นโดย AI ส่งผลให้มีการแชร์และเผยแพร่หลักฐานปลอมเหล่านั้นออกไปอย่างรวดเร็วในสื่อสังคมออนไลน์
ข้อเสนอแนะแนวทาง
ประเทศไทยยังอยู่ในช่วงเริ่มต้นของการเผชิญกับปัญหาการใช้ AI สร้างหลักฐานเท็จ กฎหมายยังไม่ชัดเจน เจ้าหน้าที่ยังไม่พร้อม และประชาชนยังไม่รู้เท่าทัน เพื่อป้องกันไม่ให้ความเชื่อถือในกระบวนการยุติธรรมถูกบ่อนทำลายจาก AI จำเป็นต้องมียุทธศาสตร์เชิงรุก โดยผู้เขียนมีข้อเสนอแนะดังนี้:
1.ออกกฎหมายใหม่ ควรมีการร่าง " พ.ร.บ.การใช้ AI อย่างมีความรับผิด" หรือ แก้ไขเพิ่มเติม พ.ร.บ.คอมพิวเตอร์ฯ ให้มีบทบัญญัติที่รองรับและควบคุมเนื้อหาที่สร้างจาก AI โดยเฉพาะ

2.เพิ่มทักษะเจ้าหน้าที่ จัดให้มีการฝึกอบรมแก่เจ้าหน้าที่ตำรวจ อัยการ และศาล ให้มีความรู้และทักษะในการตรวจสอบ Deepfake และเนื้อหาที่สร้างโดย AI
3.สร้างหน่วยงานเฉพาะ จัดตั้งหน่วยงานที่มีความเชี่ยวชาญเฉพาะด้าน เช่น " ศูนย์วิเคราะห์เนื้อหาปลอมจาก AI " เพื่อทำงานร่วมกับหน่วยงานบังคับใช้กฎหมาย เช่น กรมสอบสวนคดีพิเศษ (DSI) หรือสำนักงานตำรวจแห่งชาติ
4.ให้ความรู้ประชาชน จัดการรณรงค์เพื่อให้ความรู้แก่ประชาชนเกี่ยวกับวิธีการตรวจสอบแหล่งข้อมูล ทำความรู้จักกับเนื้อหาที่สร้างโดย AI และไม่หลงเชื่อคลิปหรือภาพปลอมที่เผยแพร่ทางออนไลน์ง่ายๆ
5. ใช้เทคโนโลยีสู้ AI  พัฒนาหรือนำเครื่องมือทางเทคโนโลยีมาใช้ในการตรวจสอบภาพ เสียง หรือเอกสารปลอม เพื่อให้หน่วยงานรัฐสามารถนำไปใช้ได้อย่างมีประสิทธิภาพ
สรุปปัญหาทางกฎหมายเกี่ยวกับ AI มีความซับซ้อนและหลากหลาย ทั้งในส่วนของการกำหนดความรับผิดเมื่อ AI ก่อให้เกิดความเสียหาย และปัญหาที่ร้ายแรงคือการใช้ AI ในการสร้างพยานหลักฐานเท็จ ซึ่งเป็นภัยคุกคามโดยตรงต่อความน่าเชื่อถือของระบบยุติธรรม ในขณะที่หลายประเทศกำลังพัฒนากรอบกฎหมายและเครื่องมือเพื่อรับมือ ประเทศไทยยังคงมีช่องว่างและความ ท้าทายทั้งในด้านกฎหมาย การบังคับใช้ และความรู้เท่าทันของประชาชน ดังนั้น การดำเนินการเชิงรุกตามข้อเสนอแนะข้างต้นจึงมีความจำเป็นอย่างยิ่ง เพื่อสร้างความพร้อมและรักษาความเชื่อมั่นในกระบวนการยุติธรรมในยุคที่ AI มีบทบาทเพิ่มขึ้นอย่างต่อเนื่อง
             
บทความทางกฎหมายเรื่องนี้ อาจจะเป็นผู้มาก่อนกาล แต่ผู้เขียนเชื่อว่า ในอนาคตจะเกิดปัญหาดังที่ผู้เขียนในนำเสนอบทความในเรื่องนี้เป็นแน่แท้

•นายวรเทพ สกุลพิชัยรัตน์
•อัยการศาลสูงจังหวัดสมุทรปราการ
•(อดีต) รองประธานคณะอนุกรรมาธิการการศึกษาการปฏิรูปกระบวนการยุติธรรม และสิทธิมนุษยชน ในคณะกรรมาธิการการกฎหมาย การยุติธรรมและสิทธิมนุษยชน (คนที่สอง) ในสภาผู้แทนราษฎร สมัยที่ 25
5 มิถุนายน 2568
โดย...อัยการวรเทพ สกุลพิชัยรัตน์