ข่าวสารและบทความล่าสุด

Athentic Consulting’s team of experienced experts bring you the
latest news and insights in law and regulations.

ใช้งาน ChatGPT อย่างมั่นใจ : เข้าใจการเก็บข้อมูลและมาตรการควบคุมภายในองค์กร

ในยุคที่เทคโนโลยีปัญญาประดิษฐ์ (AI) อย่าง ChatGPT กลายเป็นผู้ช่วยดิจิทัลของใครหลายคน ทั้งด้านการทำงาน หรือแม้กระทั่งการใช้ชีวิตประจำวัน อย่างการทำแผนการท่องเที่ยว ร่างจดหมาย ไปจนถึงตัวช่วยในการคำนวณภาษี ผู้คนจำนวนมากต่างเลือกใช้งาน AI แทนการค้นหาข้อมูลด้วยวิธีการเดิมๆ และแน่นอนว่า คำตอบของ AI จะเฉพาะเจาะจงและเหมาะสมกับผู้ใช้งานได้มากที่สุดก็ต่อเมื่อมีการป้อนข้อมูลที่เพียงพอแก่ AI ซึ่งนำมาสู่คำถามสำคัญที่หลายคนสงสัย คือ

  • “ChatGPT ประเภทนี้รู้จักผู้ใช้งานมากน้อยแค่ไหน?”
  • “ChatGPT เก็บข้อมูลผู้ใช้งานไว้หรือไม่?”
  • “ข้อมูลที่ผู้ใช้งานให้ไปจะถูกเก็บไว้อย่างอย่างไร?”

คำถามเหล่านี้แอบแฝงไปด้วยประเด็นสำคัญ และเกี่ยวข้องโดยตรงกับ สิทธิของเจ้าของข้อมูลส่วนบุคคล ที่ได้รับการคุ้มครองภายใต้พระราชบัญญัติคุ้มครองข้อมูลส่วนบุคคล พ.ศ. 2562 (“PDPA”)

และเพื่ออธิบายให้เข้าใจง่ายขึ้น บทความนี้จะขอยกตัวอย่าง AI tool ยอดนิยมอย่าง ChatGPT และตอบคำถามต่างๆ ดังนี้


“AI ประเภท ChatGPT” คืออะไร

ChatGPT เป็นตัวอย่างของสิ่งที่เรียกว่า Large Language Model (LLM) หรือ โมเดลภาษาขนาดใหญ่ ซึ่งเป็นปัญญาประดิษฐ์ (Artificial Intelligence - AI) ประเภทนึ่งที่เน้นการทำความเข้าใจและสร้างข้อความ (Natural Language Processing - NLP) เช่น การตอบคำถาม บทสนทนา หรือการสร้างเอกสารต่างๆ


ChatGPT “รู้จักผู้ใช้งาน” แค่ไหน?

ChatGPT ไม่ได้ “รู้จักผู้ใช้งานโดยกำเนิด” แต่จะรู้เท่าที่ผู้ใช้งานได้ให้ข้อมูลเท่านั้น เนื่องจากตัวโมเดลไม่มีฐานข้อมูลส่วนบุคคลของผู้ใช้ เช่น อีเมล เบอร์โทรศัพท์ หรือบัญชีโซเชียลมีเดีย แต่สิ่งที่ต้องระวัง คือ การที่ “ผู้ใช้งาน” ได้เปิดเผยข้อมูลส่วนบุคคลเองโดยไม่รู้ตัว เช่น การออกคำสั่ง “ช่วยร่างจดหมายถึงหัวหน้าชื่อคุณศิริชัย จากบริษัท ABC พร้อมแนบเบอร์ 09x-xxx-xxxx ให้ด้วย” ซึ่งข้อความลักษณะนี้มี ข้อมูลส่วนบุคคล ที่สามารถระบุตัวตนบุคลได้โดยตรงและโดยอ้อม ไม่ว่าจะเป็นทั้ง ชื่อ-นามสกุล หน่วยงาน และเบอร์โทรศัพท์ ซึ่ง ถือเป็น “ข้อมูลส่วนบุคคล” ตาม PDPA จึงส่งผลให้เกิดคำถามในข้อถัดไปนั่นคือ


ChatGPT เก็บข้อมูลผู้ใช้งานไว้หรือไม่?

ChatGPT นั้นจะทำการเก็บข้อความ (prompt) และบทสนทนาที่ผู้ใช้งานส่งเข้ามา เพื่อใช้เป็นข้อมูลสำหรับการประมวลผลข้อมูลตามคำสั่งและปรับปรุงระบบ AI ซึ่งข้อมูลเหล่านี้รวมถึงเนื้อหาที่ผู้ใช้งานถามและคำตอบที่ได้รับจาก ChatGPT โดยบริษัท Open AI ซึ่งเป็นผู้ให้บริการ ChatGPT จะบันทึกข้อมูลเหล่านี้เอาไว้ นอกจากนี้ OpenAI ยังเก็บข้อมูล IT อื่นๆ เช่น IP Address เวลาการเข้าใช้งาน และประเภทของ browser ที่ใช้งาน เพื่อใช้สำหรับวิเคราะห์การใช้งาน อย่างไรก็ตาม ChatGPT จะไม่เข้าถึงข้อมูลส่วนตัวอื่นๆ ในอุปกรณ์อิเล็กทรอนิกส์ของผู้ใช้งานและจะไม่บันทึกเสียงหรือภาพใดๆ นอกจากสิ่งที่ผู้ใช้งานส่งข้อมูลให้ระบบผ่านหน้าแชทเท่านั้น


ข้อมูลที่ผู้ใช้งานให้ไปจะถูกเก็บไว้อย่างอย่างไร?

 ChatGPT จะเก็บรักษาข้อมูลส่วนบุคคลของผู้ใช้งานภายในกรอบเวลาเท่าที่จำเป็นเพื่อให้บริการ โดย ระยะเวลาในการเก็บรักษาข้อมูลจะขึ้นอยู่กับปัจจัยต่างๆ และในบางกรณี ระยะเวลาที่เก็บรักษาข้อมูลจะขึ้นอยู่กับการตั้งค่าของผู้ใช้งาน ตัวอย่างเช่น แชทชั่วคราวของ ChatGPT จะไม่ปรากฎอยู่ในประวัติของผู้ใช้งาน โดยจะถูกเก็บไว้ไม่เกิน 30 วันเพื่อวัตถุประสงค์ด้านความปลอดภัย

 มาตรการรักษาความปลอดภัยของ ChatGPT นั้น ระบุเอาไว้ว่ามีมาตรการด้านเทคนิค การจัดการและมาตรการระดับองค์กรที่เหมาะสมในเชิงพาณิชย์เพื่อปกป้องข้อมูลส่วนบุคคลจากความเสียหายที่อาจเกิดจากการใช้งานผิดวัตถุประสงค์และการเข้าถึง เปิดเผย แก้ไข หรือลบทำลายข้อมูลโดยไม่ได้รับอนุญาต ทั้งนี้ ผู้ใช้งานควรระมัดระวังเป็นพิเศษในการพิจารณาข้อมูลส่วนบุคคลที่ให้แก่ ChatGPT เนื่องจาก ChatGPT จะไม่รับผิดชอบใดๆ หากมีการหลีกเลี่ยงการตั้งค่าความเป็นส่วนตัวหรือมาตรการรักษาความปลอดภัยที่มีจัดไว้ในส่วนของบริการหรือในเว็บไซต์ของบุคคลที่สาม


ความเสี่ยงและข้อควรระวังด้านความเป็นส่วนตัวของข้อมูล

 การที่ ChatGPT เก็บข้อมูลส่วนบุคคลของผู้ใช้งานไว้ หมายความว่าความเป็นส่วนตัวของข้อมูลนั้นก็อาจมีความเสี่ยงเช่นกัน

  • หากผู้ใช้งานป้อนข้อมูลส่วนบุคคล เช่น ชื่อ-นามสกุล เบอร์โทรศัพท์ ที่อยู่ เลขบัตรประจำตัวประชาชน เป็นต้น ข้อมูลเหล่านั้นก็จะถูกส่งไปเก็บยังเซิร์ฟเวอร์ของ Open AI ทันที และหากเกิดการรั่วไหลหรือการเข้าถึงโดยบุคคลภายนอก ก็อาจเกิดเหตุละเมิดข้อมูลส่วนบุคคลได้
  • ข้อมูลที่ส่งไปยัง ChatGPT จะถูกประมวลผลบนเซิร์ฟเวอร์ต่างประเทศ ซึ่งตามกฎหมาย PDPA หากมีการส่งข้อมูลส่วนบุคคลออกนอกประเทศจะต้องมีกฎหมายคุ้มครองข้อมูลที่เพียงพอ ดังนั้น การให้ข้อมูลส่วนบุคคลแก่ ChatGPT จะถือเป็นการส่งข้อมูลข้ามประเทศทันที ซึ่งต้องพึงพิจารณาหลักในการส่งหรือโอนข้อมูลไปยังต่างประเทศตาม PDPA ประกอบด้วย
  • แม้ผู้ใช้งานจะลบประวัติการสนทนาออกจากหน้าต่างแชท หรือใช้โหมดแชทชั่วคราว ข้อมูลนั้นจะยังคงถูกเก็บไว้ในระบบ OpenAI ชั่วระยะเวลาหนึ่ง (สูงสุด 30 วัน) จึงอาจมีการเข้าถึงประวัติแชทได้ แม้ผู้ใช้งานจะลบข้อมูลไปแล้วก็ตาม
  • ChatGPT อาจสร้างข้อมูลที่ไม่ถูกต้องขึ้นหรือเรียกว่า ‘AI Hallucination’ หมายถึง ภาวะที่ปัญญาประดิษฐ์ (AI) โดยเฉพาะโมเดลภาษาขนาดใหญ่ เช่น ChatGPT สร้างข้อมูลที่ “ฟังดูเหมือนจริง” แต่จริง ๆ แล้วไม่ถูกต้อง ไม่แม่นยำ หรือไม่มีอยู่จริง เช่น กรณีผู้ใช้งานพบว่า ChatGPT ให้ข้อมูลวันเกิดของผู้ใช้งานผิด จากนั้นผู้ใช้งานจึงขอใช้สิทธิของตนตามกฎหมาย GDPR ให้แก้ไขข้อมูลวันเกิดของตนให้ถูกต้อง แต่ทั้งนี้ OpenAI ไม่สามารถแก้ไขหรือลบข้อมูลที่ผิดพลาดได้ เนื่องจากการประมวลผลของ ChatGPT ทำโดยระบบอัตโนมัติและอัลกอริทึมที่กำหนดไว้ แม้แต่ OpenAI ก็ไม่สามารถแก้ไขผลลัพธ์ได้

และที่กล่าวมาข้างต้น คือ ความเสี่ยงต่าง ๆ ที่อาจเกิดขึ้นกับข้อมูลส่วนบุคคลจากการใช้ ChatGPT ในชีวิตประจำวันรวมถึงการทำงานภายในองค์กร อย่างไรก็ตาม จะทำอย่างไรให้สามารถนำ ChatGPT มาใช้งานภายในองค์กรได้อย่างปลอดภัยและเป็นไปตามมาตรฐานของ PDPA ต่อไปนี้จึงจะการกล่าวถึงแนวทางที่จะช่วยให้ทุกท่านยังคงสามารถเพิ่มประสิทธิภาพด้วยการใช้งาน Chat GPT ในการทำงานหรือใช้ชีวิตประจำวันได้อย่างปลอดภัย


แนวทางการกำกับบุคลากรและมาตรการสำหรับการใช้ ChatGPT ภายใต้ PDPA ของผู้ควบคุมข้อมูลส่วนบุคคล

การนำ ChatGPT มาใช้ในการดำเนินงานต่างๆ ภายในองค์กรนั้นจำเป็นที่จะต้องมีมาตรการรักษาความปลอดภัยเพื่อกำกับดูแลการใช้งานที่ชัดเจน เพื่อให้การใช้งานเป็นไปอย่างปลอดภัย โปร่งใส และสอดคล้องกับกฎหมายคุ้มครองข้อมูลส่วนบุคคล โดยผู้ควบคุมข้อมูลส่วนบุคคลอาจกำหนดให้มีมาตรการดังนี้

1.จัดอบรมบุคลากรเกี่ยวกับการใช้ ChatGPT ให้ปลอดภัยตามกฎหมายคุ้มครองข้อมูลส่วนบุคคล (PDPA Awareness)

การจัดอบรมให้ความรู้แก่บุคลากรทุกระดับ ถือเป็นหนึ่งในมาตรการด้านการบริหารจัดการความมั่นคงปลอดภัยตามประกาศคณะกรรมการคุ้มครองข้อมูลส่วนบุคคล ว่าด้วยมาตรการรักษาความมั่นคงปลอดภัยของข้อมูลส่วนบุคคล พ.ศ. 2565 โดยเนื้อหาอาจครอบคลุมตั้งแต่ข้อมูลพื้นฐานเกี่ยวกับการใช้ ChatGPT ผลกระทบและความเสี่ยงที่อาจเกิดขึ้นต่อข้อมูลส่วนบุคคล ตลอดจนหลักการคุ้มครองข้อมูลส่วนบุคคลตาม PDPA เพื่อเสริมสร้างความตระหนักรู้แก่บุคลากรในการปฏิบัติงานอย่างปลอดภัยและเป็นไปตามกฎหมาย

อีกทั้ง การมีบุคลากรที่เข้าใจความเสี่ยงด้านการใช้งาน ChatGPT และข้อมูลส่วนบุคคลจะช่วยให้หน่วยงานสามารถป้องกันการละเมิดสิทธิของเจ้าของข้อมูล ลดความเสี่ยงจากการใช้เทคโนโลยีไม่เหมาะสม และยังเป็นส่วนสำคัญในการยกระดับมาตรการรักษาความมั่นคงปลอดภัยของข้อมูล ให้สอดคล้องกับข้อกำหนด ด้านมาตรการเชิงองค์กรอีกด้วย

2.จัดให้มีการประเมินผลกระทบด้านข้อมูลส่วนบุคคล (DPIA หรือ Data Protection Impact Assessment) ก่อนใช้งาน ChatGPT

 การใช้ ChatGPT องค์กรจำเป็นต้องพิจารณาว่ากิจกรรมนั้นเข้าข่ายต้องจัดทำ DPIA หรือไม่ ตามหลักการคุ้มครองข้อมูลส่วนบุคคล DPIA ถือเป็นข้อกำหนดเมื่อการประมวลผลข้อมูลมีความเสี่ยงสูงต่อสิทธิและเสรีภาพของเจ้าของข้อมูล เช่น การประมวลผลข้อมูลส่วนบุคคลอ่อนไหว การใช้ AI เพื่อการตัดสินใจอัตโนมัติที่มีผลกระทบต่อบุคคล การทำโปรไฟลิ่ง การประมวลผลข้อมูลในวงกว้าง หรือการโอนข้อมูลไปยังผู้ให้บริการ AI ที่ตั้งอยู่ต่างประเทศ ในกรณีเช่นนี้ ผู้ควบคุมข้อมูลส่วนบุคคลควรจัดทำ (Data Protection Impact Assessment: DPIA) ก่อน ทั้งนี้ก็เพื่อที่จะระบุความเสี่ยงที่อาจเกิดขึ้นกับสิทธิของเจ้าของข้อมูลส่วนบุคคลจากการใช้ ChatGPT ประมวลผลข้อมูลส่วนบุคคล และตรวจสอบว่ามาตรการรักษาความมั่นคงปลอดภัยขององค์กรว่าเหมาะสมเพียงพอหรือไม่ เช่น แนวทางของกระทรวงแรงงานแห่งประเทศไทยเมื่อปี 2024 ได้แนะนำให้องค์กรทำการประเมินผลกระทบก่อนการนำมาใช้งาน เพื่อป้องกันผลเสียต่อพนักงานและเจ้าของข้อมูลส่วนบุคคล ในทางกลับกัน หากการใช้ GPT ไม่ได้ประมวลผลข้อมูลส่วนบุคคล ใช้เฉพาะข้อมูลที่ไม่สามารถระบุตัวบุคคลได้ หรือใช้ภายในระบบที่มีมาตรการรักษาความปลอดภัยเพียงพอและไม่ก่อให้เกิดผลกระทบต่อสิทธิของเจ้าของข้อมูลอย่างมีนัยสำคัญ ก็อาจไม่จำเป็นต้องทำ DPIA แต่ควรบันทึกเหตุผลประกอบเพื่อยืนยันความสอดคล้องตาม PDPA และมาตรฐานการจัดการความเสี่ยงของผู้ควบคุมข้อมูลส่วนบุคคล

3.นโยบายและแนวปฏิบัติที่ชัดเจนในการใช้ ChatGPT

 องค์กรควรจัดทำนโยบายการใช้งาน ChatGPT เพื่อกำกับการดำเนินงานภายในองค์กรอย่างชัดเจน โดยกำหนดขอบเขตและวิธีการใช้งานที่สอดคล้องกับวัตถุประสงค์การดำเนินการขององค์กร และกฎหมายต่างๆ ที่เกี่ยวข้อง ซึ่งนโยบายการใช้ นี้ควรระบุหลักการสำคัญ ดังนี้

  • ขอบเขตการใช้ ChatGPT ให้ไม่เกินวัตถุประสงค์การประมวลผลข้อมูลส่วนบุคคล
  • สิทธิของเจ้าของข้อมูลส่วนบุคคล
  • การปฏิบัติตามกฎหมายคุ้มครองข้อมูลส่วนบุคคลอย่างเคร่งครัด
  • กำหนดบทบาทหน้าที่ของผู้บริหาร พนักงานหรือผู้ที่มีส่วนเกี่ยวข้องในการกำกับดูแลความเสี่ยงที่อาจเกิดขึ้นจากการใช้งาน ChatGPT โดยเฉพาะ

กรณีตัวอย่าง ธนาคารแห่งประเทศไทยได้ออกร่างแนวปฏิบัติให้สถาบันการเงินต้องจัดทำนโยบายการใช้ AI ที่สอดคล้องกับเป้าหมายองค์กร ข้อกำหนดทางกฎหมาย และหลักการด้านความเป็นธรรม พร้อมทั้งมีมาตรการทบทวนเป็นระยะเพื่อให้ทันต่อความก้าวหน้าของเทคโนโลยีและความเสี่ยงใหม่ที่อาจเกิดขึ้น การมีนโยบายชัดเจนเช่นนี้จะช่วยให้องค์กรมีกรอบในการตัดสินใจเกี่ยวกับ AI หรือให้บุคลากรทุกคนปฏิบัติงานให้เป็นไปในแนวทางเดียวกัน

4.ช่องทางร้องเรียนเมื่อเกิดผลกระทบต่อเจ้าของข้อมูลส่วนบุคคล

 ในประเด็นนี้กฎหมายคุ้มครองข้อมูลส่วนบุคคลของประเทศไทยไม่ได้มีบทบัญญัติที่ชัดเจน ถึงเรื่องสิทธิในการไม่ถูกตัดสินใจโดยระบบอัตโนมัติ อย่างที่กฎหมาย GDPR มาตรา 22 ได้กำหนดไว้ อย่างไรก็ตาม ผู้ควบคุมข้อมูลในประเทศไทยควรที่จะจัดให้มีช่องทางการใช้สิทธิของเจ้าของข้อมูลส่วนบุคคลสามารถขอใช้สิทธิตามกฎหมายคุ้มครองข้อมูลส่วนบุคคล และให้สามารถร้องเรียนหรือขอทบทวนการตัดสินใจที่เกิดจาก ChatGPT โดยอาจมีวิธีการดังนี้

  • ควรมีการแจ้งให้ทราบและขอความยินยอม เช่น หากมีการใช้ AI ในการตัดสินใจที่กระทบสิทธิของบุคคล (เช่น การอนุมัติสินเชื่อ หรือการคัดกรองสมัครงาน) องค์กรควรแจ้งให้เจ้าของข้อมูลทราบอย่างชัดเจนว่าเป็นการตัดสินใจโดยระบบอัตโนมัติ และอาจขอความยินยอมในการใช้งานในกระบวนการนั้นเมื่อมีความจำเป็นและเหมาะสม และสำหรับในบางกรณีที่เป็นไปได้ก็ควรเสนอทางเลือกให้เจ้าของข้อมูล และใช้วิธีการอื่นในการประมวลผลข้อมูลส่วนบุคคล
  • กระบวนการยื่นคำร้องให้มีการทบทวนหรือตรวจสอบซ้ำโดยมนุษย์ องค์กรควรจัดให้มีขั้นตอนให้เจ้าของข้อมูลสามารถยื่นคำร้องขอให้มีการพิจารณาการตัดสินใจของ AI ซ้ำโดยมนุษย์ได้ โดยเฉพาะในกรณีที่การตัดสินใจนั้นก่อให้เกิดผลในทางกฎหมายหรือมีผลกระทบต่อสิทธิของเจ้าของข้อมูล (เช่น ถูกปฏิเสธการให้บริการ) และแม้กฎหมาย PDPA ของประเทศไทยจะยังไม่มีข้อกำหนดนี้โดยตรง แต่ในกฎหมาย GDPR นั้นได้กำหนดไว้อย่างชัดเจนว่าเจ้าของข้อมูลมีสิทธิขอให้มีการทบทวนโดยมนุษย์ และแสดงความเห็นโต้แย้งการตัดสินใจอัตโนมัติจาก AI ได้ ซึ่งการปฏิบัติตามหลักการนี้จะช่วยให้องค์กรลดความเสี่ยงด้านชื่อเสียงหากเกิดความไม่เป็นธรรมที่เกิดจากการใช้ AI ได้ ทั้งนี้ ช่องทางดังกล่าวควรจัดให้เจ้าของข้อมูลส่วนบุคคลสามารถยื่นคำขอใช้สิทธิได้โดยง่าย เช่น การร้องขอใช้สิทธิผ่านเว็บไซต์หรือระบบภายในขององค์กร และมีการกำหนดระยะเวลาในการแก้ไขปัญหาและตอบกลับอย่างเหมาะสมตามมาตรฐานของกฎหมาย PDPA

ด้วยเหตุนี้การเลี่ยงการใช้งาน AI หรือ ChatGPT อาจไม่ใช่ทางออก แต่หากเราสามารถใช้งานอย่างรู้เท่าทัน ก็จะส่งผลให้การใช้งานอยู่ในกรอบและขอบเขตที่สามารถควบคุมได้ อีกทั้ง การใช้งานเทคโนโลยีดังกล่าวอย่างมีความรับผิดชอบไม่ใช่แค่เรื่องเทคนิค แต่เป็นเรื่องของ “เจ้าของข้อมูลส่วนบุคคล–กระบวนการ–เทคโนโลยี–สิทธิของเจ้าของข้อมูล” ที่ต้องเดินไปด้วยกัน องค์กรจึงจำเป็นต้องสร้างความรับรู้และจิตสำนึกให้แก่บุคลากรถึงข้อควรระวังหรือขอบเขตการใช้งานภายใต้ดนโยบายที่กำหนดอย่างชัดเจน รวมถึงการส่งเสริมมาตรการความปลอดภัยของระบบ และจัดเตรียมช่องทางที่เหมาะสมแก่เจ้าของข้อมูลได้สามารถเข้าตรวจสอบหรือโต้แย้งการตัดสินใจของ AI ได้อย่างมีประสิทธิภาพ

หากสามารถปฏิบัติได้ดังนี้ ทุกคนจะสามารถใช้ ChatGPT ได้อย่างมั่นใจ โปร่งใส และเคารพสิทธิส่วนบุคคล สอดคล้องกับ PDPA และมาตรฐานสากล พร้อมสร้างความเชื่อมั่นและความรับผิดชอบในยุคดิจิทัลอย่างแท้จริง



แหล่งอ้างอิง:

  •   Comparisons between European Union’s General Data Protection Regulation and Japan’s Act on the Protection of Personal Information, Nishimura & Asahi, April 7, 2022, Nishimura & Asahi Knowledge, https://www.nishimura.com/en/knowledge/publications/20220407-32816
  •   Nishimura & Asahi, “Comparisons between European Union’s General Data Protection Regulation and Thailand’s Personal Data Protection Act,” Nishimura & Asahi Knowledge (7 April 2022), sec. “The similarities in individuals’ rights …” (highlighting “restriction of data portability …”), accessed 19 November 2025, https://www.nishimura.com/en/knowledge/publications/20220407-32816
  • Thailand PDPA vs GDPR: Differences Unraveled, CAPTAIN COMPLIANCE, https://captaincompliance.com/education/thailand-pdpa-vs-gdpr/ (last visited Nov. 19, 2025).
  •   Formichella et al., Artificial Intelligence, Machine Learning, and Big Data in Thailand: Legal and Regulatory Developments 2025, LEXOLOGY (July 8, 2025), https://www.lexology.com/library/detail.aspx?g=54e27706-1d02-4e28-8886-a1ca53e87b91.
  •   Bank of Thailand, Draft Policy on Risk Management for the Use of Artificial Intelligence (AI), BOT Public Hearing (June 12, 2025), https://www.bot.or.th/th/laws-and-rules/public-hearing/public-hearing-20250612.html (last visited Nov. 26, 2025).
  • ChatGPT ภาพหลอน และการละเมิดข้อมูลส่วนบุคคล, BANGKOKBIZNEWS (May 18, 2024), https://www.bangkokbiznews.com/tech/gadget/1127464
  • Privacy Policy, https://openai.com/policies/row-privacy-policy/ (last visited Nov. 7, 2025).
  •  Data Controls FAQ, https://help.openai.com/en/articles/7730893-data-controls-faq

ปัญญ์สุรี กาญจนพงศ์
Lead - Legal Technology Counselor
ภณ พงศ์สำราญกุล
Legal Technology Counselor
ปฏิพล ประกอบกิจ
Legal Technology Counselor
เกี่ยวกับเอเทนติค ข่าวสารและบทความล่าสุด บริการของเรา ติดต่อเรา ร่วมงานกับเรา