ในยุคที่เทคโนโลยีปัญญาประดิษฐ์ (AI) อย่าง ChatGPT กลายเป็นผู้ช่วยดิจิทัลของใครหลายคน ทั้งด้านการทำงาน หรือแม้กระทั่งการใช้ชีวิตประจำวัน อย่างการทำแผนการท่องเที่ยว ร่างจดหมาย ไปจนถึงตัวช่วยในการคำนวณภาษี ผู้คนจำนวนมากต่างเลือกใช้งาน AI แทนการค้นหาข้อมูลด้วยวิธีการเดิมๆ และแน่นอนว่า คำตอบของ AI จะเฉพาะเจาะจงและเหมาะสมกับผู้ใช้งานได้มากที่สุดก็ต่อเมื่อมีการป้อนข้อมูลที่เพียงพอแก่ AI ซึ่งนำมาสู่คำถามสำคัญที่หลายคนสงสัย คือ
คำถามเหล่านี้แอบแฝงไปด้วยประเด็นสำคัญ และเกี่ยวข้องโดยตรงกับ สิทธิของเจ้าของข้อมูลส่วนบุคคล ที่ได้รับการคุ้มครองภายใต้พระราชบัญญัติคุ้มครองข้อมูลส่วนบุคคล พ.ศ. 2562 (“PDPA”)
และเพื่ออธิบายให้เข้าใจง่ายขึ้น บทความนี้จะขอยกตัวอย่าง AI tool ยอดนิยมอย่าง ChatGPT และตอบคำถามต่างๆ ดังนี้
ChatGPT เป็นตัวอย่างของสิ่งที่เรียกว่า Large Language Model (LLM) หรือ โมเดลภาษาขนาดใหญ่ ซึ่งเป็นปัญญาประดิษฐ์ (Artificial Intelligence - AI) ประเภทนึ่งที่เน้นการทำความเข้าใจและสร้างข้อความ (Natural Language Processing - NLP) เช่น การตอบคำถาม บทสนทนา หรือการสร้างเอกสารต่างๆ
ChatGPT ไม่ได้ “รู้จักผู้ใช้งานโดยกำเนิด” แต่จะรู้เท่าที่ผู้ใช้งานได้ให้ข้อมูลเท่านั้น เนื่องจากตัวโมเดลไม่มีฐานข้อมูลส่วนบุคคลของผู้ใช้ เช่น อีเมล เบอร์โทรศัพท์ หรือบัญชีโซเชียลมีเดีย แต่สิ่งที่ต้องระวัง คือ การที่ “ผู้ใช้งาน” ได้เปิดเผยข้อมูลส่วนบุคคลเองโดยไม่รู้ตัว เช่น การออกคำสั่ง “ช่วยร่างจดหมายถึงหัวหน้าชื่อคุณศิริชัย จากบริษัท ABC พร้อมแนบเบอร์ 09x-xxx-xxxx ให้ด้วย” ซึ่งข้อความลักษณะนี้มี ข้อมูลส่วนบุคคล ที่สามารถระบุตัวตนบุคลได้โดยตรงและโดยอ้อม ไม่ว่าจะเป็นทั้ง ชื่อ-นามสกุล หน่วยงาน และเบอร์โทรศัพท์ ซึ่ง ถือเป็น “ข้อมูลส่วนบุคคล” ตาม PDPA จึงส่งผลให้เกิดคำถามในข้อถัดไปนั่นคือ
ChatGPT นั้นจะทำการเก็บข้อความ (prompt) และบทสนทนาที่ผู้ใช้งานส่งเข้ามา เพื่อใช้เป็นข้อมูลสำหรับการประมวลผลข้อมูลตามคำสั่งและปรับปรุงระบบ AI ซึ่งข้อมูลเหล่านี้รวมถึงเนื้อหาที่ผู้ใช้งานถามและคำตอบที่ได้รับจาก ChatGPT โดยบริษัท Open AI ซึ่งเป็นผู้ให้บริการ ChatGPT จะบันทึกข้อมูลเหล่านี้เอาไว้ นอกจากนี้ OpenAI ยังเก็บข้อมูล IT อื่นๆ เช่น IP Address เวลาการเข้าใช้งาน และประเภทของ browser ที่ใช้งาน เพื่อใช้สำหรับวิเคราะห์การใช้งาน อย่างไรก็ตาม ChatGPT จะไม่เข้าถึงข้อมูลส่วนตัวอื่นๆ ในอุปกรณ์อิเล็กทรอนิกส์ของผู้ใช้งานและจะไม่บันทึกเสียงหรือภาพใดๆ นอกจากสิ่งที่ผู้ใช้งานส่งข้อมูลให้ระบบผ่านหน้าแชทเท่านั้น
ChatGPT จะเก็บรักษาข้อมูลส่วนบุคคลของผู้ใช้งานภายในกรอบเวลาเท่าที่จำเป็นเพื่อให้บริการ โดย ระยะเวลาในการเก็บรักษาข้อมูลจะขึ้นอยู่กับปัจจัยต่างๆ และในบางกรณี ระยะเวลาที่เก็บรักษาข้อมูลจะขึ้นอยู่กับการตั้งค่าของผู้ใช้งาน ตัวอย่างเช่น แชทชั่วคราวของ ChatGPT จะไม่ปรากฎอยู่ในประวัติของผู้ใช้งาน โดยจะถูกเก็บไว้ไม่เกิน 30 วันเพื่อวัตถุประสงค์ด้านความปลอดภัย
มาตรการรักษาความปลอดภัยของ ChatGPT นั้น ระบุเอาไว้ว่ามีมาตรการด้านเทคนิค การจัดการและมาตรการระดับองค์กรที่เหมาะสมในเชิงพาณิชย์เพื่อปกป้องข้อมูลส่วนบุคคลจากความเสียหายที่อาจเกิดจากการใช้งานผิดวัตถุประสงค์และการเข้าถึง เปิดเผย แก้ไข หรือลบทำลายข้อมูลโดยไม่ได้รับอนุญาต ทั้งนี้ ผู้ใช้งานควรระมัดระวังเป็นพิเศษในการพิจารณาข้อมูลส่วนบุคคลที่ให้แก่ ChatGPT เนื่องจาก ChatGPT จะไม่รับผิดชอบใดๆ หากมีการหลีกเลี่ยงการตั้งค่าความเป็นส่วนตัวหรือมาตรการรักษาความปลอดภัยที่มีจัดไว้ในส่วนของบริการหรือในเว็บไซต์ของบุคคลที่สาม
การที่ ChatGPT เก็บข้อมูลส่วนบุคคลของผู้ใช้งานไว้ หมายความว่าความเป็นส่วนตัวของข้อมูลนั้นก็อาจมีความเสี่ยงเช่นกัน
และที่กล่าวมาข้างต้น คือ ความเสี่ยงต่าง ๆ ที่อาจเกิดขึ้นกับข้อมูลส่วนบุคคลจากการใช้ ChatGPT ในชีวิตประจำวันรวมถึงการทำงานภายในองค์กร อย่างไรก็ตาม จะทำอย่างไรให้สามารถนำ ChatGPT มาใช้งานภายในองค์กรได้อย่างปลอดภัยและเป็นไปตามมาตรฐานของ PDPA ต่อไปนี้จึงจะการกล่าวถึงแนวทางที่จะช่วยให้ทุกท่านยังคงสามารถเพิ่มประสิทธิภาพด้วยการใช้งาน Chat GPT ในการทำงานหรือใช้ชีวิตประจำวันได้อย่างปลอดภัย
การนำ ChatGPT มาใช้ในการดำเนินงานต่างๆ ภายในองค์กรนั้นจำเป็นที่จะต้องมีมาตรการรักษาความปลอดภัยเพื่อกำกับดูแลการใช้งานที่ชัดเจน เพื่อให้การใช้งานเป็นไปอย่างปลอดภัย โปร่งใส และสอดคล้องกับกฎหมายคุ้มครองข้อมูลส่วนบุคคล โดยผู้ควบคุมข้อมูลส่วนบุคคลอาจกำหนดให้มีมาตรการดังนี้
การจัดอบรมให้ความรู้แก่บุคลากรทุกระดับ ถือเป็นหนึ่งในมาตรการด้านการบริหารจัดการความมั่นคงปลอดภัยตามประกาศคณะกรรมการคุ้มครองข้อมูลส่วนบุคคล ว่าด้วยมาตรการรักษาความมั่นคงปลอดภัยของข้อมูลส่วนบุคคล พ.ศ. 2565 โดยเนื้อหาอาจครอบคลุมตั้งแต่ข้อมูลพื้นฐานเกี่ยวกับการใช้ ChatGPT ผลกระทบและความเสี่ยงที่อาจเกิดขึ้นต่อข้อมูลส่วนบุคคล ตลอดจนหลักการคุ้มครองข้อมูลส่วนบุคคลตาม PDPA เพื่อเสริมสร้างความตระหนักรู้แก่บุคลากรในการปฏิบัติงานอย่างปลอดภัยและเป็นไปตามกฎหมาย
อีกทั้ง การมีบุคลากรที่เข้าใจความเสี่ยงด้านการใช้งาน ChatGPT และข้อมูลส่วนบุคคลจะช่วยให้หน่วยงานสามารถป้องกันการละเมิดสิทธิของเจ้าของข้อมูล ลดความเสี่ยงจากการใช้เทคโนโลยีไม่เหมาะสม และยังเป็นส่วนสำคัญในการยกระดับมาตรการรักษาความมั่นคงปลอดภัยของข้อมูล ให้สอดคล้องกับข้อกำหนด ด้านมาตรการเชิงองค์กรอีกด้วย
การใช้ ChatGPT องค์กรจำเป็นต้องพิจารณาว่ากิจกรรมนั้นเข้าข่ายต้องจัดทำ DPIA หรือไม่ ตามหลักการคุ้มครองข้อมูลส่วนบุคคล DPIA ถือเป็นข้อกำหนดเมื่อการประมวลผลข้อมูลมีความเสี่ยงสูงต่อสิทธิและเสรีภาพของเจ้าของข้อมูล เช่น การประมวลผลข้อมูลส่วนบุคคลอ่อนไหว การใช้ AI เพื่อการตัดสินใจอัตโนมัติที่มีผลกระทบต่อบุคคล การทำโปรไฟลิ่ง การประมวลผลข้อมูลในวงกว้าง หรือการโอนข้อมูลไปยังผู้ให้บริการ AI ที่ตั้งอยู่ต่างประเทศ ในกรณีเช่นนี้ ผู้ควบคุมข้อมูลส่วนบุคคลควรจัดทำ (Data Protection Impact Assessment: DPIA) ก่อน ทั้งนี้ก็เพื่อที่จะระบุความเสี่ยงที่อาจเกิดขึ้นกับสิทธิของเจ้าของข้อมูลส่วนบุคคลจากการใช้ ChatGPT ประมวลผลข้อมูลส่วนบุคคล และตรวจสอบว่ามาตรการรักษาความมั่นคงปลอดภัยขององค์กรว่าเหมาะสมเพียงพอหรือไม่ เช่น แนวทางของกระทรวงแรงงานแห่งประเทศไทยเมื่อปี 2024 ได้แนะนำให้องค์กรทำการประเมินผลกระทบก่อนการนำมาใช้งาน เพื่อป้องกันผลเสียต่อพนักงานและเจ้าของข้อมูลส่วนบุคคล ในทางกลับกัน หากการใช้ GPT ไม่ได้ประมวลผลข้อมูลส่วนบุคคล ใช้เฉพาะข้อมูลที่ไม่สามารถระบุตัวบุคคลได้ หรือใช้ภายในระบบที่มีมาตรการรักษาความปลอดภัยเพียงพอและไม่ก่อให้เกิดผลกระทบต่อสิทธิของเจ้าของข้อมูลอย่างมีนัยสำคัญ ก็อาจไม่จำเป็นต้องทำ DPIA แต่ควรบันทึกเหตุผลประกอบเพื่อยืนยันความสอดคล้องตาม PDPA และมาตรฐานการจัดการความเสี่ยงของผู้ควบคุมข้อมูลส่วนบุคคล
องค์กรควรจัดทำนโยบายการใช้งาน ChatGPT เพื่อกำกับการดำเนินงานภายในองค์กรอย่างชัดเจน โดยกำหนดขอบเขตและวิธีการใช้งานที่สอดคล้องกับวัตถุประสงค์การดำเนินการขององค์กร และกฎหมายต่างๆ ที่เกี่ยวข้อง ซึ่งนโยบายการใช้ นี้ควรระบุหลักการสำคัญ ดังนี้
กรณีตัวอย่าง ธนาคารแห่งประเทศไทยได้ออกร่างแนวปฏิบัติให้สถาบันการเงินต้องจัดทำนโยบายการใช้ AI ที่สอดคล้องกับเป้าหมายองค์กร ข้อกำหนดทางกฎหมาย และหลักการด้านความเป็นธรรม พร้อมทั้งมีมาตรการทบทวนเป็นระยะเพื่อให้ทันต่อความก้าวหน้าของเทคโนโลยีและความเสี่ยงใหม่ที่อาจเกิดขึ้น การมีนโยบายชัดเจนเช่นนี้จะช่วยให้องค์กรมีกรอบในการตัดสินใจเกี่ยวกับ AI หรือให้บุคลากรทุกคนปฏิบัติงานให้เป็นไปในแนวทางเดียวกัน
ในประเด็นนี้กฎหมายคุ้มครองข้อมูลส่วนบุคคลของประเทศไทยไม่ได้มีบทบัญญัติที่ชัดเจน ถึงเรื่องสิทธิในการไม่ถูกตัดสินใจโดยระบบอัตโนมัติ อย่างที่กฎหมาย GDPR มาตรา 22 ได้กำหนดไว้ อย่างไรก็ตาม ผู้ควบคุมข้อมูลในประเทศไทยควรที่จะจัดให้มีช่องทางการใช้สิทธิของเจ้าของข้อมูลส่วนบุคคลสามารถขอใช้สิทธิตามกฎหมายคุ้มครองข้อมูลส่วนบุคคล และให้สามารถร้องเรียนหรือขอทบทวนการตัดสินใจที่เกิดจาก ChatGPT โดยอาจมีวิธีการดังนี้
ด้วยเหตุนี้การเลี่ยงการใช้งาน AI หรือ ChatGPT อาจไม่ใช่ทางออก แต่หากเราสามารถใช้งานอย่างรู้เท่าทัน ก็จะส่งผลให้การใช้งานอยู่ในกรอบและขอบเขตที่สามารถควบคุมได้ อีกทั้ง การใช้งานเทคโนโลยีดังกล่าวอย่างมีความรับผิดชอบไม่ใช่แค่เรื่องเทคนิค แต่เป็นเรื่องของ “เจ้าของข้อมูลส่วนบุคคล–กระบวนการ–เทคโนโลยี–สิทธิของเจ้าของข้อมูล” ที่ต้องเดินไปด้วยกัน องค์กรจึงจำเป็นต้องสร้างความรับรู้และจิตสำนึกให้แก่บุคลากรถึงข้อควรระวังหรือขอบเขตการใช้งานภายใต้ดนโยบายที่กำหนดอย่างชัดเจน รวมถึงการส่งเสริมมาตรการความปลอดภัยของระบบ และจัดเตรียมช่องทางที่เหมาะสมแก่เจ้าของข้อมูลได้สามารถเข้าตรวจสอบหรือโต้แย้งการตัดสินใจของ AI ได้อย่างมีประสิทธิภาพ
หากสามารถปฏิบัติได้ดังนี้ ทุกคนจะสามารถใช้ ChatGPT ได้อย่างมั่นใจ โปร่งใส และเคารพสิทธิส่วนบุคคล สอดคล้องกับ PDPA และมาตรฐานสากล พร้อมสร้างความเชื่อมั่นและความรับผิดชอบในยุคดิจิทัลอย่างแท้จริง
แหล่งอ้างอิง: