'ข้อมูล AI' ภัยคุกคามองค์กร การ์ทเนอร์ แนะใช้ 'Zero-Trust' รับมือ


การ์ทเนอร์ คาดภายในปี 2571 องค์กรกว่า 50% จะใช้มาตรการ “Zero-Trust Data Governance” หรือการนำมาตรการ "Zero-Trust" มาใช้เพื่อกำกับดูแลข้อมูล (Data Governance)

ทั้งนี้ เพื่อรับมือกับการแพร่กระจายของข้อมูลที่สร้างโดย AI (AI-Generated Data) ที่ยังไม่ได้รับการตรวจสอบปัจจุบัน การเพิ่มขึ้นของข้อมูลที่สร้างโดย AI กำลังเป็นภัยคุกคามต่อความน่าเชื่อถือของการพัฒนาโมเดลภาษาขนาดใหญ่ (LLM)

หวัน ฟุ่ย ชาน รองประธานบริหาร การ์ทเนอร์ กล่าวว่า องค์กรไม่สามารถเชื่อถือข้อมูลหรือคิดเอาเองว่าข้อมูลนั้นถูกสร้างโดยน้ำมือมนุษย์ได้อีกต่อไป

เมื่อข้อมูลที่สร้างโดย AI เผยแพร่กระจายออกไปจนทำให้เราแยกแยะไม่ออกจากข้อมูลที่มนุษย์สร้างขึ้น ดังนั้นการนำมาตรการ Zero-Trust มาใช้ เพื่อสร้างระบบยืนยันตัวตนและตรวจสอบข้อมูล จึงเป็นเรื่องจำเป็นอย่างยิ่งสำหรับปกป้องผลลัพธ์ทางธุรกิจและการเงิน

·      ‘โมเดล’ เสี่ยงล่มสลาย

ข้อมูล AI เพิ่มความเสี่ยงต่อภาวะการล่มสลายของโมเดล (Model Collapse) และการปฏิบัติตามกฎระเบียบ โดยปกติแล้ว โมเดลภาษาขนาดใหญ่ (LLMs) จะได้รับการฝึกฝนด้วยข้อมูลที่รวบรวมมาจากเว็บ (Web-Scraped Data) รวมถึงหนังสือ แหล่งรวมโค้ด และงานวิจัย

แหล่งข้อมูลเหล่านี้บางส่วนมีเนื้อหาที่ AI สร้างขึ้นปะปนอยู่แล้ว และหากแนวโน้มนี้ยังดำเนินต่อไป ในที่สุดแหล่งข้อมูลเกือบทั้งหมดก็จะเต็มไปด้วยข้อมูลที่ AI สร้างขึ้นมา

ผลสำรวจ 2026 Gartner CIO and Technology Executive Survey พบว่า 84% ของผู้ตอบแบบสอบถามคาดว่าในปี 2569 องค์กรของตนจะเพิ่มงบประมาณด้าน GenAI ซึ่งหมายความว่าโมเดล LLM รุ่นต่อ ๆ ไปจะได้รับการฝึกด้วย "ผลลัพธ์จากโมเดลรุ่นก่อนหน้า" มากขึ้นเรื่อย ๆ ทำให้เกิดความเสี่ยงต่อภาวะการล่มสลายของโมเดล (Model Collapse) หรือการที่ AI ให้คำตอบบิดเบือนไปจากความเป็นจริง

·      เข้มมาตรการจัดการ ‘เมตาดาต้า’

เมื่อข้อมูลที่สร้างจาก AI แพร่หลายมากขึ้นทำให้บางประเทศในบางภูมิภาคเข้มงวดกับกฎระเบียบมากขึ้นเพื่อบังคับให้ต้องมีการตรวจสอบข้อมูลว่า "ปลอด AI" (AI-Free)

อย่างไรก็ตาม บางประเทศอาจพยายามบังคับใช้การควบคุมที่เข้มงวดกว่าสำหรับเนื้อหา AI ขณะที่บางแห่งอาจใช้วิธีการที่ยืดหยุ่นกว่า

ดังนั้นในสภาพแวดล้อมด้านกฎระเบียบที่เปลี่ยนไปนี้ องค์กรต้องมีเครื่องมือสำหรับระบุและติดตามข้อมูลที่สร้างจาก AI โดยจะสำเร็จหรือไม่นั้นขึ้นอยู่กับการมีเครื่องมือที่เหมาะสมและมีบุคลากรที่มีทักษะในการจัดการข้อมูลและองค์ความรู้

รวมถึงมีโซลูชันการจัดการเมตาดาต้า (Metadata) หรือข้อมูลที่ใช้อธิบายชุดข้อมูล ซึ่งจำเป็นอย่างยิ่งต่อการคัดแยกประเภทข้อมูล

แนวทางปฏิบัติด้านการจัดการเมตาดาต้าเชิงรุก (Active Metadata Management) จะกลายเป็นปัจจัยสำคัญที่สร้างความต่าง ช่วยให้องค์กรสามารถวิเคราะห์ แจ้งเตือน และตัดสินใจเกี่ยวกับสินทรัพย์ข้อมูลได้แบบอัตโนมัติ

·      ปรับกลยุทธ์ ลดความเสี่ยง

สำหรับ วิธีจัดการความเสี่ยงเพื่อรับมือกับข้อมูล AI ที่ไม่ได้รับการตรวจสอบและทวีปริมาณมากขึ้น การ์ทเนอร์แนะนำองค์กรธุรกิจควรปรับใช้กลยุทธ์ ดังนี้

แต่งตั้งผู้นำด้านการกำกับดูแล AI หรือ AI Governance Leader: กำหนดบทบาทหน้าที่อย่างชัดเจนเพื่อดูแลนโยบาย Zero-Trust, การจัดการความเสี่ยงจาก AI และการปฏิบัติตามกฎระเบียบ

โดยทำงานร่วมกับทีมข้อมูลและการวิเคราะห์ (D&A) เพื่อให้มั่นใจได้ว่าทั้งข้อมูลและระบบมีความพร้อมสำหรับ AI และสามารถจัดการกับเนื้อหาที่สร้างโดย AI ได้

ส่งเสริมความร่วมมือข้ามสายงาน: สร้างทีมที่ทำงานสอดประสาน ประกอบด้วยฝ่ายความมั่นคงปลอดภัยไซเบอร์ (Cybersecurity) และฝ่ายข้อมูลและการวิเคราะห์ (D&A) รวมถึงผู้เกี่ยวข้องในฝ่ายอื่น ๆ

เพื่อประเมินความเสี่ยงว่าข้อมูลที่ AI สร้างขึ้นกระทบต่อธุรกิจอย่างไรบ้าง และนโยบายเดิมที่ใช้อยู่เพียงพอหรือจำเป็นต้องมองหากลยุทธ์ใหม่ขึ้นมาทดแทน

นำนโยบายธรรมาภิบาลเดิมที่มีอยู่มาปรับใช้: ต่อยอดจากกรอบการทำงานเดิม โดยปรับปรุงเรื่องความปลอดภัย การจัดการข้อมูลที่ใช้อธิบายข้อมูล (Metadata) และนโยบายด้านจริยธรรมให้ครอบคลุมความเสี่ยงใหม่ ๆ ที่เกิดจากข้อมูลที่สร้างโดย AI

นำการจัดการ Metadata เชิงรุก หรือ Active Metadata Practices มาใช้: เพื่อให้มีระบบแจ้งเตือนแบบ Real-time เมื่อข้อมูลล้าสมัยหรือต้องมีการตรวจสอบซ้ำ ช่วยให้องค์กรไหวตัวทันเมื่อระบบสำคัญกำลังเผชิญหน้ากับข้อมูลที่ไม่ถูกต้องหรือมีอคติ

 

ที่มา : กรุงเทพธุรกิจ

วันที่ 9 กุมภาพันธ์ 2569


ไฟล์เอกสารแนบ
-
ที่มา : กรุงเทพธุรกิจ
ข้อมูลวันที่ : 2026-02-10 04:44:23
700/1 หมู่ 1 นิคมอุตสาหกรรมอมตะซิตี้ ชลบุรี, ถ.บางนา-ตราด กม. 57, ต.คลองตำหรุ, อ.เมือง, จ.ชลบุรี 20000
038-215033-39, 033-266040-44
Icon made by Freepik from www.flaticon.com