กลับไปหน้าบทความ
AI & เทคโนโลยี9 นาที
ธรรมาภิบาลของ Generative AI ในองค์กร: สร้างกรอบการกำกับดูแลที่เหมาะสม
ดร.อวิรุทธ์ ฉัตรมาลาทอง
|Generative AI: พลังและความรับผิดชอบ
Generative AI อย่าง ChatGPT, Claude และเทคโนโลยีอื่น ๆ กำลังเปลี่ยนแปลงวิธีการทำงานขององค์กร แต่พร้อมกับโอกาส ก็มาพร้อมกับความเสี่ยงที่ต้องจัดการ
ความเสี่ยงหลักของ Generative AI
1. ความเสี่ยงด้านข้อมูล
- ข้อมูลรั่วไหลผ่านการใช้งาน AI
- การละเมิดลิขสิทธิ์จากผลลัพธ์ของ AI
- ความถูกต้องของข้อมูลที่ AI สร้างขึ้น (Hallucination)
2. ความเสี่ยงด้านจริยธรรม
- อคติในผลลัพธ์ (Bias)
- ความโปร่งใสในการตัดสินใจ
- ผลกระทบต่อแรงงาน
3. ความเสี่ยงด้านกฎหมาย
- การปฏิบัติตามกฎหมาย PDPA
- ข้อกำหนดด้าน AI Act (EU)
- ความรับผิดชอบต่อผลลัพธ์ของ AI
กรอบธรรมาภิบาล AI ที่แนะนำ
ขั้นที่ 1: จัดตั้ง AI Governance Committee
- มีตัวแทนจากหลายฝ่าย
- มีอำนาจในการอนุมัติและกำกับ
ขั้นที่ 2: กำหนด AI Policy
- นโยบายการใช้งาน AI ที่ชัดเจน
- แนวปฏิบัติสำหรับแต่ละ Use Case
ขั้นที่ 3: Risk Assessment สำหรับ AI
- ประเมินความเสี่ยงของแต่ละ AI Use Case
- กำหนดมาตรการควบคุม
ขั้นที่ 4: Monitor & Review
- ติดตามผลกระทบอย่างต่อเนื่อง
- ปรับปรุงนโยบายตามพัฒนาการของเทคโนโลยี
"Generative AI เป็นเครื่องมือที่ทรงพลัง แต่องค์กรที่ใช้ได้อย่างยั่งยืน คือองค์กรที่มีธรรมาภิบาลที่ดี" — ดร.อวิรุทธ์ ฉัตรมาลาทอง
ดร.
ดร.อวิรุทธ์ ฉัตรมาลาทอง
ผู้เชี่ยวชาญด้านการบริหารความเสี่ยงองค์กร (ERM) และวิทยากรด้าน AI ให้คำปรึกษาแก่องค์กรชั้นนำทั้งภาครัฐและเอกชน
ดูประวัติเพิ่มเติม →บทความที่เกี่ยวข้อง
กิจกรรม
สร้างวัฒนธรรมความเสี่ยงสู่ความเป็นเลิศ @คณะแพทยศาสตร์ ม.สงขลานครินทร์
ได้รับเกียรติเป็นผู้ทรงคุณวุฒิให้ความเห็นต่อแผนบริหารความเสี่ยงของ 18 สาขาวิชา ในงานพัฒนาคุณภาพงาน ครั้งที่ 1/2569 ณ คณะแพทยศาสตร์ ม.สงขลานครินทร์
ธรรมาภิบาลCOSO Corporate Governance 2026: 12 หลักการกำกับดูแลสำหรับคณะกรรมการ
สรุปเนื้อหาสำคัญจากรายงานล่าสุดของ COSO เรื่อง Corporate Governance: Guiding Principles for Board Oversight ที่จัดทำร่วมกับ PwC พร้อม 12 หลักการกำกับดูแลที่คณะกรรมการควรนำไปปรับใช้