[SMT AI NOW] Explainable AI for Pre-Audit Decision⏳
![[SMT AI NOW] Explainable AI for Pre-Audit Decision⏳](https://smt-ai-hub.s3.ap-southeast-7.amazonaws.com/news/1772155262067-shfdvt.jpg)
🚀 SMT AI Now: Explainable AI for Pre-Audit Detection
SMT AI Now เดือนนี้พาทุกคนเจาะลึก use case จริงของการนำ AI 🤖 ไปใช้ในงานตรวจสอบการเคลมค่ารักษาพยาบาล โดยเป้าหมายสำคัญไม่ใช่แค่การทำโมเดล Machine Learning ให้แม่นยำ แต่คือการเปลี่ยนกระบวนการทำงานทั้งระบบ — จาก Post-Audit ไปสู่ Predictive Pre-Audit อย่างเป็นรูปธรรม
🎤 Hospital Claim Audit Use Case
โดย พี่มด Montakan Aimrat
Senior Data Strategy & Consulting Practice, ทีม DNA
Session นี้ถ่ายทอดประสบการณ์จริงของการนำ Machine Learning และ Large Language Model (LLM) มาใช้ในโครงการ pre-audit เพื่อประเมินความเสี่ยงการเคลมค่ารักษาพยาบาลล่วงหน้า
🔄 Core Transformation: Post-Audit → Predictive Pre-Audit
เดิม (Post-Audit) ⏳
- ตรวจย้อนหลังหลังธุรกรรมเสร็จสิ้น
- ตรวจได้เพียง 1–3% ของธุรกรรมทั้งหมด
- ใช้ผู้เชี่ยวชาญตรวจแบบ manual
- แก้ไขไม่ทันเวลา
แนวทางใหม่ (Predictive Pre-Audit) 🚀
- ใช้ ML ทำนายความเสี่ยงล่วงหน้า
- ประมวลผลอัตโนมัติทุกคืน
- ขยาย coverage การตรวจสอบได้มากขึ้น
- เปลี่ยนจาก Reactive → Proactive
นี่คือการเปลี่ยนแปลงเชิงกระบวนการ ไม่ใช่เพียงการเพิ่ม AI เข้าไปในระบบ
🧠 Explainable AI: ทำให้โมเดล “อธิบายได้”
โครงการนี้ให้ความสำคัญกับ Explainable AI
- ML model ทำหน้าที่ predict fraud risk
- SHAP วิเคราะห์ feature importance 📊
- LLM สร้างคำอธิบายจากผลลัพธ์ ML ผ่าน prompt engineering ✍️
Auditor จึงเข้าใจเหตุผลของโมเดล ไม่ใช่เพียงคะแนนความเสี่ยง ช่วยให้สามารถสื่อสารกับโรงพยาบาลได้ชัดเจน และลด dispute ได้อย่างมีประสิทธิภาพ
🏗 Technical Architecture บน AWS ☁️
โครงการพัฒนาบน AWS โดยใช้:
- จัดเก็บข้อมูลและผลลัพธ์ของระบบ
- ทำ feature engineering, training และ batch inference
- ใช้ LLM สำหรับสร้างคำอธิบาย
มีการเลือกใช้ foundation models ซึ่งต้องบริหารสมดุลระหว่างความแม่นยำและต้นทุน 💰
⚠️ Key Challenges
- LLM Cost 💰 – ควบคุมการใช้ token ให้สอดคล้องกับ business value
- Data Privacy / PDPA 🔐 – รองรับข้อมูลทางการแพทย์และข้อมูลคนไข้ที่เป็น sensitive data อย่างปลอดภัย
- Hallucination & Data Drift 🔄 – ควบคุมคุณภาพข้อมูลและ retrain model อย่างสม่ำเสมอ
- Processing Time ⏱ – Batch processing
ทีมงานจึงกำหนด business logic ให้เรียกใช้ LLM เฉพาะ high-risk cases เพื่อลด token usage และต้นทุนได้ 80–90%
SMT AI Now ยังคงเดินหน้าผลักดัน AI จากแนวคิดสู่การใช้งานจริงในองค์กร 💙