Precision กับ Recall
MATLAB BKK CENTER
หากคุณเคยเรียน Data science มาสักระยะแล้ว คุณอาจสร้างโมเดลการจัดหมวดหมู่จำนวนมาก และตรวจสอบประสิทธิภาพของโมเดลด้วยเมตริกต่างๆ
ตรวจสอบประสิทธิภาพของโมเดล
- Precision
* Recall
* Accuracy
* F1-Score
The big 4 metrics : Precision, Recall, Accuracy, F1-Score (รายการ คำนวณจาก Confusion metric )
เราทราบดีว่าเมื่อเรามีความถูกต้องของข้อมูลที่ไม่สมดุลนั้นไม่ใช่เมตริกที่เราควรพิจารณา เนื่องจากอาจทำให้เข้าใจผิดได้ แต่เราควรคำนึงถึง F1-Score เมื่อชุดข้อมูลของเราไม่สมดุล แต่ F1 จะช่วยได้จริงหรือ?
- * เส้นโค้ง ROC เป็นวิธีที่ดีที่สุดวิธีหนึ่งในการเปรียบเทียบความดีของแบบจำลอง
Confusion Metric หรือที่เรียกว่าเมทริกซ์ข้อผิดพลาด)
เป็นวิธีการสรุปประสิทธิภาพของผลลัพธ์ของแบบจำลองการจัดหมวดหมู่ของเรา ที่แสดงจำนวนคำทำนายที่ถูกต้องและไม่ถูกต้อง
ปัญหาของ Precision and recall ถ้าพิจารณาตามสูตร :
จะหลีกเลี่ยงปัญหาการ Bias ได้อย่างไร
Matthews Correlation Coefficient (MCC)
เพื่อหาประสิทธิภาพของแบบจำลอง Matthews Correlation Coefficient (MCC) จึงเป็นตัวชี้วัดที่ดีที่สุด
ตรวจสอบประสิทธิภาพของโมเดล เครื่องมือมีอะไรบ้าง
เราสามารถติดตามหรือหากมีความสนใจ สามารถลงทะเบียนได้ใน Course Data Science Roadmap ซึ่งอบรมออนไลน์ 8 สัปดาห์ เรียนว่าเจาะลึกพร้อมตัวอย่างการประยุกต์ใช้ สามารถติดต่อสอบถามไปทาง Admin Facebook Page :(20) Matlab bkk center | Facebook
สามารถติดตามเนื้อหาความรู้ต่างๆ โดยเฉพาะการใช้ประยุกต์ใช้กับโปรแกรม Matlab ได้ที่ Facebook Page :(20) Matlab bkk center | Facebook
Machine Learning for #Predictive #Maintenance Course
NEURAL NETWORK AND DEEP LEARNING COMPLETE COURSE :
ใครอยากเรียนรู้จากตัวอย่างการ Apply จาก #ProjectMachinelearning ต้องไม่พลาด
#Matlab Code ร่วมแชร์ความรู้ สาระผ่านกลุ่ม ->
(กลุ่ม Facebook Matlab Bkk AI & Data science & Other Classroom)>
https://web.facebook.com/groups/403881684322230/