Accuracy, Precision, Recall, এবং অন্যান্য মেট্রিক্স
Model Evaluation-এর সময় বিভিন্ন Performance Metrics ব্যবহৃত হয়, যা মডেলের কার্যকারিতা পরিমাপ করে। Accuracy, Precision, Recall, F1 Score, এবং ROC-AUC Score হলো কিছু সাধারণ মেট্রিক্স। নিচে এগুলোর সংজ্ঞা, গণনা পদ্ধতি এবং ব্যবহার উল্লেখ করা হলো।
১. Accuracy
Accuracy হল সঠিক পূর্বাভাসের সংখ্যা (True Positives + True Negatives) মোট পূর্বাভাসের সংখ্যা দ্বারা ভাগ করার মাধ্যমে গণনা করা হয়।
Accuracy=TP+TNTP+TN+FP+FN\text{Accuracy} = \frac{\text{TP} + \text{TN}}{\text{TP} + \text{TN} + \text{FP} + \text{FN}}Accuracy=TP+TN+FP+FNTP+TN
- TP: True Positives (সঠিকভাবে ইতিবাচক)
- TN: True Negatives (সঠিকভাবে নেগেটিভ)
- FP: False Positives (ভুলভাবে ইতিবাচক)
- FN: False Negatives (ভুলভাবে নেগেটিভ)
ব্যবহার: Accuracy সাধারণত মডেলের সামগ্রিক পারফরম্যান্স পরিমাপের জন্য ব্যবহৃত হয়, কিন্তু এটি একটি অসামঞ্জস্যপূর্ণ ডেটাসেটে misleading হতে পারে।
২. Precision
Precision হল সঠিক ইতিবাচক পূর্বাভাসের সংখ্যা সমস্ত ইতিবাচক পূর্বাভাসের সংখ্যা দ্বারা ভাগ করা হয়।
Precision=TPTP+FP\text{Precision} = \frac{\text{TP}}{\text{TP} + \text{FP}}Precision=TP+FPTP
ব্যবহার: Precision একটি গুরুত্বপূর্ণ মেট্রিক যখন False Positives কমাতে চান। এটি ক্লাসিফিকেশন মডেলের ক্ষেত্রে বিশেষভাবে উপকারী যেখানে ভুল ইতিবাচক পূর্বাভাসের প্রভাব গুরুতর।
৩. Recall (Sensitivity)
Recall হল সঠিক ইতিবাচক পূর্বাভাসের সংখ্যা সমস্ত বাস্তব ইতিবাচক ঘটনা দ্বারা ভাগ করা হয়।
Recall=TPTP+FN\text{Recall} = \frac{\text{TP}}{\text{TP} + \text{FN}}Recall=TP+FNTP
ব্যবহার: Recall গুরুত্বপূর্ণ যখন False Negatives কমাতে চান। এটি মেডিকেল পরীক্ষার মতো ক্ষেত্রে অত্যন্ত কার্যকর, যেখানে রোগী শনাক্তকরণ গুরুত্বপূর্ণ।
৪. F1 Score
F1 Score Precision এবং Recall এর হারমোনিক গড়। এটি Precision এবং Recall এর মধ্যে একটি ব্যালেন্স বজায় রাখতে সহায়ক।
F1=2×Precision×RecallPrecision+RecallF1 = 2 \times \frac{\text{Precision} \times \text{Recall}}{\text{Precision} + \text{Recall}}F1=2×Precision+RecallPrecision×Recall
ব্যবহার: F1 Score তখন ব্যবহার করা হয় যখন Precision এবং Recall উভয়কেই সমানভাবে গুরুত্ব দেওয়া হয়। এটি বিশেষ করে ক্লাসিফিকেশন সমস্যা যেখানে শ্রেণীর মধ্যে অসামঞ্জস্য থাকে সেক্ষেত্রে কার্যকর।
৫. ROC-AUC Score
ROC (Receiver Operating Characteristic) Curve হল True Positive Rate (TPR) এবং False Positive Rate (FPR) এর মধ্যে একটি গ্রাফ। AUC (Area Under the Curve) হল এই গ্রাফের নিচের এলাকার মান, যা মডেলের গুণমান নির্দেশ করে।
- TPR (Recall): TPR=TPTP+FN\text{TPR} = \frac{\text{TP}}{\text{TP} + \text{FN}}TPR=TP+FNTP
- FPR: FPR=FPFP+TN\text{FPR} = \frac{\text{FP}}{\text{FP} + \text{TN}}FPR=FP+TNFP
ব্যবহার: AUC মান 0.5 থেকে 1 এর মধ্যে হতে পারে। 0.5 মানে মডেল কোন সুবিধা ছাড়া কাজ করছে এবং 1 মানে নিখুঁত কাজ করছে।
৬. Confusion Matrix
Confusion Matrix হল একটি টেবিল যা মডেলের True Positives, True Negatives, False Positives, এবং False Negatives কে একসাথে দেখায়। এটি মডেলের পারফরম্যান্স বিশ্লেষণের জন্য খুবই কার্যকর।
| Predicted Positive | Predicted Negative | |
|---|---|---|
| Actual Positive | True Positive (TP) | False Negative (FN) |
| Actual Negative | False Positive (FP) | True Negative (TN) |
সারসংক্ষেপ
| মেট্রিক্স | সংজ্ঞা | ব্যবহার |
|---|---|---|
| Accuracy | সঠিক পূর্বাভাসের সংখ্যা/মোট পূর্বাভাসের সংখ্যা | সামগ্রিক কার্যকারিতা পরিমাপ |
| Precision | সঠিক ইতিবাচক পূর্বাভাসের সংখ্যা/সকল ইতিবাচক পূর্বাভাসের সংখ্যা | False Positives কমাতে |
| Recall | সঠিক ইতিবাচক পূর্বাভাসের সংখ্যা/বাস্তব ইতিবাচক সংখ্যা | False Negatives কমাতে |
| F1 Score | Precision এবং Recall এর হারমোনিক গড় | Precision এবং Recall উভয়ের জন্য |
| ROC-AUC Score | ROC Curve এর নিচের এলাকা | মডেলের গুণমান নির্দেশ করে |
| Confusion Matrix | TP, TN, FP, FN এর একটি টেবিল | মডেলের পারফরম্যান্স বিশ্লেষণ |
এই Performance Metrics গুলো মডেলের কার্যকারিতা নির্ধারণে গুরুত্বপূর্ণ, এবং বিভিন্ন কেসে বিভিন্ন মেট্রিক্স ব্যবহার করে মডেল উন্নত করা যেতে পারে।
Read more