تنظيم صفحاتك في مجموعات يمكنك حفظ المحتوى وتصنيفه حسب إعداداتك المفضّلة.
عند تقييم نموذج، يتم حساب المقاييس من خلال اختبار كامل أو التحقق من الصحة صورة دقيقة دائمًا عن مدى إنصاف النموذج. إنّ الأداء الجيد للنموذج بشكل عام في معظم الأمثلة قد يحجب البيانات السيئة. الأداء على مجموعة فرعية قليلة من الأمثلة، مما قد يؤدي إلى تحيز تنبؤات النماذج. يمكن أن يؤدي استخدام مقاييس الأداء المجمعة مثل الدقة، تذكُّر البيانات، والدقة ليست بالضرورة لكشف هذه المشكلات.
يمكننا إعادة النظر في نموذج حالات الدخول واستكشاف بعض الأساليب الجديدة. لكيفية تقييم توقعاته من أجل التحيز، مع وضع الإنصاف في الاعتبار.
لنفترض أن نموذج تصنيف القبول اختار 20 طالبًا لقبولهم في جامعة من مجموعة من 100 مرشح، ينتمون إلى مجموعتين ديموغرافيتين: مجموعة الأغلبية (الأزرق، 80 طالبًا) ومجموعة الأقلية (البرتقالي، 20 طالبًا).
الشكل 1. مجموعة المرشحين المكونة من 100 طالب: ينتمي 80 طالبًا إلى المجموعة مجموعة الأغلبية (الأزرق)، وينتمي 20 طالبًا إلى مجموعة الأقلية (برتقالي).
يجب أن يقبل النموذج الطلاب المؤهلين بطريقة عادلة المرشحين في كلتا المجموعتين الديموغرافية.
كيف ينبغي لنا تقييم تنبؤات النموذج لتحقيق الإنصاف؟ هناك مجموعة متنوعة التي يمكننا وضعها في الاعتبار، ويقدم كلٌ منها قيمة حسابية تعريف "الإنصاف". في الأقسام التالية، سنستكشف ثلاثة من مقاييس الإنصاف هذه بشكل متعمق: التكافؤ الديموغرافي وتكافؤ الفرص والإنصاف المغاير.
تاريخ التعديل الأخير: 2024-08-13 (حسب التوقيت العالمي المتفَّق عليه)
[[["يسهُل فهم المحتوى.","easyToUnderstand","thumb-up"],["ساعَدني المحتوى في حلّ مشكلتي.","solvedMyProblem","thumb-up"],["غير ذلك","otherUp","thumb-up"]],[["لا يحتوي على المعلومات التي أحتاج إليها.","missingTheInformationINeed","thumb-down"],["الخطوات معقدة للغاية / كثيرة جدًا.","tooComplicatedTooManySteps","thumb-down"],["المحتوى قديم.","outOfDate","thumb-down"],["ثمة مشكلة في الترجمة.","translationIssue","thumb-down"],["مشكلة في العيّنات / التعليمات البرمجية","samplesCodeIssue","thumb-down"],["غير ذلك","otherDown","thumb-down"]],["تاريخ التعديل الأخير: 2024-08-13 (حسب التوقيت العالمي المتفَّق عليه)"],[[["\u003cp\u003eAggregate model performance metrics like precision, recall, and accuracy can hide biases against minority groups.\u003c/p\u003e\n"],["\u003cp\u003eFairness in model evaluation involves ensuring equitable outcomes across different demographic groups.\u003c/p\u003e\n"],["\u003cp\u003eThis page explores various fairness metrics, including demographic parity, equality of opportunity, and counterfactual fairness, to assess model predictions for bias.\u003c/p\u003e\n"],["\u003cp\u003eEvaluating model predictions with these metrics helps in identifying and mitigating potential biases that can negatively affect minority groups.\u003c/p\u003e\n"],["\u003cp\u003eThe goal is to develop models that not only achieve good overall performance but also ensure fair treatment for all individuals, regardless of their demographic background.\u003c/p\u003e\n"]]],[],null,["When evaluating a model, metrics calculated against an entire test or validation\nset don't always give an accurate picture of how fair the model is.\nGreat model performance overall for a majority of examples may mask poor\nperformance on a minority subset of examples, which can result in biased\nmodel predictions. Using aggregate performance metrics such as\n[**precision**](/machine-learning/glossary#precision),\n[**recall**](/machine-learning/glossary#recall),\nand [**accuracy**](/machine-learning/glossary#accuracy) is not necessarily going\nto expose these issues.\n\nWe can revisit our [admissions model](/machine-learning/crash-course/fairness) and explore some new techniques\nfor how to evaluate its predictions for bias, with fairness in mind.\n\nSuppose the admissions classification model selects 20 students to admit to the\nuniversity from a pool of 100 candidates, belonging to two demographic groups:\nthe majority group (blue, 80 students) and the minority group\n(orange, 20 students).\n**Figure 1.** Candidate pool of 100 students: 80 students belong to the majority group (blue), and 20 students belong to the minority group (orange).\n\nThe model must admit qualified students in a manner that is fair to the\ncandidates in both demographic groups.\n\nHow should we evaluate the model's predictions for fairness? There are a variety\nof metrics we can consider, each of which provides a different mathematical\ndefinition of \"fairness.\" In the following sections, we'll explore three of\nthese fairness metrics in depth: demographic parity, equality of opportunity,\nand counterfactual fairness.\n| **Key terms:**\n|\n| - [Accuracy](/machine-learning/glossary#accuracy)\n| - [Bias (ethics/fairness)](/machine-learning/glossary#bias-ethicsfairness)\n| - [Precision](/machine-learning/glossary#precision)\n- [Recall](/machine-learning/glossary#recall) \n[Help Center](https://support.google.com/machinelearningeducation)"]]