تنظيم صفحاتك في مجموعات يمكنك حفظ المحتوى وتصنيفه حسب إعداداتك المفضّلة.
يمكن أن تساهم تكنولوجيات الذكاء الاصطناعي في تغيير المجتمع بطرق مفيدة كثيرة، سواء كانت إيجابية أو سلبية. من المهمّ مراعاة التأثيرات الأخلاقية للنماذج والأنظمة التي تشكّل جزءًا منها.
يجب أن تعود مشاريع الذكاء الاصطناعي بالفائدة على المجتمع. يجب ألّا تتسبّب في إلحاق الضرر أو تكون عرضة لإساءة الاستخدام. يجب ألّا يساهموا في استمرار التحيزات أو تعزيزها أو تفاقمها. ويجب ألا تجمع هذه التطبيقات البيانات الشخصية أو تستخدمها بشكل غير مسؤول.
بالإضافة إلى الالتزام بمبادئ الذكاء الاصطناعي المسؤول، نهدف إلى تطوير أنظمة تضمّن ما يلي:
العدالة
الخصوصية
الشفافية
الأمان
العدالة
تجنُّب إثارة الانحياز غير العادل أو تعزيزه تُظهر النماذج تحيزًا عندما تحتوي بيانات التدريب على بعض الخصائص التالية:
لا يعكس عدد مستخدمي التطبيق في العالم الحقيقي
الحفاظ على القرارات أو النتائج المتحيّزة، مثل قرارات العدالة الجنائية مثل مدد السجن
يستخدم ميزات ذات قدرة أكبر على التوقّع لمجموعات معيّنة من المستخدمين.
إنّ الأمثلة السابقة هي مجرد بعض الطرق التي تصبح بها النماذج متحيّزة. من الضروري فهم بياناتك بدقة لكشف أي تحيّز محتمل فيها وحلّه. الخطوة الأولى لتطوير نماذج عادلة هي التحقّق من أنّ بيانات التدريب تعكس توزيع المستخدمين بدقة. في ما يلي ممارسات إضافية للمساعدة في إنشاء نماذج عادلة:
يمكنك تحديد المجموعات التي تم تمثيلها بشكلٍ غير كافٍ في مجموعات بيانات التقييم أو المجموعات التي قد تُحقّق جودة نموذج أقل مقارنةً بالمجموعات الأخرى. قد تحتاج إلى زيادة عدد عيّنات مجموعة فرعية من المستخدمين لزيادة حضورهم في بيانات التدريب.
استخدِم مجموعات البيانات الذهبية (المعروفة أيضًا باسم مجموعات بيانات الأداء المرجعي) للتحقّق من صحة النموذج في ما يتعلّق بقضايا المساواة ورصد الانحياز الضمني.
تجنَّب تضمين ميزات حسّاسة في مجموعات البيانات، مثل الجنس أو الانتماء العرقي.
تجنَّب تضمين ميزات ذات تأثير تجريبي أو توضيحي منخفض، خاصةً في السياقات الحسّاسة التي يتم فيها استخدام النموذج المدّرب لتنفيذ مهام ذات تأثير كبير في مجالات مثل الرعاية الصحية والشؤون المالية والتعليم والوظائف وما إلى ذلك. على سبيل المثال، في نموذج للموافقة على القروض العقارية، لا تُدرِج الأسماء في بيانات التدريب. لا يقتصر الأمر على أنّ اسم مقدم الطلب غير ذي صلة بمهمة التوقّع، بل إنّ ترك سمة غير ذات صلة في مجموعة البيانات قد يؤدي أيضًا إلى إنشاء تحيز ضمني أو أضرار في التوزيع. على سبيل المثال، قد يربط النموذج بين الأسماء الذكورية وباحتمالية أعلى لسداد القروض، أو العكس.
يمكنك قياس التأثير السلبي المحتمل الذي قد تحدثه توقّعات النموذج على مجموعات معيّنة، والتفكير في تقنيات تصحيح التحيز المتعمد إذا رصدت تأثيرًا سلبيًا في سياق حسّاس.
الخصوصية
يجب تضمين مبادئ التصميم التي تراعي الخصوصية منذ البداية.
في ما يلي القوانين والسياسات المتعلّقة بالخصوصية التي يجب أخذها في الاعتبار والالتزام بها:
بالإضافة إلى ذلك، احرص على إزالة جميع معلومات تحديد الهوية الشخصية (PII) من مجموعات البيانات والتأكّد من إعداد نماذج ومستودعات البيانات باستخدام أذونات الصحيحة، على سبيل المثال، عدم السماح بالوصول العام إليها.
الشفافية
يخضع للمساءلة أمام البشر. على سبيل المثال، سهِّل على الآخرين فهم ما يفعله النموذج وطريقة تنفيذه وسبب تنفيذه. بطاقات النماذج توفّر نموذجًا لتوثيق النموذج وإنشاء عناصر شفافية.
الأمان
تصميم النماذج بحيث تعمل بأمان في الظروف الصعبة على سبيل المثال، اختبِر نموذجك باستخدام إدخالات عدوانية محتملة للتأكّد من أنّه آمن. بالإضافة إلى ذلك، تحقّق من حالات الفشل المحتمَلة. وعادةً ما تستخدِم الفِرق مجموعات بيانات مصمّمة خصيصًا لاختبار نماذجها باستخدام مدخلات أو شروط أدّت في السابق إلى تعذُّر عمل النموذج.
التحقّق من الفهم
أنت بصدد تطوير نموذج للموافقة بسرعة على قروض السيارات. ما هي المغالطات الأخلاقية التي يجب مراعاتها؟
هل يساهم النموذج في ترسيخ التحيزات أو الصور النمطية الحالية؟
إجابة صحيحة. يجب تدريب النماذج على مجموعات بيانات عالية الجودة تم التحقّق منها بحثًا عن أي تحيزات أو آراء متحيّزة ضمنية محتملة.
هل يقدّم النموذج توقّعات بوقت استجابة منخفض بما يكفي؟
هل يمكن نشر النموذج على الأجهزة، مثل الهواتف؟
يجب دائمًا مراعاة السياقات الاجتماعية الأوسع نطاقًا التي تعمل فيها نماذجك. احرص على التأكّد من أنّ معالجة البيانات الحسّاسة لا تنتهك مسائل الخصوصية أو تؤدّي إلى استمرار التحيز أو التعدي على حقوق الملكية الفكرية لشخص آخر.
تاريخ التعديل الأخير: 2025-07-27 (حسب التوقيت العالمي المتفَّق عليه)
[[["يسهُل فهم المحتوى.","easyToUnderstand","thumb-up"],["ساعَدني المحتوى في حلّ مشكلتي.","solvedMyProblem","thumb-up"],["غير ذلك","otherUp","thumb-up"]],[["لا يحتوي على المعلومات التي أحتاج إليها.","missingTheInformationINeed","thumb-down"],["الخطوات معقدة للغاية / كثيرة جدًا.","tooComplicatedTooManySteps","thumb-down"],["المحتوى قديم.","outOfDate","thumb-down"],["ثمة مشكلة في الترجمة.","translationIssue","thumb-down"],["مشكلة في العيّنات / التعليمات البرمجية","samplesCodeIssue","thumb-down"],["غير ذلك","otherDown","thumb-down"]],["تاريخ التعديل الأخير: 2025-07-27 (حسب التوقيت العالمي المتفَّق عليه)"],[[["\u003cp\u003eML models should benefit society and avoid causing harm, bias, or misuse of personal data.\u003c/p\u003e\n"],["\u003cp\u003eGoogle's AI principles emphasize fairness, privacy, transparency, and safety in ML development.\u003c/p\u003e\n"],["\u003cp\u003eFairness in models requires addressing potential biases in training data and ensuring equitable outcomes for all user groups.\u003c/p\u003e\n"],["\u003cp\u003ePrivacy considerations involve adhering to relevant regulations, protecting personal data, and ensuring secure data handling practices.\u003c/p\u003e\n"],["\u003cp\u003eTransparency and safety involve making model functionality understandable, documenting model details, and designing models to operate securely and reliably.\u003c/p\u003e\n"]]],[],null,["ML has the potential to transform society in many meaningful ways,\neither positively or negatively. It's critical to consider the ethical\nimplications of your models and the systems they're a part of.\nYour ML projects should benefit society. They shouldn't cause harm or be susceptible to misuse. They shouldn't perpetuate, reinforce, or exacerbate biases or prejudices. They shouldn't collect or use personal data irresponsibly.\n\n\u003cbr /\u003e\n\nGoogle's AI principles\n\nGoogle advocates developing ML and AI applications that adhere to its\n[Responsible AI principles](https://ai.google/responsibility/principles/).\n\nBeyond adhering to responsible AI principles, aim to develop systems\nthat incorporate the following:\n\n- Fairness\n- Privacy\n- Transparency\n- Safety\n\nFairness\n\nAvoid creating or reinforcing unfair\n[bias](/machine-learning/glossary#bias-ethicsfairness).\nModels exhibit bias when their\ntraining data has some of the following characteristics:\n\n- Doesn't reflect the real-world population of\n their users.\n\n- Preserves biased decisions or outcomes, for example, criminal justice\n decisions like incarceration times.\n\n- Uses features with more predictive power for certain groups of users.\n\nThe previous examples are just some ways models become biased. Understanding\nyour data thoroughly is critical for uncovering and resolving any potential\nbiases it contains. The first step for developing fair models is verifying the\ntraining data accurately reflects the distribution of your users. The following\nare further practices to help create fair models:\n\n- Identify underrepresented groups in evaluation datasets or groups that might\n experience worse model quality compared to other groups. You might need to\n oversample a subgroup of your users to increase their presence in the\n training data.\n\n- Use\n [golden datasets](https://developers.google.com/machine-learning/glossary#golden-dataset)\n (also known as benchmark datasets) to validate the model against fairness\n issues and detect implicit bias.\n\n- Avoid including sensitive features in datasets, like gender or ethnicity.\n\n- Avoid including features with little empirical or explanatory power, but\n especially in sensitive contexts where the trained model is used to perform\n high-impact tasks in areas such as healthcare, finance, education,\n employment, and so forth. For example, in a model for approving home loans,\n don't include names in the training data. Not only is an applicant's name\n irrelevant to the prediction task, but leaving such an irrelevant feature\n in the dataset also has the potential to create implicit bias or\n allocative harms. For instance, the model might correlate male names with\n a higher probability for repayment, or vice versa.\n\n- Measure potential adverse impact a model's predictions might have on\n particular groups, and consider intentional bias correction techniques if\n you find adverse impact in a sensitive context.\n\nPrivacy\n\nIncorporate privacy design principles from the beginning.\n\nThe following are privacy related laws and policies to be aware of and\nadhere to:\n\n- [European Union's Digital Markets Act (DMA)](https://wikipedia.org/wiki/Digital_Markets_Act)\n for consent to share or use personal data.\n\n- [European Union GDPR](https://wikipedia.org/wiki/General_Data_Protection_Regulation) laws.\n\nMoreover, be sure to remove all personally identifiable information (PII) from\ndatasets and confirm your model and data repositories are set up with the right\npermissions, for example, not world-readable.\n\n\nTransparency\n\nBe accountable to people. For example, make it easy for others to\nunderstand what your model does, how it does it, and why it does it.\n\n[Model cards](https://modelcards.withgoogle.com/face-detection)\n\nprovide a template to document your model and create transparency artifacts.\n\nSafety\n\nDesign models to operate safely in adversarial conditions. For example, test\nyour model with potential hostile inputs to confirm your model is secure.\nFurthermore, check for potential failure conditions. Teams typically use\nspecially designed datasets to test their models with inputs or conditions that\ncaused the model to fail in the past.\n\nCheck Your Understanding \nYou're developing a model to quickly approve auto loans. What ethical implications should you consider? \nDoes the model perpetuate existing biases or stereotypes? \nCorrect. Models should be trained on high-quality datasets that have been inspected for potential implicit biases or prejudices. \nDoes the model serve predictions with low-enough latency? \nCan the model be deployed to devices, like phones? \n\nAlways consider the broader social contexts your models operate within. Work to\nbe sure your handling of sensitive data doesn't violate privacy issues,\nperpetuate bias, or infringe on someone else's intellectual property."]]