عاجل

ماذا يعني تحيز نتائج الذكاء الاصطناعي؟ - اخبارك الان

0 تعليق ارسل طباعة

يشير مصطلح تحيز الذكاء الاصطناعي إلى اتجاه أدوات التكنولوجيا الجديدة لتقديم نتائج غير دقيقة بسبب التحيز إلى نتيجة ما على حساب نظيرتها الصحيحة أو الأقرب للصواب.
 

تنتشر تلك الظاهرة بشكل عام في نماذج الذكاء الاصطناعي التي تم تدريبها على فئة معينة من البيانات، مع تجاهل فئة أخرى مضادة أو مكلمة لها، ما قد يؤدي إلى افتراضات خاطئة لعملية التعلم الآلي.
 

وقد يؤدي التحيز إلى إعطاء نتائج غير دقيقة للمطالبات النصية التي يقوم الأفراد بإدخالها، ومن المعلوم أن اتخاذ القرارات بناءً على معلومات غير دقيقة قد يؤدي إلى نتائج غير مقبولة.
 


 

لماذا قد يحدث التحيز؟
 

- يرجع الأمر إلى البيانات التي تم تدريب نموذج الذكاء الاصطناعي عليها، والتي قد يتم تجميعها بطريقة تنطوي على التمييز بين فئات المجتمع المختلفة، بقصد أو بغير عمد، ولكن ذلك يؤثر على النتائج الذي يعطيها النموذج.
 

للاطلاع على المزيد من المواضيع والتقارير في صفحة مختارات أرقام

 

- قد تؤدي المطالبات ذاتها التي يقوم بها المستخدمون إلى التحيز، حيث تؤدي الأسئلة المتكررة من منطقة معينة إلى فهم نماذج الذكاء الاصطناعي أن تلك المشكلة مرتبطة بهذا المكان فقط دون غيره.
 

- تؤدي النماذج الرياضية والإحصائية المستخدمة في بناء الذكاء الاصطناعي إلى التحيز، فقد يتم استخدام نماذج إحصائية نجحت في مجتمع معين في حين فشلت في مكان آخر، أو نماذج رياضية غير دقيقة.
 

لتوضيح الأمر، هناك بعض الأمثلة الواقعة التي حدثت بسبب تحيز الذكاء الاصطناعي والتي منها:
 

تحيز الذكاء الاصطناعي

 

المثال

التوضيح

العنصرية في نظام الرعاية الصحية الأمريكي


- عادةً ما تعمل أنظمة الذكاء الاصطناعي -المدربة على بيانات غير متكافئة- بشكل سيئ في نظام الرعاية الصحية الأمريكي بالنسبة للأقليات.
 

- في عام 2019، وجد باحثون أن الخوارزمية المستخدمة في المستشفيات الأمريكية للتنبؤ بالمرضى الذين سيحتاجون إلى رعاية طبية إضافية فضلت المرضى البيض على نظرائهم السود بهامش كبير.
 

- ولأن التكلفة المرتفعة تؤكد على احتياجات الرعاية الصحية للفرد، فقد أخذت الخوارزمية في الاعتبار نفقات الرعاية الصحية السابقة للمرضى للتفضيل بينهم.
 

تصور الرؤساء التنفيذيين


- تشكل النساء 27% من الرؤساء التنفيذيين في الولايات المتحدة، ولكن وفقًا لدراسة أُجريت عام 2015، فإن 11% فقط من الأفراد الذين ظهروا في بحث صور جوجل عن مصطلح "الرئيس التنفيذي" كانوا من النساء.
 

- وبعد بضعة أشهر من الدراسة، أجرى باحث من جامعة كارنيجي ميلون في بيتسبرج دراسة أخرى.
 

- وجدت تلك الدراسة أن نظام الإعلان عبر الإنترنت الخاص بـ"جوجل" يعرض الوظائف ذات الأجور المرتفعة للذكور أكثر بكثير من النساء.
 

التوظيف في "أمازون"


- لعبت الأتمتة دورًا حاسمًا في تفوق "أمازون" في التجارة الإلكترونية، سواء تلك الأنظمة التي تم استخدامها في إدارة المستودعات أو لاتخاذ خيارات الأسعار.
 

- لكن يزعم بعض الأفراد أن أداة التوظيف التجريبية للشركة استخدمت الذكاء الاصطناعي لإعطاء تقييم للمتقدمين لشغل الوظائف تتراوح من نجمة واحدة إلى خمس نجوم.
 

- اكتشفت الشركة فيما بعد أن نظامها الجديد لا يقيم المتقدمين لوظائف تطوير البرمجيات وغيرها من المناصب الفنية بطريقة محايدة بين الجنسين، حيث يتحيز بشكل غير مباشر ضد النساء.
 

 

كيف يمكن حل المشكلة؟
 

- يمكن حل المشكلة عبر تطوير مفاهيم جديدة للعدالة والمصطلحات الاجتماعية الأخرى بشكل رقمي، بحيث تتمكن نماذج الذكاء الاصطناعي من فهمها والعمل على أساسها، وأخذها في الاعتبار قبل إعطاء النتائج.
 

- المعالجة الجيدة للبيانات والتأكد دومًا من أنها تشمل كافة العينات قبل تدريب نموذج الذكاء الاصطناعي عليها، مع التأكد من صحة النماذج الرياضية والإحصائية المستخدمة في تطوير الخوارزميات وأنه تم تجريبها على كافة العينات.
 

- عدم الاعتماد على الذكاء الاصطناعي في المشاكل التي تتعلق بالتمييز العنصري، والاكتفاء بالاستعانة به في مهام أخرى أولية، دون التعمق في أصل المشكلة التي يُريد المستخدم حلها.
 

- التفكير في القضايا غير المتفق عليها علميًا بشكل مستقل بعيدًا عن الذكاء الاصطناعي، فبعض القضايا غير متفق عليها في الأوساط العلمية المختلفة، ويجب تحكيم العقل البشري لمعرفة الأدق والأنسب لكل حالة.

 

المصادر: موقع ليفتي Levity

ملحوظة: مضمون هذا الخبر تم كتابته بواسطة ارقام ولا يعبر عن وجهة نظر مصر اليوم وانما تم نقله بمحتواه كما هو من ارقام ونحن غير مسئولين عن محتوى الخبر والعهدة علي المصدر السابق ذكرة.

إخترنا لك

أخبار ذات صلة

0 تعليق