«فيسبوك» يعيد القلق من مخاطر الذكاء الاصطناعي

ما يقرب من ٧ سنوات فى التحرير

بعد أن أغلقت شركة "فيسبوك" برنامجًا للذكاء الاصطناعي، مؤخرًا، لأنه طور لغة للتواصل خاصة به غير اللغة الإنجليزية، وتمكن الروبوتان "بوب وأليس" في التواصل مع بعضهما، والوصول إلى اتفاق بينهما لإنجاز مهمة معينة باستخدام لغة جديدة غير معروفة، بدأت تقارير عديدة تحذر من مخاطر الذكاء الاصطناعي.

واستطاع الروبوتان، تحت ملاحظة فيسبوك، تطوير هذه اللغة الجديدة بسبب خطأ بشري من المبرمجين، فمن المفترض أن يقوم مهندسو الروبوت بوضع قيود أو حدود على قدرة الروبوت على التعلم حتى يمكن السيطرة عليه.

ولكن أغفل المهندسون برمجة الروبوت لكي تكون لغة التواصل فقط هي اللغة الإنجليزية، مما جعل الروبوت يقوم بتطوير لغة جديدة خاصة به.

ويعرف الذكاء الاصطناعي بأنه سلوك وخصائص معينة تتسم بها البرامج الحاسوبية، تجعلها تحاكي القدرات الذهنية البشرية وأنماط عملها.

ومن أهم هذه الخصائص القدرة على التعلم والاستنتاج ورد الفعل على أوضاع لم تبرمج في الآلة.

والذكاء الاصطناعي يعتبر فرعًا من علم الحاسوب، وتُعرِّف الكثير من المؤلفات الذكاء الاصطناعي على أنه "دراسة وتصميم العملاء الأذكياء"، والعميل الذكي هو نظام يستوعب بيئته ويتخذ المواقف التي تزيد من فرصته في النجاح في تحقيق مهمته أو مهمة فريقه.

وتصاعدت خلال السنوات القليلة الماضية، أصوات عدد من المشاهير الذين يُعتد برأيهم، من ستيفن هوكينج، إلى أيلون ماسك، وبيل جيتس، حذروا بأنه ينبغي علينا أن نقلق أكثر بشأن النتائج الخطيرة المحتملة لأنظمة الذكاء الاصطناعي ذات البراعة الفائقة.

ونجد أن هؤلاء قد استثمروا أموالهم بالفعل في مشروعات يرون أنها ذات أهمية في هذا الإطار، فنجد أن ماسك، مثل كثيرين من أصحاب المليارات، يدعم مؤسسة "أوبن أي آي"، وهي مؤسسة غير ربحية تُكرس جهودها لتطوير أجهزة الذكاء الاصطناعي التي تخدم وتفيد الإنسانية بشكل عام.

لكن يبدو أن هذه المخاوف تنطوي على مبالغة من وجهة نظر العديد من الناس، ويقول أندرو نج، من جامعة ستانفورد، وهو في نفس الوقت كبير العلماء لدى شركة الإنترنت الصينية العملاقة "بايدو": "تشبه المخاوف من ظهور أجهزة روبوت قاتلة تلك المخاوف المتعلقة بالزيادة السكانية على كوكب المريخ".

لكن ذلك لا يعني أن اعتمادنا المتزايد على أجهزة الذكاء الاصطناعي لا يحمل في طياته مخاطر حقيقية. ففي الواقع، هناك مخاطر موجودة بالفعل.

فبينما تتزايد مشاركة المنظومات الذكية بصورة أكبر في عمليات اتخاذ القرار في العديد من المجالات، من الرعاية الصحية، إلى الأمور المالية، مروراً بما يتعلق بالعدالة الجنائية، تزيد احتمالية التعرض لمواقف لا تخضع فيها تلك المنظومات الذكية إلى الرقابة والتدقيق بالشكل اللازم.

وبالإضافة إلى ما ذُكر، يمكن أن يؤدي استخدام أجهزة الذكاء الاصطناعي على نطاق واسع إلى تبعات عديدة لم نستعد لها بعد، مثل تغيير علاقاتنا بالأطباء في حالة الاعتماد على تلك الأجهزة بصورة كاملة في مجال الطب، أو تغيير وسائل مراقبة أحيائنا السكنية أيضا.

فقد كان هناك نظام إلكتروني في أحد المستشفيات يعمل بشكل آلي بهدف تحديد المرضى المصابين بمرض الالتهاب الرئوي ليعرف من منهم في حالة خطيرة قد تؤدي إلى الوفاة، حتى يجري إدخاله إلى المستشفى بصورة عاجلة.

لكن ذلك النظام الآلي جاء بنتيجة مختلفة تماما، إذ صنّف المصابين بمرض الربو على أنهم أقل عرضة للموت، ولا يحتاجون لتلقي العلاج بصورة عاجلة في المستشفى.

ويرجع السبب في ذلك إلى أنه في المواقف العادية، يُنقل المصابون بمرض الالتهاب الرئوي ويُعرف من التاريخ المرضي أنهم يعانون أيضا من الربو، مباشرة إلى قسم العناية المركزة. وبذلك يحصلون على العلاج الذي يُقلل بشكل كبير من مخاطر الوفاة.

لكن الجهاز استنتج من ذلك أن المصابين بالربو ويعانون في نفس الوقت من الالتهاب الرئوي هم أشخاص أقل عرضة للموت.

وبما أن أجهزة الذكاء الاصطناعي تُصمم لتقييم أمور كثيرة في حياتنا، بداية من تصنيفك الائتماني، إلى جدارتك لشغل وظيفة ما، وحتى احتمالات عودة بعض المجرمين لارتكاب جرائم معينة، فإن مخاطر وقوع هذه الأجهزة في خطأ في بعض الأحيان ودون علمنا بذلك، يزيد الوضع سوءاً.

شارك الخبر على