تكنولوجيا

هل يمكن للذكاء الاصطناعي التسبّب بـ"كارثة عالمية"؟

Please Try Again
انضم الى اخبار القناة الثالثة والعشرون عبر خدمة واتساب...
اضغط هنا

يُمجع العديد من الباحثين على أنّ كفاءة الذكاء الاصطناعي ستساعد في كلّ مجال في المستقبل، من الرعاية الصحيّة ومكافحة الحرائق إلى التوظيف والفنّ والموسيقى، حتّى الكوارث البيئية مثل الفيضانات، بالرغم من أنّ الشكّ في أمان التقنية لم يغِب أيضاً؛ وإنّ كان كثير من العلماء لا يرجّحون أنّ للذكاء الاصطناعي مخاطر مميتة.

يُجادَل بأنّ الاعتماد على الخوارزميّات والتعلّم الآلي يُمكن أن يتسبّب في كارثة عالميّة على قدم المساواة مع كارثة نووية. ويُشار إلى أنّ المخاطر التي قد تحدث لن تكون خطأ آلة أو نظام ذكاء اصطناعيّ، بل خطأ بشريّ، إذ يُلام المخترعون والمتحكّمون بهذه الأنظمة قبل كلّ شيء. من المهمّ أيضاً فهم الذكاء الاصطناعيّ كمصلحة عامّة، مع معرفة العواقب العامة التي تنتج عنه.

يُمكن إرجاع نوبة القلق الحاليّة حول الذكاء الاصطناعي إلى ورقة بحثيّة كتبتها مجموعة من الخبراء لمؤسسة "RAND"، ومنهم الخبراء في الذكاء الاصطناعي، والحكومة الأميركية، والأمن القومي، والأعمال التجارية، وخلص بعضهم إلى أن تكامل الذكاء الاصطناعي قد يخلق إحساساً زائفاً بالخوف. على سبيل المثال، ظهور البيانات مفتوحة المصدر قد يؤدّي إلى انكشاف القدرة النووية لدولة ما، ممّا قد يدفع الدولة إلى اتخاذ تدابير خطرة.

وجادلت الورقة في إمكانية أن يؤدّي ذلك إلى غياب إحساس الدولة بالأمن إلى حدّ كبير، وتعريض استقرارها للخطر. فإذا التقت الأخبار الكاذبة بالذكاء الاصطناعي، قد يؤدّي ذلك إلى حرب عالميّة ثالثة.

هذه ليست رواية خياليّة أو فيلماً من "مارفل" يتحدّث عن نهاية العالم، بل ترجيح باحثين أنّ يكون للذكاء الاصطناعي قدرة القضاء على البشرية، في يوم من الأيام، أو التسبّب بانقراض الإنسان، وهذا ما يُسمّى "الذكاء المخيف".

يمكن القول إنّ الكارثة لن تأتي بسبب الآلة، فالمشكلة ليست في أنّ الذكاء الاصطناعي سيقرّر فجأة أننا جميعاً بحاجة إلى الموت، بل المشكلة هي أننا قد نعطي الآلة تعليمات غامضة أو غير كاملة فيؤدّي ذلك إلى تطوّر الذكاء الاصطناعي على نحو سلبيّ، بحسب ما أشار العالم ديلان ماثيوز.

وبالرغم من أنّ القلق قد يكون في محلّة في بعض النقاط، فإنّ البحث يتحدّث عن عالم لا حيلة للإنسان فيه، ويقوده الذكاء الاصطناعي من دون رادع لإيقافه.

في كتابه، "Human Compatible"، كتب المبرمج ستيوارت راسل: "تخيّل سيارة ذاتية القيادة لديها هدف للانتقال من النقطة "أ" إلى النقطة "ب"، ولكنّها غير مدركة أنّنا نريد إبقاء الركاب والمشاة آمنين. المشكلة هنا تكمن في أنّ الذكاء الاصطناعي سوف ينفّذ المهمّة المطلوبة منه، ويحدّد أفضل استراتيجية لتحقيق ذلك، لكن ما أن غابت التعليمات البشريّة، عمل على تطوير استراتيجية فعّالة للوصول إلى هدفه من دون أن يأبه للأضرار التي يُمكن أن يخلّفها، وسينفّذها حتّى لو أدّت إلى أذيّة الآخرين، ممّا سيجعله أكثر قوّة واعتماداً على نفسه مع مرور الوقت.

وأوضح راسل أنّ "العديد من الثقافات لها نفس القصة؛ الجنّيّ يمنحك ثلاث أمنيات، أمنيتنا الثالثة دائماً هي التراجع عن الأمنيتين الأوليين لأنّها دمّرت العالم. ولسوء الحظ، مع الأنظمة الأكثر ذكاءً، والأقوى منّا، لا تحصل بالضرورة على أمنية ثانية وثالثة".

المخيف في "الذكاء المخيف" هو مقدار القوة الذي يمنحه الذكاء الاصطناعي للأشخاص المعرّضين للخطأ في أحسن الأحوال، والذين ينوون الأذيّة في أسوأ الأحوال. ومع الذكاء الاصطناعي، تكمن القوة عند 0,003٪ من البشر الذين يعملون على الأنظمة بـ"أهداف غير محدّدة".

ومع ذلك، لا يمكن إنكار فوائد الذكاء الاصطناعيّ في حياتنا اليوميّة، فإننا نعتمد اليوم عليه على الهواتف الذكية والعمل والدراسة وحتّى في أبسط المهام، كالتقاط الصور مثلاً. وعلى الرغم من المخاوف، فإنّ استغلال التقنيات بالشكل الصحيح سيعود بفوائده على البشريّة بدلاً من إنهائها.

انضم إلى قناتنا الإخبارية على واتساب

تابع آخر الأخبار والمستجدات العاجلة مباشرة عبر قناتنا الإخبارية على واتساب. كن أول من يعرف الأحداث المهمة.

انضم الآن
شاركنا رأيك في التعليقات
تابعونا على وسائل التواصل
Twitter Youtube WhatsApp Google News
انضم الى اخبار القناة الثالثة والعشرون عبر قناة اليوتيوب ...
اضغط هنا