تكنولوجيا

مدير كبير في غوغل: الذكاء الاصطناعي يستطيع قتل الآلاف!

Please Try Again
انضم الى اخبار القناة الثالثة والعشرون عبر خدمة واتساب...
اضغط هنا

لم تعد أهمية الذكاء الاصطناعي تخفى على أحد، خصوصاً أن عدة دراسات أفادت أنه سينهي العديد من الوظائف الحالية، وقد يحل مكان الإنسان يوماً ما.
إلا أن مضار كثيرة لهذا النظام بدأت تطفو على السطح، فتارة نسمع عن محتال استخدم تقنية الذكاء الاصطناعي بغرض السرقة، وأخرى تتحدث عن حوادث انتحال صفة.

خطر وجودي
في هذا السياق، أوضح إريك شميدت، الرئيس التنفيذي السابق لشركة غوغل، أن نماذج الذكاء الاصطناعي العريضة تشكل خطرا وجوديا على الإنسانية.

وحذر من أن الذكاء الاصطناعي (AI) ستكون لديه القدرة على إيذاء أو قتل العديد من الأشخاص في المستقبل القريب.

كما أعرب عن قلقه بشأن "الخطر الوجودي" للتكنولوجيا سريعة التطور، وحذر من صعوبة احتوائها، موضحاً أن العديد والعديد والعديد والعديد من الأشخاص سيتعرضون للأذى أو القتل.

وقال شميدت في مؤتمر مجلس الرؤساء التنفيذيين في وول "ستريت جورنال" في لندن، إن هناك سيناريوهات قريبة تتحدث عن أن أنظمة الذكاء الاصطناعي ستكون قادرة على اكتشاف ثغرات ومشكلات في الإنترنت وأنواع جديدة من البيولوجيا.

كما لفت إلى أن هذا خيال اليوم، لكنه من المرجح أن يكون المنطق صحيحا، لافتا إلى أنه وعندما يحدث ذلك، فإن الأشرار سيكونون مستعدين لاستعمال هذه الأنظمة.

محاكاة لعمل الدماغ
يأتي هذا التحذير في وقت شدد فيه المسؤول أيضاً على الصعوبة التي قد يواجهها العالم للتحكم في انتشار الذكاء الاصطناعي، والذي قارنه بظهور التكنولوجيا النووية.
يذكر أن أنظمة الذكاء الاصطناعي تعتمد عادة على الشبكات العصبية الاصطناعية (ANN)، التي تحاول محاكاة الطريقة التي يعمل بها الدماغ من أجل التعلم.

كما يمكن تدريب الشبكات العصبية الاصطناعية على التعرف على أنماط المعلومات بما في ذلك الكلام أو البيانات النصية أو الصور المرئية وهي الأساس لعدد كبير من التطورات في الذكاء الاصطناعي خلال السنوات الأخيرة.

انضم إلى قناتنا الإخبارية على واتساب

تابع آخر الأخبار والمستجدات العاجلة مباشرة عبر قناتنا الإخبارية على واتساب. كن أول من يعرف الأحداث المهمة.

انضم الآن
شاركنا رأيك في التعليقات
تابعونا على وسائل التواصل
Twitter Youtube WhatsApp Google News
انضم الى اخبار القناة الثالثة والعشرون عبر قناة اليوتيوب ...
اضغط هنا