محمد علي الحسيني: "وجود قوات قسد ومستقبلها مرهون بالوجود الأميركي ومصالحه في سورية"
الجميع قد يقع ضحيته.. خطر يتربّص بالعالم وهذا كل ما يمكن للبناني القيام به!
خطر وحيد يجمع الدول العظمى بغيرها في هذه الأيام، وهو الذكاء الاصطناعي والممارسات الناجمة عنه. فبين السياسة والإحتيال المالي والخصوصية الفردية، باتت أجراس الإنذار تقرع في شتى المجالات. ومع التطور المستمر الذي تشهده تكنولوجيا توليد التزييف العميق، لا بدّ من التوقف قليلاً عند هذا التهديد وفهم الموضوع بشكل أوسع.
تزييف الفيديوهات
عن تأثير الذكاء الإصطناعي على صناعة الصور والفيديوهات المزيّفة، سألنا الخبير في الأمن الرقمي والمعلوماتي رولان أبي نجم، الذي أكّد أنه بات كبيراً جداً خاصة مع إنضمام تطبيق Sora التابع لشركة OpenAI الذي بإمكانه إنشاء أي فيديو بشكل متكامل عبر أي نصّ كان.
أبي نجم أشار لـ"لبنان24" إلى أن الأمر لا يتعلّق فقط بهذا التطبيق الحديث والمنتشر كثيراً، بل يمكن أيضاً تزييف الفيديوهات عن طريق تطبيقات عدّة تمكّن المستخدمين من إنشاء صورة أو فيديو عبر نصّ، مشدداً على أن دقّة هذه الفيديوهات عالية جداً HD لذلك من الصعب التمييز بين المحتوى الصحيح والمحتوى المزيّف المصنوع عبر الذكاء الإصطناعي.
وفي ما يشير إلى مدى حساسية هذا الموضوع، أفاد أبي نجم بأنه يمكن صناعة فيديوهات ليس موجودة أصلاً كابتكار أماكن أو أشخاص غير موجودين أبداً، كما يمكن إنشاء فيديوهات عبر التزييف العميق لجعل الأشخاص الحقيقيين يلقون خطابات لم تحصل أبداً.
وفي العودة إلى أصل إنشاء التزييف العميق، فقد تمّ ابتكاره عبر الذكاء الإصطناعي ليس بهدف الشرّ، إنمّا لاستخدامات معيّنة تختلف بين الشخص والآخر.
من هنا، اعتبر أبي نجم أنه في حال تمّ استخدام التقنيات الحديثة والذكية بشكل إيجابي وبنّاء، يمكن أن تفيد في صناعة أبرز وأهمّ المحتويات بشكل إبداعي، بينما يمكن أن تؤثر سلباً على المستخدمين خاصة بما خصّ تزوير الأخبار وسواها وهو ما بدأ يطلّ برأسه على أرض الواقع من خلال مواقع إخبارية مصنوعة عبر الذكاء الإصطناعي، تبثّ أخباراً ونصوصاً وفيديوهات قد يصعب على المستخدم التمييز بينها وبين ما هو حقيقي.
هل الوقاية ممكنة؟
الخبر السيء هنا بحسب أبي نجم، هو أنه "مع الأسف لا يمكن الوقاية من هذا الأمر على الصعيد الشخصي ولا العام، وما من إجراءات يمكن اتخاذها لعدم وقوع ضحية التزييف، خاصة مع غياب أي ضوابط وقوانين"، مشيراً إلى أنه حتى ولو سُنّت هذه القوانين، إلا أنها ستبقى محدودة، لأنه مثلاً إذا قام أحد الناشطين في كوريا الشمالية بابتكار فيديو استهدف أشخاصاَ في لبنان، فلا يمكن لهم التحرك ضدّه، وبالتالي الأمر ليس محصوراً في إطار جغرافي كي يتمكّن المستخدمون من حماية أنفسهم.
إلا أن أبي نجم ركّز بشكل كبير في هذا السياق على الوعي الذي يجب أن يتحلّى به رواد مواقع التواصل الإجتماعي، داعياً لاتباع منهج Zero Trust أي عدم الثقة بأي شيء، خاصة أنه في ظل الحديث عن الذكاء الإصطناعي والإبتكار السهل للفيديوهات والأصوات، يجب دوماً التأكد من المعلومات قبل تصديقها، قائلاً إن "عبارة "لا أصدّق شيئاً قبل رؤيته صوتاً وصورة" التي كنا نعتمدها في السابق، باتت غير صحيحة ولا فعاّلة في أيامنا هذه".
التشريع أبطأ من التطور
وعلى صعيد الرّدع، أشار أبي نجم إلى أن الأنظمة العالمية تحاول بشكل جدّي وضع ضوابط لهذا الموضوع، وخاصة الإتحاد الأوروبي وأميركا، إلا أن الأمر ليس بهذه السهولة إذ أن المشرّعين ليسوا بعد على دراية كافية بمخاطر الذكاء الإصطناعي الذي لا يزال حديثاً جداً بالنسبة لهم.
وفي هذا الإطار، قد يكون التشريع أبطأ من التطور لأن بعض التشريعات التي يتمّ العمل عليها الآن لن تكون قيد التطبيق قبل العام 2026، ومن الآن حينه بحسب أبي نجم، أمور كثيرة حديثة ستطرأ تقنياً.
وأضاف أنه يتمّ اليوم الضغط باتجاه محركات البحث كغوغل ويوتيوب وغيرهما، كي تضع ما يشير إلى أن المحتوى مصنوع عن طريق الذكاء الإصطناعي لمساعدة المستخدمين على معرفة الحقيقي من المزّيف، إلا أن هذا الأمر لا يزال قيد البحث والدراسة.
ماذا عن لبنان؟
وعن واقع لبنان من هذا الخطر المستجدّ، فأشار أبي نجم إلى أن الأمر لا يتعلّق بدولة واحدة وهو قطعاً موجود في لبنان كما في الخارج لأن المحتوى منشور عبر الإنترنت في كل العالم.
إلا أنه شدّد على أن المواطن اللبناني الذي يقع ضحية أي فيديو مفبرك له، أن يرفع دعوى قضائية عبر النيابة العامة التمييزية لتتحول إلى مكتب مكافحة الجرائم المعلوماتية، والهدف منها حماية النفس وليس الحصول على تعويض.
وأوضح أن "المواطن ممكن أن يتوّرط بأي شكل من الأشكال في حال تمّت فبركة فيديو له، لذا عندما يرفع دعوى قضائية، فهذا سيكون في سبيل رفع المسؤولية عن نفسه لا أكثر".
انضم إلى قناتنا الإخبارية على واتساب
تابع آخر الأخبار والمستجدات العاجلة مباشرة عبر قناتنا الإخبارية على واتساب. كن أول من يعرف الأحداث المهمة.
انضم الآنشاركنا رأيك في التعليقات | |||
تابعونا على وسائل التواصل | |||
Youtube | Google News |
---|