محليات

بالصور: الذكاء الاصطناعي يزيّف مشاهد الاعتداءات على لبنان… كيف نكشفها؟

Please Try Again
انضم الى اخبار القناة الثالثة والعشرون عبر خدمة واتساب...
اضغط هنا

بالتزامن مع الحرب بين حزب الله واسرائيل، تزداد المخاوف بشأن قدرة تقنية التزييف العميق على نشر الأخبار المضللة من خلال استغلال الذكاء الاصطناعي لصناعة محتوى زائف، بهدف اثارة مشاعر الغضب والتلاعب بانطباعات المتابعين وعواطفهم. فمئات الصور والقصص والأخبار والمعلومات المزيفة، اجتاحت مواقع التواصل الاجتماعي واكتسبت انتشارا واسعا مرتبطا بمتابعة مجريات النزاع.


منذ بداية الحرب، تم استخدام الصور المعدلة رقميا لتقديم منشورات وصور وفيديوهات كاذبة.
على سبيل المثال، تم تداول صورة على منصات مختلفة، تدعي أنها تظهر عواقب هجوم صاروخي على قاعدة رامات ديفيد الجوية في إسرائيل من قبل حزب الله في 22 أيلول. فخبر استهداف حزب الله قاعدة ومطار رامات ديفيد بعشرات الصواريخ من طراز "فادي" صحيح انما الصورة المنتشرة كانت مزيفة ومعدلة عبر تقنيات الذكاء الاصطناعي.

الى ذلك، أظهر "مونتاج" فيديو لضربات جوية في بيروت، نُشرعلى منصة "أكس"، حرائق هائلة في أفق المدينة ليتبيّن لاحقا أن المشهد الأكثر دراماتيكية صنع بواسطة الذكاء الاصطناعي.

وتم أخذ المقطع، الذي يُزعم أنه يُظهر لقطات نارية للقصف الإسرائيلي في لبنان، من مقطع فيديو قصير نُشر على TikTok بواسطة المستخدم @digital.n0mad ووضع علامة على الفيديو على أنه في بيروت.
هل من أداة خاصّة لكشف الصور؟

هناك أدوات عدّة لكشف هذه الصور وأخرى قيد التطوير، إلا أنّ النتائج التي تقدّمها ليست حاسمة، وقد تعطي نتائج غير دقيقة، بحسب تجارب قام بها صحافيو وكالة "فرانس برس".
ويشرح ديفيد فيشينغر المهندس المتخصّص في الذكاء الاصطناعيّ في جامعة فيينا للتكنولوجيا أنّ عمل الذكاء الاصطناعي لا يقوم على مجرّد اقتطاع أجزاء من صورٍ لإعادة تركيبها، إذ "يلجأ إلى ملايين بل مليارات الصور لاستخراج بيانات منها، ثمّ يعيد استخدامها لتوليد صورة جديدة تماماً".

لهذه الأسباب، لا يمكن لمنصّات كشف الذكاء الاصطناعي أن تصل لنتائج حاسمة في هذه المرحلة.

وبحسب الخبراء، أفضل طريقة لكشف حقيقة الصورة تكمن في العثور على مصدرها الأصليّ.
الى ذلك، ستعمل العديد من أدوات توليد الصور بالذكاء الاصطناعي على تعتيم الخلفية بالكامل، وهو ما يضمن عدم ظهور أي تفاصيل غريبة بسهولة.
ونتيجةً لذلك، تكون الخلفية الضبابية بالكامل مثيرة للشكوك حول طبيعة الصورة، ويمكن أن نعتبرها من العلامات. لكن إن كانت الخلفية واضحة، يجب أن تنظر فيها بعمق أكثر، فمن المحتمل جدا أن تكون خلفية صورة الذكاء الاصطناعي مشوهة.
والعلامة الأشهر في صور الذكاء الاصطناعي هي الأيدي الغريبة، فقد تتضمن صورة الشخص إصبعا سادسا، أو بدون إصبع الإبهام، أو تضيف مفصلا إضافيا، أو قد تختلط بعض الأصابع معا. وبالطبع، تطورت النماذج الآن وأصبحت تلك العلامة أقل وضوحا من السابق، لكن من الممكن ملاحظتها في الصور التي تجمع أكثر من شخص.
وفي أي صورة فيها مشهد جماعي، انتبه إلى الأشخاص الموجودين في الخلفية: من المحتمل أن يكون هناك عدد زائد من الأرجل، أو بعض الأيدي غريبة الشكل، أو ذراع معلقة حول كتف بلا جسد.

كما يمثل الشعر أيضا مشكلة بالنسبة لنماذج الذكاء الاصطناعي، قد تكتشف الصورة من مظهر وتصميم الشعر. ويتكون شعر الإنسان من خصلات تنساب من الرأس إلى أسفل، أما خصلات الشعر التي ينتجها الذكاء الاصطناعي في الصور فغالبا ما تكون بدايتها ونهايتها أقل وضوحا، وقد تبدو مرسومة عند ملاحظتها عن قرب.

في عالم تنتشر فيه أدوات الذكاء الاصطناعي بكثرة، وغالبا ما تظهر هذه الصور بدون أي تعريف يوضح أنها صور أنتجتها تلك النماذج، فما علينا الا التحقق من صحتها وعدم تصديقها فورا عند المشاهدة.

 

شاركنا رأيك في التعليقات
تابعونا على وسائل التواصل
Twitter Youtube WhatsApp Google News
انضم الى اخبار القناة الثالثة والعشرون عبر قناة اليوتيوب ...
اضغط هنا