Qsarpress

ما في ذلك السياسة والأعمال والتكنولوجيا والحياة والرأي والرياضة.

أدوات فيديو جديدة تعمل بالذكاء الاصطناعي تثير المخاوف بشأن التزييف العميق قبل الانتخابات |  أخبار فنية

أدوات فيديو جديدة تعمل بالذكاء الاصطناعي تثير المخاوف بشأن التزييف العميق قبل الانتخابات | أخبار فنية

الفيديو الذي أصدرته شركة OpenAI للكشف عن أداة تحويل النص إلى فيديو الجديدة، Sora، يجب أن يُشاهد حتى يُصدق. لقطات فوتوغرافية لماموث صوفي ينطلق عبر السحب الثلجية، وزوجين يسيران عبر أزهار الكرز المتساقطة، ولقطات جوية لاندفاع الذهب في كاليفورنيا.

ودفع الاحتجاج المخرج تايلر بيري إلى تعليق استثمار بقيمة 800 مليون دولار في الاستوديو. تعد أدوات مثل Sora بترجمة رؤية المستخدم إلى صور متحركة واقعية بمطالبات نصية بسيطة.

ويشعر آخرون بالقلق من أن الذكاء الاصطناعي مثل هذا يمكن استخدامه من قبل الأشخاص ذوي الخيال المظلم. يمكن للجهات الفاعلة الخبيثة استخدام هذه الخدمات لإنشاء صور مزيفة واقعية للغاية، أو إرباك الناخبين أو تضليلهم أثناء الانتخابات، أو التسبب في الارتباك من خلال زرع شائعات مثيرة للانقسام.

ويكافح المنظمون وإنفاذ القانون ومنصات التواصل الاجتماعي بالفعل للتعامل مع موجة من المعلومات المضللة الناتجة عن الذكاء الاصطناعي، بما في ذلك الصوت المزيف للقادة السياسيين الذي يُزعم أنه ساعد في التأثير على الانتخابات في سلوفاكيا ومنع التصويت في الانتخابات التمهيدية في نيو هامبشاير.

ويشعر السياسيون والمجتمع المدني بالقلق من أنه مع تزايد تطور هذه الأدوات، سيكون من الصعب أكثر من أي وقت مضى على الناس العاديين معرفة ما هو حقيقي وما هو مزيف.

لكن خبراء التضليل السياسي والذكاء الاصطناعي يقولون إن الاستخدام المتزايد لمنتجات الذكاء الاصطناعي هو مجرد وجه جديد لمشكلة قديمة. تضيف هذه الأدوات إلى ترسانة جيدة التجهيز من التقنيات والتقنيات المستخدمة للتلاعب والتضليل.

إن التصدي لتحدي التزييف العميق يعني في الواقع معالجة الأسئلة التي لم يتم حلها بعد حول كيفية تنظيم منصات الوسائط الاجتماعية التي تنتشر فيها ومحاسبة شركات التكنولوجيا الكبرى عند إساءة استخدام منتجاتها.

وقال كالوم هود، رئيس قسم الأبحاث في مركز مكافحة الكراهية الرقمية (CCDH)، وهي مجموعة ناشطة: “إن مولدات الصور التي تعمل بالذكاء الاصطناعي تهدد بتفاقم مشكلة التضليل الانتخابي، لكن علينا أن نكون حذرين للغاية لأنها مشكلة بالفعل”. “نحن بحاجة بالفعل إلى اتخاذ تدابير صارمة من منصات وسائل التواصل الاجتماعي بشأن المشكلة الحالية.”

READ  يعلن الاتحاد الأوروبي أن iMessage من Apple وEdge وBing من Microsoft ليسا حراس بوابة

العديد من الشركات التي تقدم أدوات إنشاء صور الذكاء الاصطناعي، بما في ذلك Midjourney وOpenAI وMicrosoft، لديها سياسات معمول بها تمنع المستخدمين من إنشاء صور زائفة. ومع ذلك، يقول المجلس الاستشاري لحقوق الإنسان أن هذه السياسات لا يتم تنفيذها.

وفي دراسة نُشرت في 6 مارس، أظهر المركز أنه من السهل نسبيًا إنشاء صور خطيرة في البيئة الحزبية للغاية للانتخابات الأمريكية، بما في ذلك الصور المزيفة التي تشبه الصور للرئيس الأمريكي جو بايدن أو تهنئة المهاجرين. حدود المكسيك وصور على غرار كاميرات المراقبة لتعطيل الانتخابات.

وساهمت مزاعم الرئيس الأمريكي السابق دونالد ترامب بأن انتخابات 2020 مسروقة في إثارة احتجاجات عنيفة في مبنى الكابيتول. [Jonathan Ernst/Reuters]

تعكس هذه الصور الأكاذيب الشائعة في السياسة الأمريكية. روج الرئيس السابق دونالد ترامب بشكل روتيني لفكرة تزوير نتائج انتخابات 2020، مما أدى إلى احتجاجات عنيفة في مبنى الكابيتول في يناير 2021.

“إنه يظهر [the companies] وقال هود: “لم يتم التفكير في الأمر بشكل كافٍ. تكمن نقطة الضعف الكبيرة هنا في الصور التي تُستخدم لدعم الادعاءات الكاذبة عن انتخابات مسروقة أو تزوير الانتخابات”.

وجد الباحثون اختلافات كبيرة في كيفية استجابة صانعي الصور الفرديين للمطالبات، حيث لم يسمح البعض للمستخدمين بإنشاء صور متحيزة بشكل علني. وقال هود “تظهر هذه الاختلافات أنه يمكن وضع ضمانات فعالة”، مضيفا أنها تعكس اختيار المؤسسات.

وقال: “هذا يدل على وجود خلل أوسع بين دوافع الربح لشركات الذكاء الاصطناعي والأمن”. “يمكنهم طرح المنتجات، وطرح ميزات جديدة، والحصول على المزيد من التمويل الاستثماري أو الاستثمار. ليس لديهم أي حافز للإبطاء ويكونوا آمنين أولاً.

ولم تستجب شركات OpenAI وMicrosoft وMidJourney لطلبات التعليق.

أنجز قليلا

ومن المرجح أن يأتي هذا الحافز فقط في هيئة تنظيمات تجبر شركات التكنولوجيا على التحرك. لكن خبراء التضليل على وسائل التواصل الاجتماعي يقولون إنهم يشعرون وكأنهم شاهدوا من قبل. تبدو المحادثات حول تنظيم الذكاء الاصطناعي مشابهة بشكل مخيف للمعلومات الخاطئة المنتشرة على وسائل التواصل الاجتماعي منذ سنوات. لقد وعدت شركات التكنولوجيا الكبرى باتخاذ إجراءات لمعالجة انتشار الأكاذيب الخطيرة، لكن المشكلة لا تزال قائمة.

READ  أفضل جهاز Apple iPad لكل أنواع الأشخاص والميزانية

وقال ويليام دانس، وهو زميل باحث كبير في جامعة لانكستر والذي قدم المشورة للإدارات الحكومية البريطانية وأجهزة الأمن بشأن المعلومات المضللة: “إنه مثل يوم جرذ الأرض”. “إنه يخبرك بمدى ضآلة ما أنجزناه خلال السنوات العشر إلى الخمس عشرة الماضية.”

ومع الانتخابات المشحونة للغاية في الاتحاد الأوروبي والمملكة المتحدة والهند والولايات المتحدة هذا العام، جددت شركات التكنولوجيا الكبرى التزامها فرديًا وجماعيًا بالحد من انتشار مثل هذه المعلومات الخاطئة والمعلومات المضللة على منصاتها.

في أواخر فبراير، أعلنت شركة ميتا المالكة لفيسبوك وإنستغرام عن سلسلة من الإجراءات للحد من المعلومات المضللة والحد من نطاق أنشطة التأثير المستهدفة خلال انتخابات البرلمان الأوروبي. يتضمن ذلك السماح لشركاء التحقق من الحقائق – الشركات المستقلة التي تسمح لها Meta بتسمية المحتوى نيابة عنها – بتسمية المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي أو المحتوى الذي تم التلاعب به.

Meta هي واحدة من حوالي 20 شركة وقعت على “اتفاقية التكنولوجيا” التي تعد بتطوير أدوات لاكتشاف المعلومات المضللة الناتجة عن الذكاء الاصطناعي وتصنيفها وإزالتها.

وقال دانس: “يبدو أن هناك نوعاً من القالب الفارغ: دعونا نبذل كل ما في وسعنا للدفاع ضد الفراغ”. “التضليل، خطاب الكراهية، الذكاء الاصطناعي، أي شيء آخر.”

إن التقاء الذكاء الاصطناعي الجامح ووسائل التواصل الاجتماعي الجامحة يثير قلق الكثيرين في المجتمع المدني، خاصة وأن العديد من منصات التواصل الاجتماعي الكبيرة قامت بفصل فرق “الثقة والسلامة” المسؤولة عن مراقبة استجابتها للمعلومات المضللة والمعلومات المضللة وخطاب الكراهية والمحتويات الضارة الأخرى. . فقدت شركة X – تويتر سابقًا – ما يقرب من ثلث موظفي الثقة والأمن لديها بعد أن استحوذ إيلون ماسك على الموقع في عام 2022.

قال هود من CCDH: “نحن في وضع مزدوج حيث تتوفر أدوات وقدرات جديدة لأولئك الذين ينشرون معلومات مضللة عن الانتخابات، في حين أن شركات وسائل التواصل الاجتماعي، في كثير من الحالات، تحد من نفسها عمدًا من حيث قدراتها على التعامل مع المعلومات المضللة الانتخابية”. “لذا فإن هذا اتجاه مهم ومثير للقلق للغاية.”

READ  مايكروسوفت تكشف عن حد جديد للسطح ، لكن هاتف Kiwis Surface Dio 2 مفقود

قبل أن تبدأ الدورات الانتخابية بشكل جدي، من الصعب التنبؤ بمدى انتشار التزييف العميق على وسائل التواصل الاجتماعي. لكن الباحثين يقولون إن بعض الأضرار قد حدثت بالفعل. عندما يصبح الناس أكثر وعيًا بقدرتهم على إنشاء مشاهد أو صور مزيفة ومعقدة، فإن ذلك يخلق حالة من عدم الثقة والقلق على نطاق واسع. يمكن رفض الصور أو مقاطع الفيديو الحقيقية باعتبارها مزيفة – وهو ما يُعرف باسم “أرباح الكذاب”.

“أتصل بالإنترنت وأرى شيئًا وأتساءل: هل هذا حقيقي؟ هل هذا الذكاء الاصطناعي مصنوع؟” وقال كايتشنغ يانغ، الباحث في جامعة نورث إيسترن الذي يدرس الذكاء الاصطناعي والمعلومات المضللة، “لا أستطيع أن أقول أي شيء أكثر من ذلك. بالنسبة للمستخدمين العاديين، أعتقد أن الأمر سيكون سيئا”. لا يهم مقدار المحتوى الأصلي الموجود على الإنترنت. وطالما أن الناس يعتقدون أن هناك المزيد، فلدينا مشكلة.