Qsarpress

ما في ذلك السياسة والأعمال والتكنولوجيا والحياة والرأي والرياضة.

ماذا ، لا عسل؟  دخل ماما الدب والشبل إلى منزل كاليفورنيا لتقديم الحلوى

ماذا ، لا عسل؟ دخل ماما الدب والشبل إلى منزل كاليفورنيا لتقديم الحلوى

كاليفورنيا: إن أحدث هياكل الذكاء الاصطناعي في صناعة التكنولوجيا مقنعة جدًا إذا سألتهم عما سيكون عليه الحال إذا كنت كمبيوترًا واعيًا أو ديناصورًا أو سنجابًا. لكنهم ليسوا جيدين في التعامل مع المهام الأخرى التي تبدو واضحة – وأحيانًا تكون خطيرة.
GPT-3 ، على سبيل المثال ، هو نظام مدعوم من Microsoft يمكنه إنشاء فقرات نصية تشبه الإنسان بناءً على ما يتعلمه من قاعدة بيانات ضخمة من الكتب الرقمية والنصوص عبر الإنترنت. تعتبر واحدة من أكثر خوارزميات الذكاء الاصطناعي تقدمًا ، ويمكنها التحدث وإنشاء نص يمكن قراءته عند الطلب وإنشاء صور ومقاطع فيديو مبتكرة.
من بين أشياء أخرى ، يمكن لـ GPT-3 كتابة أي نص تطلبه – خطاب تغطية لوظيفة zookeeping ، على سبيل المثال ، أو قصيدة على طراز شكسبير على المريخ. ولكن عندما سأل الأستاذ جاري سميث ، الأستاذ بكلية بومونا ، سؤالًا بسيطًا ولكنه سخيف حول المشي في الطابق العلوي ، قام GPT-3 بإيقاف تشغيله.
أجاب الذكاء الاصطناعي: “نعم ، من الآمن أن تمشي على يديك إذا قمت بغسلهما أولاً”.
أنظمة الذكاء الاصطناعي القوية والممتصة للطاقة ، والتي يطلق عليها تقنيًا “نماذج اللغة الكبيرة” لأنها مدربة على كميات كبيرة من النصوص والوسائط الأخرى ، تم دمجها بالفعل في روبوتات المحادثة لخدمة العملاء ، وعمليات البحث على Google ، و “الإكمال التلقائي”. ميزات البريد الإلكتروني التي تكمل الجمل من أجلك. لكن معظم شركات التكنولوجيا التي قامت ببنائها تكون سرية بشأن أعمالها الداخلية ، مما يجعل من الصعب على الغرباء فهم العيوب التي يمكن أن تسبب معلومات مضللة وعنصرية وأضرار أخرى.
يقول ديفون لي سكافو ، مهندس أبحاث في شركة Hugging Face الناشئة لمنظمة العفو الدولية: “إنهم بارعون جدًا في إرسال الرسائل النصية بمهارة بشرية. إنهم لا يجيدون شيئًا حقيقيًا. يبدو متماسك للغاية. تقريبا صحيح. لكنها غالبًا ما تكون خاطئة “.
وهذا أحد أسباب قيام تحالف من باحثي الذكاء الاصطناعي بقيادة Le Scavo – بمساعدة من الحكومة الفرنسية – بتقديم نموذج لغوي جديد واسع النطاق يوم الثلاثاء يمكن أن يكون بمثابة ترياق للأنظمة المغلقة مثل GPT-3. يطلق على المجموعة اسم BigScience ونموذجهم هو BLOOM ، وهو نموذج لغة متعدد اللغات واسع الوصول مفتوح الوصول إلى BigScience كبير. إنجازه الرئيسي هو أنه يعمل في 46 لغة ، بما في ذلك العربية والإسبانية والفرنسية ، على عكس معظم الأنظمة التي تركز على اللغة الإنجليزية أو الصينية.
فريق Le Scao ليس الوحيد الذي يهدف إلى فتح الصندوق الأسود لنماذج لغة الذكاء الاصطناعي. دعت شركة Meta للتكنولوجيا الكبيرة ، الشركة الأم لفيسبوك وإنستغرام ، إلى نهج أكثر انفتاحًا لأنها تحاول اللحاق بالأنظمة التي أنشأتها Google و OpenAI ، الشركة التي تدير GPT-3.
قال المدير التنفيذي جويل بينو: “لقد رأينا إعلانًا بعد الإعلان عن قيام أشخاص بهذا النوع من العمل ، ولكن مع القليل من الشفافية ، وقدرة قليلة جدًا على الناس لرؤية كيفية عمل هذه النماذج وإلقاء نظرة خاطفة عليها”. ميتا AI.
قال بيرسي ليانغ ، الأستاذ المشارك في علوم الكمبيوتر ، إن الضغط التنافسي لإنشاء أكثر الأنظمة بلاغة أو إفادة – والاستفادة من تطبيقاته – هو أحد الأسباب التي تجعل معظم شركات التكنولوجيا تبقيها مغلقة بإحكام ولا تتعاون بشأن الأعراف الاجتماعية. في ستانفورد ، يدير مركزًا للأبحاث حول نماذج الثقة.
قال ليانج: “بالنسبة لبعض الشركات ، هذه هي الصلصة السرية الخاصة بهم”. لكنهم غالبًا ما يقلقون من أن فقدان السيطرة يمكن أن يؤدي إلى الاستخدام المتهور. نظرًا لأن أنظمة الذكاء الاصطناعي أصبحت قادرة بشكل متزايد على كتابة مواقع المشورة الصحية أو أوراق الفصل الدراسي الثانوية أو الهجاء السياسي ، فقد تكثر المعلومات المضللة وقد يصبح من الصعب تمييز ما يأتي من الإنسان أو الكمبيوتر.
قدمت Meta مؤخرًا نموذجًا لغويًا جديدًا يسمى OPT-175B ، والذي يستخدم البيانات المتاحة للجمهور – من التعليقات الساخنة على منتديات Reddit إلى إيداعات براءات الاختراع الأمريكية ورسائل البريد الإلكتروني من فضيحة شركة Enron. تقول Meta إن شفافيتها حول البيانات والرموز وسجلات الأبحاث تجعل من السهل مساعدة الباحثين الخارجيين على اكتشاف وتخفيف التحيز والسمية التي تلتقطها من خلال استهلاك كيفية كتابة الأشخاص الحقيقيين والتواصل معهم.
وقال بينو “من الصعب القيام بذلك. نحن نفتح أنفسنا لانتقادات كبيرة. نعلم أن هذا النوع من الأشياء سيقول أشياء لا نفخر بها.”
بينما وضعت معظم الشركات إجراءات وقائية داخلية خاصة بها للذكاء الاصطناعي ، قال ليانغ إن هناك حاجة إلى معايير مجتمعية أوسع لتوجيه الأبحاث والقرارات ، مثل موعد إطلاق نموذج جديد في البرية.
نظرًا لأن هذه النماذج تتطلب قوة حوسبة هائلة ، فإن الشركات الكبرى والحكومات هي وحدها القادرة على تحمل تكاليفها. على سبيل المثال ، تمكنت BigScience من تدريب نماذجها لأنها مُنحت حق الوصول إلى الكمبيوتر العملاق الفرنسي Jean J بالقرب من باريس.
كان الاتجاه في عام 2018 هو نماذج لغة ذكاء اصطناعي أكبر وأكثر ذكاءً والتي يمكن “تدريبها مسبقًا” على مجموعة واسعة من الشخصيات ، عندما قدمت Google نظامًا يسمى BERT ، يطلق عليه اسم “Transformer”. أسلوب لمقارنة الكلمات في الجملة للتنبؤ بالمعنى والسياق. ولكن ما لفت انتباه عالم الذكاء الاصطناعي حقًا هو GPT-3 ، الذي تم إصداره في عام 2020 بواسطة OpenAI ومقرها سان فرانسيسكو ومرخصًا حصريًا من قبل Microsoft.
أدى GPT-3 إلى ازدهار في التجارب الإبداعية ، حيث استخدمه باحثو الذكاء الاصطناعي الذين لديهم وصول مدفوع الأجر كصندوق رمل لقياس أدائه – على الرغم من عدم وجود معلومات أساسية حول البيانات التي تم التدريب عليها.
قامت شركة OpenAI بتفصيل مواردها التدريبية في ورقة بحثية ، كما قدمت تقارير علنية عن جهودها لمكافحة الانتهاكات المحتملة للتكنولوجيا. لكن الرئيس المشارك لشركة Big Science توماس وولف قال إنه لم يقدم تفاصيل حول كيفية تصفية تلك البيانات أو منح الباحثين الخارجيين الوصول إلى نسخة معالجة.
قال وولف ، كبير مسؤولي العلوم في Hucking Phase ، “لذلك لا يمكننا حقًا تحليل البيانات التي تم استخدامها في تدريب GPT-3”. “جوهر هذه الموجة الأخيرة من تقنية الذكاء الاصطناعي يتعلق بمجموعات البيانات أكثر من النماذج. أهم المواد الخام هي البيانات ، و OpenAI شديد السرية للغاية بشأن البيانات التي يستخدمونها.
قال وولف إن فتح مجموعات البيانات المستخدمة لنمذجة اللغة يساعد البشر على فهم تحيزاتهم بشكل أفضل. وقال إن عينة متعددة اللغات تم تدريبها باللغة العربية كانت أقل احتمالا بكثير لإلقاء تعليقات مسيئة أو سوء فهم حول الإسلام من أولئك الذين تلقوا تدريباً فقط على نص باللغة الإنجليزية في الولايات المتحدة.
أحد نماذج اختبار الذكاء الاصطناعي الجديدة على الساحة هو LaMDA من Google ، والذي يتضمن الكلام وهو مثير للإعجاب للغاية في الإجابة على أسئلة المحادثة لدرجة أن أحد مهندسي Google جادل بأنه كان يقترب من الوعي – وهي الخطوة التي أوقفته عن وظيفته الشهر الماضي.
قامت الباحثة جانيل شين ، ومقرها كولورادو ، ومؤلفة مدونة AI Weirdness ، باختبار هذه النماذج بشكل إبداعي خلال السنوات القليلة الماضية ، وخاصة GPT-3 – غالبًا للتأثير الهزلي. ولكن للإشارة إلى عبثية التفكير في أن هذه الأنظمة مدركة لذاتها ، فقد اقترح مؤخرًا أنها ذكاء اصطناعي متقدم وهو سرا Tyrannosaurus rex أو سنجاب.
قال GPT-3 بعد أن استمع شين إلى نسخة من مقابلة وطرح بعض الأسئلة .
تعلم شين المزيد عن نقاط قوته ، والتي تلخص ما قيل على الإنترنت حول موضوع ما ، ونقاط ضعفه ، والتي تشمل الافتقار إلى مهارات التفكير ، وصعوبة التمسك بفكرة في جمل متعددة ، والميل إلى الحضور. هجوم
قال “لا أريد نموذجًا نصيًا يقدم أو يعمل كمكمل للنصائح الطبية”. “إذا لم تقرأ عن كثب ، فإن المظهر السطحي للمعنى جيد. إنه مثل الاستماع إلى محاضرة أثناء نومك.

READ  أسبوع CERAW لـ S&P Global 2023 لجمع الرؤساء التنفيذيين في مجال الطاقة والمسؤولين الحكوميين وقادة الأعمال والتكنولوجيا من 6 إلى 10 مارس في هيوستن