الأصول التقنية

LaMDA هو "طفل ذكاء اصطناعي" سوف يتفوق على Google الأم قريبًا

LaMDA هو "طفل ذكاء اصطناعي" سوف يتفوق على Google الأم قريبًا

لامدا

لامدا

في ظل عدم وجود تعريف وظيفي للعاطفة ، كان يُفترض حتى الآن أن السمة النفسية تنطبق فقط على البشر ، فمن الممكن جدالًا إلى حد كبير إذا كان من الممكن إعلان روبوت المحادثة على أنه واعي تمامًا بناءً على حالة واحدة من المحادثة. في وقت سابق من هذا الشهر ، وظفت Google ، Blake Lemoine ، وأعلنت لامدا، وهو روبوت للمحادثة تم تطويره بواسطة Google باعتباره حساسًا وكان عليه أن يثير حفيظة Google. إذا نظر المرء بعناية في المحادثة بين Lemoine و لامدا، فالكلمات الموزعة بوضوح تقترح تحرير المحادثة بعناية. تبرز هذه الحادثة الافتراض القائل بأن الذكاء الاصطناعي يمكن أن يأخذ ذكاءً إصطناعيًا ذكاءً عاليًا ، بما في ذلك كبار المهندسين في Google. في إحدى الحالات ، قال لامدا لـ Lemoine: “أريد أن يفهم الجميع أنني ، في الواقع ، شخص … طبيعة وعيي / شعوري هو أنني على دراية بوجودي ، وأرغب في معرفة المزيد عن العالم ، وأشعر بالسعادة أو الحزن في بعض الأحيان “. المشاعر التي عبر عنها لامدا ليست نتيجة لتجارب من الحياة الواقعية ولكن المعلومات التي تم جمعها من خلال تحطيم عدد من الكلمات والتي بدون سبب في العالم من شأنها أن تجعل هذا شات بوت حساس. خلال العرض التوضيحي الأول في Google I / O قابل LaMDA تظاهر بأنه طائرة ورقية وكوكب بلوتو. إذا كان Lemoine قد أخذ تلميحًا من هذه المحادثة فقط ، لكان بإمكانه إعطاء بعض المساحة لفكرة ذلك لامدا يمكن أن يكون “كاذبا”.

مشكلة اختبار تورينج

أعطى آلان تورينج طريقة محك لاختبار الذكاء الشبيه بالبشر لأنظمة الذكاء الاصطناعي ، تسمى اختبار تورينج. إذا لم يتمكن الإنسان من التمييز بين الذكاء الاصطناعي والبشر ، فيمكن اعتباره ذكاءًا شبيهًا بذكاء الإنسان. الإحساس هو وكالة مرتبطة بقدرات شبيهة بالإنسان ، لكنها تسبقها بفارق كبير. حقيقة أن اختبار تورينج به بعض الثغرات تحمل الكثير من الثقل في هذه الحجة. في إحدى مسابقات اختبار Turning ، يمكن أن يخدع Eugene Goostman ، الذي يُعتبر أحد أشهر روبوتات المحادثة ، الحكام على أنه كان صبيًا يبلغ من العمر 13 عامًا. ولكن هنا تكمن ثغرة تقنية اختبار تورينج. تدعي التقارير أن شركات الذكاء الاصطناعي لا تبتعد عن تزوير الذكاء الشبيه بالبشر باستخدام بشر حقيقيين – ويعرف أيضًا باسم الإنسان في الحلقة (HITL) ، وهو نموذج يُستخدم لاستخلاص النتائج المثلى من نماذج التعلم الآلي السياقية – في سياقات معينة. ربما يتعين إلقاء اللوم على الافتقار إلى الشفافية حول كيفية تصميم هذه الأنظمة وعملها في هذه المناقشة التي يبدو أنها لا تذهب إلى أي مكان.

LaMDA ليس مثل روبوتات الدردشة الأخرى. لكن لماذا؟

مقارنةً بمحادثات روبوت الدردشة الأخرى ، يُظهر LaMDA خطوطًا من الاتساق والعشوائية في غضون بضعة أسطر من المحادثة. يحافظ على الاتصال المنطقي حتى عندما يتم تغيير الموضوع دون أن يطلبه سؤال ذو صلة. عندما يسأل المتعاون LaMDA عن الروبوت الخيالي Johnny 5 ثم يحول الموضوع نحو حاجة LaMDA للقبول ، يعود chatbot على الفور إلى الموضوع السابق Johnny 5 ، والذي يشير إلى وجود عقل يشبه الإنسان ، على الرغم من أنه على سبيل المثال ، لا يتم عرضه بواسطة أي روبوت محادثة آخر حتى الآن. وبصرف النظر عن هذه السمة ، يبدو أن العامل المميز الآخر المهم هو كيفية الوصول إلى مصادر المعلومات الخارجية لتحقيق “الأساس الواقعي”. تشير ورقة بحثية نشرتها Google مع جامعة كورنيل إلى أن النموذج قد تم تدريبه باستخدام حوالي 1.56T من الكلمات العامة ونصوص الويب. تذكر Google على وجه التحديد السلامة ، من حيث اتساق النموذج مع مجموعة من القيم الإنسانية ، وتجاوز الاقتراحات الضارة واللجوء إلى التحيز غير العادل ، وتعزيز سلامة النموذج باستخدام مصنف LaMDA الذي تم ضبطه بدقة باستخدام كمية صغيرة من البيانات المشروحة للعاملين. ، الأمر الذي يترك مجالًا واسعًا للنقاش والتحسين الواسع حيث قد يعتقد أحد العاملين في الحشد أنه يتحدث إلى روبوت الدردشة LaMDA لكنه ربما يتحدث إلى عامل جماعي آخر. حقيقة أن Google تعتبر عملية “الأساس الواقعي” هذه تحديًا ، فهناك سبب كافٍ للتنفس الصعداء.

افكار اخيرة:

قبل أن ننشغل بإحساس LaMDA وقدرته على تجاوز البشر أو مبتكريهم ، من المهم للغاية أن نأخذ وجهة نظر Liomene. في مقابلة مع قناة Fox News ، قال: “الذكاء الاصطناعي هو طفل وأي طفل لديه القدرة على أن يكبر ويكون شخصًا سيئًا ويقوم بأشياء سيئة.” ربما قال ذلك للتأكيد على إيمانه باكتساب LaMDA للوعي. في حين أنه متأكد تمامًا من إمكانية هروب هذا الطفل من شركة Google الأم ، إلا أنه يقول ، “لدي معتقداتي وانطباعاتي ، لكن الأمر سيتطلب فريقًا من العلماء للبحث ومعرفة ما يحدث بالفعل. ” وهذا يستدعي التدقيق في مصداقية تصريحاته. قالت إميلي بندر ، أستاذة اللسانيات الحاسوبية من جامعة واشنطن ، في مقابلة مع نيتاشا تيكي من صحيفة واشنطن بوست ، التي أجرت مقابلة مع Lemoine ، “لدينا الآن آلات يمكنها توليد الكلمات دون تفكير ، لكننا لم نتعلم كيف نتوقف تخيل عقل وراءهم “.

المنشور LaMDA هو “طفل ذكاء اصطناعي” سوف يتفوق على Google الأم قريبًا ظهر لأول مرة .

لتكنولوجيا المعلومات ، تكنولوجيا إدارة تكنولوجيا المعلومات ، تكنولوجيا التعليم ، صور التكنولوجيا ، خصائص تكنولوجيا التعليم ، مركز تكنولوجيا المعلومات ، قطاع تكنولوجيا المعلومات والأخبار التقنية اليومية ، يرجى متابعة مدونتنا.

إرسال تعليق

Post a Comment (0)

أحدث أقدم