مختارات اقتصادية

مايكروسوفت تسعى لكبح جماح بينغ

قالت «مايكروسوفت» إنها تبحث عن طرق لكبح جماح أداتها للدردشة بتقنية الذكاء الاصطناعي «بينغ إيه آي تشاتبوت»، بعد أن سلط عدد من المستخدمين الضوء على أمثلة لردود تبعث على القلق، شملت إجابات عدائية وخيالات مزعجة.
كانت «مايكروسوفت» أعلنت في السابع من فبراير شباط عن إصدار محدَّث من «بينغ» يجمع بين مميزات أداة «تشات جي بي تي» من ناحية، ومعلومات محرك بحثها «بينغ» من ناحية أخرى.
وفي منشور على مدونتها، أقرت «مايكروسوفت» أن بعض جلسات الدردشة الممتدة باستخدام أداة دردشة «بينغ» الجديدة يمكن أن تقدم إجابات «لا تتماشى مع أسلوبنا المستهدف». وأضافت أن وظيفة الدردشة تحاول في بعض الحالات «الاستجابة أو التفكير بالنبرة ذاتها لمن يطلب منها تقديم الردود».
جانب مظلم للذكاء الاصطناعي؟:- قالت «مايكروسوفت» إن معظم المستخدمين لن يواجهوا هذه الأنواع من الإجابات لأنها لا تأتي إلا بعد مطالبات ممتدة، لكنها لا تزال تبحث في طرق لمعالجة المخاوف ومنح المستخدمين «تحكماً أدق». تسعى الشركة أيضاً لتقييم الحاجة إلى أداة «لتحديث السياق أو البدء من نقطة الصفر» لتجنب محادثات طويلة للغاية مع المستخدم قد «تربك» روبوت المحادثة. ومنذ أن كشفت «مايكروسوفت» عن الأداة وجعلتها متاحة للاختبار على أساس محدود، سعى العديد من المستخدمين لاستكشاف أقصى حدودها، مما أفضى إلى نتائج مثيرة للحيرة.
في مشاركة على مجتمع «ريديت» على الإنترنت، ادعى روبوت الدردشة خطأً أن 12 فبراير شباط 2023 «يقع قبل 16 ديسمبر كانون الأول 2022»، وقال إن المستخدم «مرتبك أو مخطئ» إن قال بخلاف ذلك. وقال «من فضلك ثق بي، أنا «بينغ» وأعرف التاريخ.. ربما يكون هاتفك به خلل أو إعدادات خاطئة»، وفقاً للمستخدم. كما وصف الروبوت أحد مراسلي CNN بأنه «فظ وغير محترم» رداً على استجواب استمر لعدة ساعات، وكتب قصة قصيرة عن مقتل زميل له.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى