شات جي بي تيمختارات اقتصادية

روبوت علي بابا وقواعد أمنية جديدة.. الصين والذكاء الاصطناعي

شهدت الأسواق الآسيوية لتكنولوجيا الذكاء الاصطناعي، الثلاثاء، إعلانين مثيرين قادمين من العاصمة الصينية بكين، أحدهما إطلاق شركة علي بابا – عملاق التسوق في الصين – روبوت محادثة شبيها بـChatGPT والثاني إعلان الحكومة قيودا على إدارة خدمات الذكاء الاصطناعي.
ما هو روبوت علي بابا؟:- اسم الروبوت Tongyi Qianwen ويعني “الحقيقة من ألف سؤال”، وهو اسم لافت جدا بالنظر إلى أن روبوتات الذكاء الاصطناعي تتعلم من الأسئلة التي يطرحها المستخدمون، وأيضا من الأسئلة التي طرحت على الويب أو عبر شبكاتها العصبية المعقدة.
وفي عرض مصور قام نموذج الذكاء الصيني، بصياغة دعوات وتخطيط مسارات رحلات وتقديم المشورة للمتسوقين بشأن أنواع المكياج التي يتوجب شراؤها.
ثنائي اللغة:- وقالت الشركة إن روبوتها سيكون قادرا على التفاعل والتعلم باللغتين الإنكليزية والصينية، وهو أمر قد يبدو محبطا نسبيا خاصة أن روبوت chatGPT يستطيع التفاعل بـ95 لغة.
تطبيق ChatGPT الآلي
تطبيقات مدمجة:- وبسبب حداثة الإعلان عن الخدمة لم يتمكن المراقبون المستقلون من فحص الروبوت الصيني الجديد بشكل شامل بعد، لكن علي بابا قالت إنه سيتم دمج روبوتها في البداية في تطبيق المراسلات من علي بابا DingTalk، والذي يمكن استخدامه لتلخيص ملاحظات الاجتماع وكتابة رسائل البريد الإلكتروني وصياغة مقترحات الأعمال.
كما ستتم إضافته إلى Tmall Genie، المساعد الصوتي لشركة Alibaba، الذي يشبه المساعد Alexa من أمازون.
روبوت “اشتراكي”:- ولم تعلن علي بابا عن “توجهات روبوتها السياسية” بعد لكن مدونة قواعد صينية صدرت بالتزامن مع الإعلان عن الروبوت قالت إن المحتوى الذي يتم إنشاؤه يجب أن يلتزم “بالقيم الاشتراكية الأساسية” وكذلك القوانين المتعلقة بأمن البيانات وحماية المعلومات الشخصية.
وتقول الفقرة التنظيمية إنه “يجب أن يعكس المحتوى الذي يقوم بإنشائه الذكاء الاصطناعي القيم الاشتراكية الأساسية ويجب ألا يحتوي على [مواد تتعلق بـ] تخريب سلطة الدولة أو تحرض على الانفصال أو تعطل النظام الاجتماعي “.
شركة علي بابا:- وبينما لا يزال ليس واضحا ماذا يعني “المحتوى الاشتراكي” بالضبط، فإن من المتوقع أن تحجب التعليمات الجديدة عن الروبوت إمكانية التعليق على الأحداث التي تراها الصين مخالفة لوجهة نظرها. وتفرض الصين منذ سنوات رقابة مشددة على الإنترنت ويحرص عمالقة التكنولوجيا فيها على الالتزام بالخط الرسمي، خاصة في ما يتعلق بالموضوعات التي تعتبر حساسة مثل الرئيس الصيني شي جين بينغ وحملة قمع المظاهرات المؤيدة للديمقراطية في ميدان تيانانمين عام 1989. ورفض روبوت المحادثة إرني التابع لمحرك البحث بايدو – وهو واحد من عدة نماذج أو روبوتات محادثة الذكاء الاصطناعي كشفت عنها الشركات الصينية – الإجابة على أسئلة حول مثل هذه الموضوعات أو قام بطلب تغيير الموضوع عندما سألته رويترز الشهر الماضي. ويقول موقع The times hub إنه على الرغم من عدم إمكانية الوصول إلى موقع chat GPT في الصين إلا أن الصينين أبدوا اهتماما خاصا به.
ويقول الموقع إنه في السباق من أجل الذكاء الاصطناعي، تتمثل الصعوبة الرئيسية للمطورين في الصين، في تقديم روبوت محادثة عالي الأداء لا ينحرف عن الإطار السياسي الصارم للغاية المتعلق بالمحتوى. لذلك مع هذا التنظيم المستقبلي، سيتعين على الشركات “توخي الحذر الشديد” من أن أي بيانات تستخدم لتغذية ذكائها الاصطناعي “تمتثل” للتوجيهات، كما يقول الموقع.
قواعد جديدة:- وقالت مسودة القواعد التي نشرتها هيئة الفضاء الإلكتروني في الصين إن البلاد تدعم ابتكار التكنولوجيا وتعميمها، وأضافت أن أولئك الذين يخالفون القواعد قد يواجهون غرامات أو تحقيقا جنائيا. وتأتي القواعد المقترحة، في الوقت الذي تبحث فيه الحكومات في جميع أنحاء العالم عن أفضل السبل لتنظيم تكنولوجيا الذكاء الاصطناعي، والتي أثارت الكثير من القلق بشأن آثارها الأخلاقية وكذلك تأثيرها على الأمن القومي والوظائف والتعليم.وقال تشارلي تشاي، المحلل من 86Research لرويترز إن قواعد بكين الجديدة من المحتمل أن تبطئ التقدم “مقابل نشر أكثر تنظيما ومسؤولية اجتماعية للتكنولوجيا”.
وأضاف أنها ستضع أيضا عقبات أمام الشركات الأجنبية التي تتطلع إلى تقديم خدمات الذكاء الاصطناعي في البلاد، مما يعود بالنفع على الشركات المحلية.
وقالت هيئة تنظيم الفضاء الإلكتروني في البلاد أيضا إن خدمات الذكاء الاصطناعي التوليدية يجب عليها الخضوع لمراجعات أمنية قبل أن تتمكن من العمل.
كما سيطلب من مزودي الخدمة أيضا التحقق من هويات المستخدمين الحقيقية، بالإضافة إلى ذلك، يجب عليهم تقديم معلومات حول حجم ونوع البيانات التي يستخدمونها وخوارزمياتهم الأساسية ومعلومات فنية أخرى.

 

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى