مختارات اقتصادية

كيف يمكن للمنظمات الاستعداد للذكاء الاصطناعي التوليدي؟

وسط الضجة الأخيرة التي أُثيرت حول روبوت الدردشة شات جي بي تي والذكاء الاصطناعي التوليدي (AI)، يتوق الكثيرون إلى تسخير إمكانات التكنولوجيا المتطورة بشكل متزايد.

ومع ذلك، تشير نتائج استبيان مؤسسة بيكر ماكنزي لعام 2022 في أمريكا الشمالية إلى أن قادة الأعمال قد يقللون حاليًا من المخاطر المتعلقة بالذكاء الاصطناعي لمنظمتهم.

وقال 4% فقط من المستجيبين على مستوى الرؤساء التنفيذيين إنهم يعتبرون المخاطر المرتبطة باستخدام الذكاء الاصطناعي “كبيرة”، في حين أكّد أقل من نصفهم أن لديهم خبرة في مجال الذكاء الاصطناعي على مستوى مجلس الإدارة.

تسلط هذه الأرقام الضوء على حقيقة مقلقة مفادها أن العديد من المنظمات غير مستعدة للذكاء الاصطناعي، وافتقار صنّاع القرار الرئيسيين إلى أدوات الرقابة المناسبة لإدارة المخاطر.

وإذا لم تتم معالجتها، فمن المرجح أن يطغى هذا القصور التنظيمي حول النشر الأخلاقي والفعّال للتكنولوجيا على الفرص التحويلية بينما تتسبب في فقدان المنظمات لوتيرتها مع النمو الهائل للتكنولوجيا.

كيف يغير الذكاء الاصطناعي التوليدي مشهد المخاطر؟

– في هذه الأيام، يحدث التقدم والتبني المرتبط بالذكاء الاصطناعي بسرعة كبيرة. في حين أن هذا النمو الهائل قد جدد التركيز على استخدام الذكاء الاصطناعي.

– إن الحقيقة هي أن الأكاديميين والعلماء وصانعي السياسات والمهنيين القانونيين وغيرهم يقومون بحملات من أجل الاستخدام الأخلاقي والقانوني للذكاء الاصطناعي ونشره.

– لا سيما في مكان العمل حيث التطبيقات الحالية للذكاء الاصطناعي في وظيفة الموارد البشرية وفيرة (على سبيل المثال، اكتساب المواهب، والواجبات الإدارية، وتدريب الموظفين).

– ووفقًا للاستبيان، تستخدم 75% من الشركات بالفعل أدوات وتقنيات الذكاء الاصطناعي لأغراض التوظيف والموارد البشرية.

– في هذه المرحلة الجديدة من الذكاء الاصطناعي التوليدي، أصبحت المبادئ الأساسية حول تبني الذكاء الاصطناعي – مثل الحوكمة والمساءلة والشفافية – أكثر أهمية من أي وقت مضى، وكذلك المخاوف بشأن عواقب سوء نشر الذكاء الاصطناعي.

– على سبيل المثال، يمكن أن تؤدي الخوارزميات غير المقيدة إلى نتائج متحيزة وتمييزية، مما يؤدي إلى تفاقم حالة عدم المساواة وتقويض أي مساع لتنّوع القوى العاملة.

– تُعد خصوصية البيانات وانتهاكاتها مصدر قلق آخر، حيث تحدث بسهولة من خلال عدم إخفاء الهوية وجمع بيانات الموظفين.

– كما تم إفساح المجال لاعتبارات الملكية الفكرية الجديدة، مما أثار تساؤلات حول ملكية كل من المدخلات والمخرجات من برامج الطرف الثالث والمخاوف اللاحقة المتعلقة بانتهاك حقوق الطبع والنشر.

– على نطاق واسع، رأينا الحكومات والهيئات التنظيمية تتدافع لتنفيذ التشريعات المتعلقة بالذكاء الاصطناعي وآليات الإنفاذ التنظيمية.

– في الولايات المتحدة، سيكون التركيز الرئيسي للتشريعات الناشئة على حالة استخدام الذكاء الاصطناعي في عمليات التوظيف والعمليات المتعلقة بالموارد البشرية.

– كما أن التقاضي، بما في ذلك الدعاوى الجماعية، يلوح في الأفق. نحن نشهد بالفعل الموجة الأولى من التقاضي التوليدي للملكية الفكرية في الولايات المتحدة، وهذه القرارات القضائية المبكرة تشكل المشهد القانوني الغائب عن اللوائح الحالية.

– يجب على المنظمات التي تنفذ الذكاء الاصطناعي التوليدي أيضًا أن تفترض أن البيانات التي يتم إدخالها في أدوات واستعلامات الذكاء الاصطناعي سيتم جمعها من قبل مزودي الطرف الثالث للتكنولوجيا.

– في الوقت الذي يتطلع فيه أصحاب العمل إلى تزويد القوى العاملة لديهم بأدوات الذكاء الاصطناعي التوليدية، هل يعرضون البيانات الحساسة والأسرار التجارية للخطر؟

– باختصار، نعم وبشكل عام، يبدو أن كل تطور جديد يفتح الأسئلة بشكل أسرع من قدرة المنظمات والهيئات التنظيمية والمحاكم على الإجابة عنها.

كيف يمكن للمنظمات تعزيز استعدادها للذكاء الاصطناعي؟

– للحفاظ على التقدم، ستحتاج المنظمات إلى تعديل النهج القائم إلى ما هو أبعد من الجهود المنعزلة والجمع بين الوظائف المنفصلة تحت مظلة إطار حوكمة قوي.

– في حين أن العديد من المنظمات تعتمد على علماء البيانات لقيادة مبادرات الذكاء الاصطناعي، فإنه يجب إشراك جميع أصحاب المصلحة المعنيين، بما في ذلك المجالس القانونية، والمجالس، والخصوصية، والامتثال، والموارد البشرية، طوال عملية صنع القرار بأكملها.

– وقد تم توضيح هذه الفجوة في التمثيل في نتائج الاستبيان. في الوقت الحالي، قال 54% فقط من المستجيبين إن مؤسساتهم تشرك الموارد البشرية في عملية صنع القرار لأدوات الذكاء الاصطناعي، وقال 36 % فقط من المستجيبين إن لديهم كبير مسؤولي الذكاء الاصطناعي.

– في هذه البيئة عالية المخاطر، سيلعب مسؤولو الذكاء الاصطناعي دورًا حاسمًا في ضمان وجود الحوكمة والرقابة ذات الصلة على مستوى الرؤساء التنفيذيين وإشراك الموارد البشرية في التدريب وتعزيز فريق الذكاء الاصطناعي متعدد الوظائف.

– علاوة على ذلك، يجب على المؤسسات إعداد إطار حوكمة داخلي يراعي مخاطر المؤسسة عبر حالات الاستخدام ويسمح للشركة بإجراء تعديلات الامتثال الصحيحة بكفاءة بمجرد تحديد المشكلات.

– يكمن الخطر بالنسبة للشركات التي ليس لديها هيكل حوكمة للذكاء الاصطناعي وعدم وجود رقابة من أصحاب المصلحة الرئيسيين – أو تلك التي تعتمد بالجملة على أدوات الطرف الثالث – هو استخدام أدوات الذكاء الاصطناعي بطريقة تخلق مسؤولية قانونية تنظيمية (على سبيل المثال، دعاوى التمييز).

– إن جميع عمليات صنع القرار تقريبًا، سواء كانت قائمة على الذكاء الاصطناعي أو غير ذلك، تخلق التحيز.

– يجب على الشركات التي تستخدم هذه الأدوات تطوير إطار يحدد نهجًا لتقييم التحيز وآلية لاختبار وتجنب التحيز غير القانوني، بالإضافة إلى ضمان تلبية متطلبات خصوصية البيانات ذات الصلة.

– وينبغي زيادة دعم الجهود الرامية إلى مكافحة التحيز باتخاذ تدابير فعالة لإجراء الاختبارات قبل النشر وبعده.

– كذلك، يتعين على الشركات التي تنشر الذكاء الاصطناعي التأكد من وجود عمليات توفر فهمًا واضحًا لمجموعات البيانات المستخدمة والوظائف الخوارزمية والقيود التكنولوجية، حيث من المرجح أن تتضمن التشريعات المقترحة متطلبات الإبلاغ.

خلاصة القول

– يتم تبني الذكاء الاصطناعي على نطاق واسع وبسرعة ويوفر العديد من الفوائد. ولكن يجري نشره وتطويره بسرعة كبيرة بحيث تصبح الرقابة والحوكمة الاستراتيجية أكثر أهمية للاستخدام المسؤول والتخفيف من المخاطر.

– العديد من المؤسسات غير مستعدة للذكاء الاصطناعي وتقلل من تقدير المخاطر، وتسعى لنشر هذه التكنولوجيا دون الحاجة إلى وجود حواجز واقية مناسبة.

– لحسن الحظ، من خلال إنشاء هياكل قوية للحوكمة والرقابة، يمكن للمنظمات أن تصمد أمام هذه الموجات التكنولوجية بغض النظر عن مكان وجودها في رحلات الذكاء الاصطناعي.

– علاوة على ذلك، سيعتمد الحل طويل الأجل لإدارة المخاطر المتعلقة بالذكاء الاصطناعي على أصحاب المصلحة المطلعين عبر القوى القانونية والتنظيمية والقطاع الخاص لتعزيز التشريعات أو مدونات الممارسات أو الأطر التوجيهية التي تدرك الفرص والمخاطر التي تمثلها التكنولوجيا.

– وبالمحصلة، مع وجود إطار آمن، يمكن للمؤسسات تمكين نفسها من نشر تكنولوجيا الذكاء الاصطناعي وتسخير فوائدها بثقة أكبر.

المصدر: المنتدى الاقتصادي العالمي

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى