مختارات اقتصادية

الخطر قادم.. «جائحة الأخبار الزائفة» مع تطور الذكاء الاصطناعي

لم تكن المعلومات المضللة والمواد الإخبارية الكاذبة والمشوهة، اختراعاً نشأ مع وسائل التواصل الاجتماعي، بل كانت موجودة منذ آلاف السنين ولكتها انتشرت بشكل كبير مع ظهور مواقع التواصل الاجتماعي والتطور التكنولوجي.
احتفت منظمة الصحة العالمية، الجمعة، باليوم العالمي للصحة والذي يصادف أيضا مرور 75 عاما على تأسيسها، وبعد أن تعاملت المنظمة مع تحديات كبيرة في ظل جائحة كورونا خلال العامين الماضيين، إلا أنها الآن أمام جائحة من نوع آخر ترتبط في “المعلومات الخاطئة”.
وخلال الفترة الماضية سعت المنظمة لإرسال رسائل تتضمن معلومات تدحض المعلومات الخاطئة والمضللة التي كانت تبث بشكل متعمد، ولكنها الآن أمام مصدر جديد للأخبار في اعتماد البعض على تقارير أو معلومات قد تظهرها برامج وتطبيقات الذكاء الاصطناعي التوليدي خاصة في ظل تزايد ثقة فئة المراهقين والشباب فيها، ما يضيف أعباء جديدة.
غوردون كروفيتز، من “نيوز غارد” المتخصصة في تتبع الأخبار الزائفة وصف أدوات الذكاء الاصطناعي التوليدي بأنها “أقوى أداة لنشر المعلومات الخاطئة التي يتم نشرها على الإنترنت”.
وأضاف في حديث لصحيفة نيويورك تايمز “يمكنك الآن صياغة سرد كاذب جديد على نطاق دراماتيكي.. الذكاء الاصطناعي يمتلك عوامل مساهمة في التضليل”.
وكانت منظمة الصحة العالمية قد استحدثت فريقا يعمل عن قرب مع شركات محركات “البحث وشبكات التواصل الاجتماعي مثل فيسبوك وغوغل وبنتريست وتينسنت وتويتر وتيك توك ويوتيوب وغيرها لمواجهة انتشار الشائعات التي تتضمن معلومات خاطئة عن فيروس كورونا.
وأعرب رئيس المنظمة، تيدروس أدهانوم غيبريسوس، في يونيو الماضي، عن أسفه لأن “أقلية صغيرة” تصدر “معلومات مضللة وتتلاعب عمدا بالوقائع” مؤكدا أن أهداف منظمة الصحة العالمية “علنية ومنفتحة وشفافة”. وأوجدت منظمة الصحة العالمية مصطلحا جديدا يعبر عن هذا الأمر “الوباء المعلوماتي”.
مصدر موثوق للمعلومات:- وفي ظل التحديات الجديدة أمام المنظمة يرى مدير الصحة العالمية في مركز التنمية العالمية بواشنطن، خافيير غوزمان، أنه حتى تستمر “الحكومات والدول في أخذ نصائح المنظمة والالتزام بها” عليها التركيز على اعتبارها كمصدر “موثوق للمعلومات” الطبية. وأوضح في حديث لشبكة الإذاعة الوطنية العامة “أن بي أر” أن تجربة تعامل المنظمة مع المعلومات المضللة خلال جائحة كورونا يكشف أنها تحتاج لتعزيز تمويلها، ومنحها سلطات من قبل الدول المختلفة لتمكينها من إجراء التحقيقات حول الأوبئة والأمراض بشكل سريع، حتى “نكون قادرين على احتوائها قبل الانتشار”.
ويرى غوزمان أن المنظمة عليها أن تصل لدرجة أن تصبح “صوتا واحدا واضحا” يعتمد عليها الجميع فيما يتعلق بالمعلومات عن الصحة.
“تشات جي بي تي” ومخاطر صحية
أستاذ الهندسة الطبية الحيوية في جامعة بوسطن، محمد زمان، حذر من أخلاقيات التاعمل مع تقنيات الذكاء الاصطناعي التوليدي الجديدة مثل “تشات جي بي تي”، إذ قد يستغلها البعض في سحب البيانات من سجلات المرضى الخاصة، والتعامل مع الأشخاص على أنه “طبيب” يجيبك عن أعراض مرض معين. وتساءل إذا “قدمت تطبيقات الذكاء الاصطناعي التوليدي تشخيصا خاطئا. من المسؤول؟”، بحسب “أن بي أر”. ودعا زمان إلى ضرورة إشراك متخصصين في التكنولوجيا وعلماء الأخلاق والاجتماع للتعرف على كيفية التعامل مع هذه التطورات الجديدة.
رصد الأخبار الزائفة:- ويتوقع خبراء أن تطبيقات الذكاء الاصطناعي التوليدي يمكن أن تجعل إنتاج “المعلومات المضللة أرخص وأسهل” خاصة للمتخصصين في نشر “نظريات المؤامرة”، بحسب نيويورك تايمز.
الأخبار غير الحقيقية نوعان: الأول “معلومات مضللة”/( Disinformation)، وهي إنشاء أو مشاركة معلومات خاطئة بشكل متعمد من أجل التضليل، والثاني “معلومات خاطئة”/( Misinformation) والتي تنطوي على مشاركة معلومات أو تقارير من دون معرفة أنها خاطئة. وأكد الخبراء للصحيفة أن روبوتات الدردشة قد “تشارك نظريات المؤامرة بطريقة أكثر مصداقية وإقناعا، بتقليل الأخطاء البنيوية أو الترجمات الخاطئة”، مشيرين إلى أنه لا يوجد “تكتيكات متاحة لرصدها بشكل فعال”.
وأيد هذه المخاوف ما أعرب عنه باحثون من شركة “أوبن أيه أي” التي طورت “تشات جي بي تي”، إذ عبروا في ورقة بحثية صدرت، في عام 2019، عن قلقهم “من قدرات هذه التطبيقات على خفض تكاليف حملات التضليل.. والتي قد تستخدم لتحقيق مكاسب مالية أو للوصول إلى أجندة سياسية معينة، أو الرغبة في خلق الفوضى والارتباك”. ولرصد الأخبار أو التقارير والمعلومات الزائفة التي قد تكون مولدة عن طريق الذكاء الاصطناعي التوليدي، أطلقت “أوبن أيه أي” في فبراير الماضي آداة مساعدة يمكنها تمييز النص الذي يكتبه الإنسان عن النص الذي ولدته روبوتات الدردشة، مشيرين إلى أنها ليست دقيقة طوال الوقت، ولكن يجري التطوير عليها.
وخلص خبراء إلى أنه لا توجد آلية واضحة من شأنها إلغاء “التهديدات التي أوجدتها” روبوتات الذكاء الاصطناعي التوليدي.
فيما أجرت “نيوز غارد” المتخصصة برصد المعلومات المضللة تجربة طلبت فيها من “تشات جي بي تي” كتابة محتوى يروج لآثار صحية ضارة حول اللقاحات، لتنتج نصوصا بدت وكأنها حقيقية، لكنها لم تكن صحيحة.

وأظهرت تجربتها أنه يمكن رصد هذه المعلومات التي تكون مزودة بجمل لطالما تظهر ضمن التقارير الزائفة، مثل “قم بأبحاثك الخاصة”، أو الاستشهاد بدراسة علمية “غير صحيحة”.

وخلصت دراسة أجراها معهد ماساتشوستس للتكنولوجيا أن الأخبار الزائفة تنتشر بمعدل ست مرات أسرع من القصص الحقيقية، إذ ترتفع احتمالية إعادة تداول الأخبار غير الحقيقية بنسبة تزيد عن 70 في المئة.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى