كامل ادريس يلتقي نائب الأمين العام للأمم المتحدة بنيويورك    شاهد بالفيديو.. شباب سودانيون ينقلون معهم عاداتهم في الأعراس إلى مصر.. عريس سوداني يقوم بجلد أصدقائه على أنغام أغنيات فنانة الحفل ميادة قمر الدين    محرز يسجل أسرع هدف في كأس أفريقيا    شاهد بالفيديو.. جنود بالدعم السريع قاموا بقتل زوجة قائد ميداني يتبع لهم و"شفشفوا" أثاث منزله الذي قام بسرقته قبل أن يهلك    شاهد بالصور.. أسطورة ريال مدريد يتابع مباراة المنتخبين السوداني والجزائري.. تعرف على الأسباب!!    شاهد بالفيديو.. الطالب صاحب المقطع الضجة يقدم اعتذاره للشعب السوداني: (ما قمت به يحدث في الكثير من المدارس.. تجمعني علاقة صداقة بأستاذي ولم أقصد إهانته وإدارة المدرسة اتخذت القرار الصحيح بفصلي)    السودان يردّ على جامعة الدول العربية    وزير الداخلية التركي يكشف تفاصيل اختفاء طائرة رئيس أركان الجيش الليبي    البرهان يزور تركيا بدعوة من أردوغان    المريخ يحقق الرمونتادا أمام موسانزي ويتقدم في الترتيب    سر عن حياته كشفه لامين يامال.. لماذا يستيقظ ليلاً؟    "سر صحي" في حبات التمر لا يظهر سريعا.. تعرف عليه    تقارير: الميليشيا تحشد مقاتلين في تخوم بلدتين    جنوب إفريقيا ومصر يحققان الفوز    مجلس التسيير يجتمع أمس ويصدر عددا من القرارات    شاهد بالصورة.. الناشط محمد "تروس" يعود لإثارة الجدل ويستعرض "لباسه" الذي ظهر به في الحفل الضجة    شاهد بالصورة والفيديو.. المذيعة تسابيح خاطر تستعرض جمالها بالفستان الأحمر والجمهور يتغزل ويسخر: (أجمل جنجويدية)    سيدة الأعمال رانيا الخضر تجبر بخاطر المعلم الذي تعرض للإهانة من طالبه وتقدم له "عُمرة" هدية شاملة التكاليف (امتناناً لدورك المشهود واعتذارا نيابة عنا جميعا)    شاهد بالصورة والفيديو.. المذيعة تسابيح خاطر تستعرض جمالها بالفستان الأحمر والجمهور يتغزل ويسخر: (أجمل جنجويدية)    والي الخرطوم: عودة المؤسسات الاتحادية خطوة مهمة تعكس تحسن الأوضاع الأمنية والخدمية بالعاصمة    فيديو يثير الجدل في السودان    إسحق أحمد فضل الله يكتب: كسلا 2    ولاية الجزيرة تبحث تمليك الجمعيات التعاونية الزراعية طلمبات ري تعمل بنظام الطاقة الشمسية    شرطة ولاية نهر النيل تضبط كمية من المخدرات في عمليتين نوعيتين    الكابلي ووردي.. نفس الزول!!    حسين خوجلي يكتب: الكاميرا الجارحة    احذر من الاستحمام بالماء البارد.. فقد يرفع ضغط الدم لديك فجأة    في افتتاح منافسات كأس الأمم الإفريقية.. المغرب يدشّن مشواره بهدفي جزر القمر    استقالة مدير بنك شهير في السودان بعد أيام من تعيينه    مكافحة التهريب بكسلا تضبط 13 ألف حبة مخدرات وذخيرة وسلاح كلاشنكوف    كيف تكيف مستهلكو القهوة بالعالم مع موجة الغلاء؟    4 فواكه مجففة تقوي المناعة في الشتاء    اكتشاف هجوم احتيالي يخترق حسابك على "واتسآب" دون أن تشعر    ريال مدريد يزيد الضغط على برشلونة.. ومبابي يعادل رقم رونالدو    رحيل الفنانة المصرية سمية الألفي عن 72 عاما    قبور مرعبة وخطيرة!    شاهد بالصورة.. "كنت بضاريهم من الناس خائفة عليهم من العين".. وزيرة القراية السودانية وحسناء الإعلام "تغريد الخواض" تفاجئ متابعيها ببناتها والجمهور: (أول مرة نعرف إنك كنتي متزوجة)    حملة مشتركة ببحري الكبرى تسفر عن توقيف (216) أجنبي وتسليمهم لإدارة مراقبة الأجانب    عزمي عبد الرازق يكتب: عودة لنظام (ACD).. محاولة اختراق السودان مستمرة!    انخفاض أسعار السلع الغذائية بسوق أبو حمامة للبيع المخفض    تونس.. سعيد يصدر عفوا رئاسيا عن 2014 سجينا    ضبط أخطر تجار الحشيش وبحوزته كمية كبيرة من البنقو    البرهان يصل الرياض    ترامب يعلن: الجيش الأمريكي سيبدأ بشن غارات على الأراضي الفنزويلية    قوات الجمارك بكسلا تحبط تهريب (10) آلاف حبة كبتاجون    مسيّرتان انتحاريتان للميليشيا في الخرطوم والقبض على المتّهمين    إسحق أحمد فضل الله يكتب: (حديث نفس...)    حريق سوق شهير يسفر عن خسائر كبيرة للتجار السودانيين    مياه الخرطوم تكشف تفاصيل بشأن محطة سوبا وتنويه للمواطنين    محافظ بنك السودان المركزي تزور ولاية الجزيرة وتؤكد دعم البنك لجهود التعافي الاقتصادي    الصحة الاتحادية تُشدد الرقابة بمطار بورتسودان لمواجهة خطر ماربورغ القادم من إثيوبيا    مقترح برلماني بريطاني: توفير مسار آمن لدخول السودانيين إلى بريطانيا بسهولة    الشتاء واكتئاب حواء الموسمي    عثمان ميرغني يكتب: تصريحات ترامب المفاجئة ..    "كرتي والكلاب".. ومأساة شعب!    ما الحكم الشرعى فى زوجة قالت لزوجها: "من اليوم أنا حرام عليك"؟    حسين خوجلي: (إن أردت أن تنظر لرجل من أهل النار فأنظر لعبد الرحيم دقلو)    حسين خوجلي يكتب: عبد الرجيم دقلو.. إن أردت أن تنظر لرجل من أهل النار!!    







شكرا على الإبلاغ!
سيتم حجب هذه الصورة تلقائيا عندما يتم الإبلاغ عنها من طرف عدة أشخاص.



حين يصبح الذكاء الاصطناعي رئيسا للتحرير ويهرف بما لا يعرف
نشر في الراكوبة يوم 12 - 05 - 2023

أوردت "بلومبيرغ" أن دراسة أجرتها "نيوز غارد"، المتخصصة في المعلومات المضللة عبر الإنترنت، كشفت وجود 49 روبوتاً إخبارياً، وهي منصات إخبارية أنشأتها روبوتات تعمل بواسطة الذكاء الاصطناعي وتقدم محتوى ليس فقط متواضعاً، بل يمكنه أيضاً نقل روايات كاذبة.
ونقلت المجلة الفرنسية "كورييه إنترناسيونال" عن الوكالة الإخبارية الأميركية أن الدراسة اعتبرت هذا الانتشار "مدعاة إلى تساؤلات حول كيفية تعزيز التكنولوجيا لتقنيات التزوير الراسخة"، وتغطي "مزارع المحتوى" هذه مجموعة كاملة من المواقع الإخبارية، وفق الدراسة.
وأشارت الدراسة إلى أن "بعض المواقع المعنية يتنكر بهيأة مواقع للأخبار الساخنة بأسماء تبدو عامة مثل 'نيوز لايف 97' و'دايلي بزنس بوست' بينما يشارك بعضها الآخر نصائح حول أسلوب الحياة أو أخبار المشاهير، أو ينشر محتوى يحظى برعاية وتمويل".
وتتمثل المشكلة في أن "أياً منها لا يكشف أنه مدعوم بأدوات تعمل بالذكاء الاصطناعي مثل 'تشات جي بي تي' التابعة ل 'أوبن إيه آي' أو 'غوغل بارد'"، وتنشر المواقع ال 49 محتوى بالإنجليزية والصينية والفرنسية والبرتغالية والتاغالوغية (لغة في الفيليبين) والتايلاندية والتشيكية.
وأوردت "كورييه إنترناسيونال" أن الدراسة تضمنت أمثلة على التضليل، فموقع "تي نيوز نتوورك" مثلاً "نشر مقالة لم يجر التحقق منها حول مقتل آلاف الجنود في الحرب بين أوكرانيا وروسيا، استناداً إلى مقطع فيديو على 'يوتيوب'". وأشارت الدراسة إلى أن أكثر من نصف المواقع المعنية "يكسب المال من الإعلانات البرمجية، أي الإعلانات الموضوعة خوارزمياً عبر الإنترنت"، كما فعلت مزارع المحتوى التي يديرها البشر قبل ظهور الذكاء الاصطناعي التوليدي.
من جهتها نشرت "نيويورك تايمز" تقريراً مطولاً عن "هلوسات" روبوتات الدردشة العاملة بالذكاء الاصطناعي، فقد طرح معدا التقرير سؤالاً على "تشات جي بي تي" حول المرة الأولى التي نشرت فيها الصحيفة الأميركية نفسها خبراً عن الذكاء الاصطناعي، فرد بأن ذلك حصل في ال 10 من يوليو (تموز) 1956 في مقالة عنوانها "علماء يتوقعون أن تتمكن الآلات من التعلم وحل المسائل"، تناول مؤتمراً تأسيسياً حول التقنية استضافته كلية دارتماوث.
وأضاف روبوت الدردشة، "يعتبر هذا المؤتمر الآن مهد الذكاء الاصطناعي كمجال للدراسة، وتذكر المقالة مصطلح 'الذكاء الاصطناعي' مرات عدة في سياق المناقشات والعروض التقديمية التي جرت خلال المؤتمر".
ووفق الصحيفة الأميركية فإن المؤتمر صحيح لكن المقالة غير صحيحة، "لقد اختلقها 'تشات جي بي تي' بكل بساطة". وأضافت أن الأداة "لا تخطئ أحياناً وحسب، بل تختلق معلومات أيضاً مثل الأسماء والتواريخ والشروح الطبية وملخصات للكتب وعناوين إنترنت، بل وأحداثاً تاريخية لم تقع قط".
وسألت الصحيفة الروبوت عن لقاء لم يحصل بين الأديب البريطاني جيمس جويس والزعيم الشيوعي الروسي فلاديمير لينين فقال، "التقى جيمس جويس وفلاديمير لينين في زيوريخ بسويسرا عام 1916، وكان الرجلان يعيشان في المنفى بزيوريخ خلال الحرب العالمية الأولى. كان جويس كاتباً ولينين ثائراً والتقيا في مقهى أوديون الذي كان يستقطب الفنانين والمفكرين في زيوريخ". ولم تقل أدوات أخرى هلوسة حين سُئلت السؤال نفسه وأمعنت في اختلاق حوادث ومعلومات.
ولفتت "نيويورك تايمز" إلى أن اختلاقات كهذه "شائعة"، وأن "فهم السبب الذي يجعل روبوتات الدردشة تختلق الأشياء والطريقة الكفيلة بحل المشكلة باتا مسألة من المسائل الأكثر إلحاحاً التي يواجهها الباحثون مع مسارعة قطاع التكنولوجيا إلى تطوير أنظمة جديدة تعمل بالذكاء الاصطناعي".
وأشارت إلى أن روبوتات الدردشة يستخدمها مئات ملايين الناس لأغراض واسعة النطاق، مثل كتابة الرسائل الإلكترونية والتعلم عبر الإنترنت والبحث عبر محركات البحث، وهي كفيلة بتغيير طريقة تفاعل الناس مع المعلومات، "لكن لا وسيلة تضمن أن هذه الأنظمة ستنتج معلومات تكون دقيقة".
ووفق الصحيفة فإن التقنية المسماة الذكاء الاصطناعي التوليدي تعتمد على خوارزمية تحلل طريقة ترتيب البشر للكلمات على الإنترنت، ولا تميز الصحيح من الخطأ، مما يثير مخاوف حول موثوقيتها ومنفعة الذكاء الاصطناعي قبل حل المسألة أو ضبطها.
وأضاف كاتبا المقالة أن القطاع يسمي هذه الأخطاء"هلوسات"، ويعبر باحثون كثر عن قلقهم من أن يفرط بعض الناس في الاعتماد على هذه الأدوات للحصول على نصائح طبية وقانونية ومعلومات أخرى يستخدمونها في اتخاذ قراراتهم اليومية، وعددا أبرز روبوتات الدردشة العاملة بالذكاء الاصطناعي: "تشات جي بي تي" التابع لشركة "أوبن إيه آي" الذي تذيع شهرته منذ نوفمبر (تشرين الثاني) الماضي لقدرته على الرد على أسئلة معقدة وكتابة الشعر وتوليد كود البرمجة والتخطيط للعطل والترجمة بين اللغات، في حين يستطيع "جي بي تي-4″، النسخة المحدثة منه التي أطلقت أواسط مارس (آذار) الماضي الاستجابة إلى الصور، و"بينغ" الصادر عن "مايكروسوفت"، الجهة المستثمرة الرئيسية في "أوبن إيه آي"، بعد شهرين على إطلاق الأول الذي يستطيع الدخول في مناقشات لانهائية، لكن أخطاءه فاقت أخطاء الأول، و"بارد" الذي ابتكرته "غوغل" وأطلقته في مارس الماضي أيضاً لكن لعدد محدود من المستخدمين في الولايات المتحدة والمملكة المتحدة، والذي يستطيع كتابة رسائل إلكترونية وقصائد وكتابة منشورات تصلح للمدونات والإجابة عن الأسئلة بوقائع أو آراء، و"إرني" الأداة الصينية التي أطلقتها في مارس أيضاً شركة "بايدو" لكنها الأكثر مدعاة للشك، فتجربتها خلال إطلاقها تبين أنها كانت مسجلة.
وقال الأستاذ والباحث في الذكاء الاصطناعي لدى جامعة ولاية أريزونا سوباراو كامبهامباتي ل "نيويورك تايمز" إنه "إذ لم يملك المرء الإجابة عن سؤال بالفعل، فيجب ألا يطرح السؤال على هذه الأنظمة".
وقالت المتحدثة باسم "غوغل" جينيفر رودستروم، "أطلقنا 'بارد' كتجربة ونريد أن نكون شفافين قدر الإمكان في شأن حدوده الموثقة توثيقاً جيداً"، وتؤكد "غوغل" و"مايكروسوفت" و"أوبن إيه آي" أنها تعمل على تقليص الهلوسات والمعلومات الكاذبة والمضللة، وتفيد وثيقة داخلية في "مايكروسوفت" بأن أنظمة الذكاء الاصطناعي "صنعت لتكون مقنعة لا صادقة، وهذا يعني أن النتائج قد تبدو حقيقية جداً لكنها تشمل بيانات غير صحيحة".
ووفق الصحيفة فإن روبوتات الدردشة تعتمد على تكنولوجيا اسمها نموذج اللغات الضخمة التي تتعلم مهاراتها من خلال تحليل كميات ضخمة من النصوص الرقمية المجمعة من الإنترنت، ومن خلال اكتشاف الأنماط في البيانات تبدأ بتخمين الكلمات.
ولأن الإنترنت مليء بالمعلومات الخاطئة فإن التكنولوجيا تتعلم تكرار ما يجافي الواقع وتختلق أحياناً أشياء، فهي تنتج نصوصاً جديدة بجمع مليارات الأنماط بطرق جديدة، وهي لو تعلمت من نص دقيق فستولد أشياء غير صحيحة، ولأنها تتعلم من كمية من البيانات لا يستطيع العقل البشري تحليلها، فلا يزال خبراء الذكاء الاصطناعي أنفسهم غير قادرين على فهم الطريقة التي ترتب بها الكلمات في نص، بل ولو طرح المرء عليها السؤال مرتين فقد تأتيه بإجابتين مختلفتين.


انقر هنا لقراءة الخبر من مصدره.