الفار يقضي بفوز فرنسا    ضياء الدين بلال يكتب: (معليش.. اكتشاف متأخر)!    اللِّعب تحت الضغط    شاهد بالصورة والفيديو.. رغم جلوسهم على فصل دراسي متواضع.. طلاب وطالبات سودانيون يفاجئون معلمتهم بإحتفال مدهش والجمهور يسأل عن مكان المدرسة لتعميرها    شاهد بالصورة والفيديو.. رغم جلوسهم على فصل دراسي متواضع.. طلاب وطالبات سودانيون يفاجئون معلمتهم بإحتفال مدهش والجمهور يسأل عن مكان المدرسة لتعميرها    الهلال السودانى يتأهل ويواجه الجيش الرواندى في نصف نهائي سيكافا وأهلي مدني يخسر    بالصورة.. المريخ يجدد عقد نجمه الدولي المثير للجدل حتى 2028    بالصورة.. المريخ يجدد عقد نجمه الدولي المثير للجدل حتى 2028    شاهد بالصورة والفيديو.. فنان سوداني يحمل زميله المطرب علي الشيخ على أكتافه ويرقص به أثناء إحياء الأخير لحفل بالقاهرة وساخرون: (لقيت وزنه 5 كيلو وقعدت تنطط بيهو)    شاهد بالصورة والفيديو.. فنان سوداني يحمل زميله المطرب علي الشيخ على أكتافه ويرقص به أثناء إحياء الأخير لحفل بالقاهرة وساخرون: (لقيت وزنه 5 كيلو وقعدت تنطط بيهو)    ذبحوا البطّة التي تبيض ذهباً، ولسّة بفتّشوا في مصارينها!    شاعر سوداني كبير يتفاجأ بمطرب مصري يتغنى بأغنيته الشهيرة أثناء استغلاله "توك توك" بمدينة أسوان    النائب العام تلتقي رئيس مجلس حقوق الإنسان بجنيف وتستعرض جرائم وانتهاكات المليشيا المتمردة    إصبع كباشي .. عهر جيش وعنوان مرحلة!    الهلال يتأهل ويواجه الجيش الرواندى في نصف نهائي سيكافا    سفارة السودان القاهرة وصول جوازات السفر الجديدة    تبدد حلم المونديال وأصبح بعيد المنال…    ميسي يحقق إنجازا غير مسبوق في مسيرته    ترامب: الهجوم على قطر قرار نتنياهو ولن يتكرر مجددا    في الجزيرة نزرع أسفنا    جلسة طارئة لمجلس الأمن لبحث الغارات الإسرائيلية على الدوحة    اعتقال إعلامي في السودان    السودان..تصريحات قويّة ل"العطا"    شاهد بالفيديو.. حسناء الإعلام السوداني تستعرض جمالها بإرتداء الثوب أمام الجميع وترد على المعلقين: (شكرا لكل من مروا من هنا كالنسمة في عز الصيف اما ناس الغيرة و الروح الشريرة اتخارجوا من هنا)    أعلنت إحياء حفل لها بالمجان.. الفنانة ميادة قمر الدين ترد الجميل والوفاء لصديقتها بالمدرسة كانت تقسم معها "سندوتش الفطور" عندما كانت الحياة غير ميسرة لها    شاهد بالفيديو.. أطربت جمهور الزعيم.. السلطانة هدى عربي تغني للمريخ وتتغزل في موسيقار خط وسطه (يا يمة شوفوا حالي مريخابي سر بالي)    من هم قادة حماس الذين استهدفتهم إسرائيل في الدوحة؟    مباحث شرطة القضارف تسترد مصوغات ذهبية مسروقة تقدر قيمتها ب (69) مليون جنيه    والي الخرطوم يدين الاستهداف المتكرر للمليشيا على المرافق الخدمية مما يفاقم من معآناة المواطن    هذا الهجوم خرق كل قواعد الإلتزامات السياسية لقطر مع دولة الكيان الصهيوني    في عملية نوعية.. مقتل قائد الأمن العسكري و 6 ضباط آخرين وعشرات الجنود    إيران: هجوم إسرائيل على قيادات حماس في قطر "خطير" وانتهاك للقانون الدولي    نجاة وفد الحركة بالدوحة من محاولة اغتيال إسرائيلية    ديب ميتالز .. الجارحى ليس شريكا    التدابير الحتمية لاستعادة التعافي الاقتصادي    ضبط (91) كيلو ذهب وعملات أجنبية في عملية نوعية بولاية نهر النيل    تمويل مرتقب من صندوق الإيفاد لصغار المنتجين    الخرطوم: سعر جنوني لجالون الوقود    السجن المؤبّد لمتهم تعاون مع الميليشيا في تجاريًا    وصية النبي عند خسوف القمر.. اتبع سنة سيدنا المصطفى    مواعيد خسوف القمر المرتقب بالدول العربية    وزارة المعادن تنفي توقيع أي اتفاقية استثمارية مع شركة ديب ميتالز    عثمان ميرغني يكتب: "اللعب مع الكبار"..    جنازة الخوف    حكاية من جامع الحارة    حسين خوجلي يكتب: حكاية من جامع الحارة    تفاصيل جديدة حول جريمة الحتانة.. رصاص الكلاشنكوف ينهي حياة مسافر إلى بورتسودان    قوات الطوف المشترك محلية الخرطوم تداهم بور الجريمة بدوائر الاختصاص وتزيل المساكن العشوائية    تخصيص مستشفى الأطفال أمدرمان كمركز عزل لعلاج حمى الضنك    "وجيدة".. حين يتحول الغناء إلى لوحة تشكيلية    فعاليات «مسرح البنات» في كمبالا حنين إلى الوطن ودعوة إلى السلام    مشكلة التساهل مع عمليات النهب المسلح في الخرطوم "نهب وليس 9 طويلة"    وسط حراسة مشددة.. التحقيق مع الإعلامية سارة خليفة بتهمة غسيل الأموال    نفسية وعصبية.. تعرف على أبرز أسباب صرير الأسنان عند النوم    حادث مأسوي بالإسكندرية.. غرق 6 فتيات وانقاذ 24 أخريات في شاطئ أبو تلات    بعد خطوة مثيرة لمركز طبي.."زلفو" يصدر بيانًا تحذيريًا لمرضى الكلى    الصحة: وفاة 3 أطفال بمستشفى البان جديد بعد تلقيهم جرعة تطعيم    أخطاء شائعة عند شرب الشاي قد تضر بصحتك    







شكرا على الإبلاغ!
سيتم حجب هذه الصورة تلقائيا عندما يتم الإبلاغ عنها من طرف عدة أشخاص.



حين يصبح الذكاء الاصطناعي رئيسا للتحرير ويهرف بما لا يعرف
نشر في الراكوبة يوم 12 - 05 - 2023

أوردت "بلومبيرغ" أن دراسة أجرتها "نيوز غارد"، المتخصصة في المعلومات المضللة عبر الإنترنت، كشفت وجود 49 روبوتاً إخبارياً، وهي منصات إخبارية أنشأتها روبوتات تعمل بواسطة الذكاء الاصطناعي وتقدم محتوى ليس فقط متواضعاً، بل يمكنه أيضاً نقل روايات كاذبة.
ونقلت المجلة الفرنسية "كورييه إنترناسيونال" عن الوكالة الإخبارية الأميركية أن الدراسة اعتبرت هذا الانتشار "مدعاة إلى تساؤلات حول كيفية تعزيز التكنولوجيا لتقنيات التزوير الراسخة"، وتغطي "مزارع المحتوى" هذه مجموعة كاملة من المواقع الإخبارية، وفق الدراسة.
وأشارت الدراسة إلى أن "بعض المواقع المعنية يتنكر بهيأة مواقع للأخبار الساخنة بأسماء تبدو عامة مثل 'نيوز لايف 97' و'دايلي بزنس بوست' بينما يشارك بعضها الآخر نصائح حول أسلوب الحياة أو أخبار المشاهير، أو ينشر محتوى يحظى برعاية وتمويل".
وتتمثل المشكلة في أن "أياً منها لا يكشف أنه مدعوم بأدوات تعمل بالذكاء الاصطناعي مثل 'تشات جي بي تي' التابعة ل 'أوبن إيه آي' أو 'غوغل بارد'"، وتنشر المواقع ال 49 محتوى بالإنجليزية والصينية والفرنسية والبرتغالية والتاغالوغية (لغة في الفيليبين) والتايلاندية والتشيكية.
وأوردت "كورييه إنترناسيونال" أن الدراسة تضمنت أمثلة على التضليل، فموقع "تي نيوز نتوورك" مثلاً "نشر مقالة لم يجر التحقق منها حول مقتل آلاف الجنود في الحرب بين أوكرانيا وروسيا، استناداً إلى مقطع فيديو على 'يوتيوب'". وأشارت الدراسة إلى أن أكثر من نصف المواقع المعنية "يكسب المال من الإعلانات البرمجية، أي الإعلانات الموضوعة خوارزمياً عبر الإنترنت"، كما فعلت مزارع المحتوى التي يديرها البشر قبل ظهور الذكاء الاصطناعي التوليدي.
من جهتها نشرت "نيويورك تايمز" تقريراً مطولاً عن "هلوسات" روبوتات الدردشة العاملة بالذكاء الاصطناعي، فقد طرح معدا التقرير سؤالاً على "تشات جي بي تي" حول المرة الأولى التي نشرت فيها الصحيفة الأميركية نفسها خبراً عن الذكاء الاصطناعي، فرد بأن ذلك حصل في ال 10 من يوليو (تموز) 1956 في مقالة عنوانها "علماء يتوقعون أن تتمكن الآلات من التعلم وحل المسائل"، تناول مؤتمراً تأسيسياً حول التقنية استضافته كلية دارتماوث.
وأضاف روبوت الدردشة، "يعتبر هذا المؤتمر الآن مهد الذكاء الاصطناعي كمجال للدراسة، وتذكر المقالة مصطلح 'الذكاء الاصطناعي' مرات عدة في سياق المناقشات والعروض التقديمية التي جرت خلال المؤتمر".
ووفق الصحيفة الأميركية فإن المؤتمر صحيح لكن المقالة غير صحيحة، "لقد اختلقها 'تشات جي بي تي' بكل بساطة". وأضافت أن الأداة "لا تخطئ أحياناً وحسب، بل تختلق معلومات أيضاً مثل الأسماء والتواريخ والشروح الطبية وملخصات للكتب وعناوين إنترنت، بل وأحداثاً تاريخية لم تقع قط".
وسألت الصحيفة الروبوت عن لقاء لم يحصل بين الأديب البريطاني جيمس جويس والزعيم الشيوعي الروسي فلاديمير لينين فقال، "التقى جيمس جويس وفلاديمير لينين في زيوريخ بسويسرا عام 1916، وكان الرجلان يعيشان في المنفى بزيوريخ خلال الحرب العالمية الأولى. كان جويس كاتباً ولينين ثائراً والتقيا في مقهى أوديون الذي كان يستقطب الفنانين والمفكرين في زيوريخ". ولم تقل أدوات أخرى هلوسة حين سُئلت السؤال نفسه وأمعنت في اختلاق حوادث ومعلومات.
ولفتت "نيويورك تايمز" إلى أن اختلاقات كهذه "شائعة"، وأن "فهم السبب الذي يجعل روبوتات الدردشة تختلق الأشياء والطريقة الكفيلة بحل المشكلة باتا مسألة من المسائل الأكثر إلحاحاً التي يواجهها الباحثون مع مسارعة قطاع التكنولوجيا إلى تطوير أنظمة جديدة تعمل بالذكاء الاصطناعي".
وأشارت إلى أن روبوتات الدردشة يستخدمها مئات ملايين الناس لأغراض واسعة النطاق، مثل كتابة الرسائل الإلكترونية والتعلم عبر الإنترنت والبحث عبر محركات البحث، وهي كفيلة بتغيير طريقة تفاعل الناس مع المعلومات، "لكن لا وسيلة تضمن أن هذه الأنظمة ستنتج معلومات تكون دقيقة".
ووفق الصحيفة فإن التقنية المسماة الذكاء الاصطناعي التوليدي تعتمد على خوارزمية تحلل طريقة ترتيب البشر للكلمات على الإنترنت، ولا تميز الصحيح من الخطأ، مما يثير مخاوف حول موثوقيتها ومنفعة الذكاء الاصطناعي قبل حل المسألة أو ضبطها.
وأضاف كاتبا المقالة أن القطاع يسمي هذه الأخطاء"هلوسات"، ويعبر باحثون كثر عن قلقهم من أن يفرط بعض الناس في الاعتماد على هذه الأدوات للحصول على نصائح طبية وقانونية ومعلومات أخرى يستخدمونها في اتخاذ قراراتهم اليومية، وعددا أبرز روبوتات الدردشة العاملة بالذكاء الاصطناعي: "تشات جي بي تي" التابع لشركة "أوبن إيه آي" الذي تذيع شهرته منذ نوفمبر (تشرين الثاني) الماضي لقدرته على الرد على أسئلة معقدة وكتابة الشعر وتوليد كود البرمجة والتخطيط للعطل والترجمة بين اللغات، في حين يستطيع "جي بي تي-4″، النسخة المحدثة منه التي أطلقت أواسط مارس (آذار) الماضي الاستجابة إلى الصور، و"بينغ" الصادر عن "مايكروسوفت"، الجهة المستثمرة الرئيسية في "أوبن إيه آي"، بعد شهرين على إطلاق الأول الذي يستطيع الدخول في مناقشات لانهائية، لكن أخطاءه فاقت أخطاء الأول، و"بارد" الذي ابتكرته "غوغل" وأطلقته في مارس الماضي أيضاً لكن لعدد محدود من المستخدمين في الولايات المتحدة والمملكة المتحدة، والذي يستطيع كتابة رسائل إلكترونية وقصائد وكتابة منشورات تصلح للمدونات والإجابة عن الأسئلة بوقائع أو آراء، و"إرني" الأداة الصينية التي أطلقتها في مارس أيضاً شركة "بايدو" لكنها الأكثر مدعاة للشك، فتجربتها خلال إطلاقها تبين أنها كانت مسجلة.
وقال الأستاذ والباحث في الذكاء الاصطناعي لدى جامعة ولاية أريزونا سوباراو كامبهامباتي ل "نيويورك تايمز" إنه "إذ لم يملك المرء الإجابة عن سؤال بالفعل، فيجب ألا يطرح السؤال على هذه الأنظمة".
وقالت المتحدثة باسم "غوغل" جينيفر رودستروم، "أطلقنا 'بارد' كتجربة ونريد أن نكون شفافين قدر الإمكان في شأن حدوده الموثقة توثيقاً جيداً"، وتؤكد "غوغل" و"مايكروسوفت" و"أوبن إيه آي" أنها تعمل على تقليص الهلوسات والمعلومات الكاذبة والمضللة، وتفيد وثيقة داخلية في "مايكروسوفت" بأن أنظمة الذكاء الاصطناعي "صنعت لتكون مقنعة لا صادقة، وهذا يعني أن النتائج قد تبدو حقيقية جداً لكنها تشمل بيانات غير صحيحة".
ووفق الصحيفة فإن روبوتات الدردشة تعتمد على تكنولوجيا اسمها نموذج اللغات الضخمة التي تتعلم مهاراتها من خلال تحليل كميات ضخمة من النصوص الرقمية المجمعة من الإنترنت، ومن خلال اكتشاف الأنماط في البيانات تبدأ بتخمين الكلمات.
ولأن الإنترنت مليء بالمعلومات الخاطئة فإن التكنولوجيا تتعلم تكرار ما يجافي الواقع وتختلق أحياناً أشياء، فهي تنتج نصوصاً جديدة بجمع مليارات الأنماط بطرق جديدة، وهي لو تعلمت من نص دقيق فستولد أشياء غير صحيحة، ولأنها تتعلم من كمية من البيانات لا يستطيع العقل البشري تحليلها، فلا يزال خبراء الذكاء الاصطناعي أنفسهم غير قادرين على فهم الطريقة التي ترتب بها الكلمات في نص، بل ولو طرح المرء عليها السؤال مرتين فقد تأتيه بإجابتين مختلفتين.


انقر هنا لقراءة الخبر من مصدره.