تحديث جديد من أبل لهواتف iPhone يتضمن 29 إصلاحاً أمنياً    تحالف "صمود": استمرار الحرب أدى إلى كارثة حقيقية    شاهد بالفيديو.. لاعب المريخ السابق بلة جابر: (أكلت اللاعب العالمي ريبيري مع الكورة وقلت ليهو اتخارج وشك المشرط دا)    شاهد بالفيديو.. بأزياء مثيرة وعلى أنغام "ولا يا ولا".. الفنانة عشة الجبل تظهر حافية القدمين في "كليب" جديد من شاطئ البحر وساخرون: (جواهر برو ماكس)    "صمود" يدعو لتصنيف حزب المؤتمر الوطني "المحلول"، والحركة الإسلامية وواجهاتهما ك "منظومة إرهابية"    شاهد بالفيديو.. حسناء الفن السوداني "مونيكا" تدعم الفنان عثمان بشة بالترويج لأغنيته الجديدة بفاصل من الرقص المثير    امرأة على رأس قيادة بنك الخرطوم..!!    ميسي يستعد لحسم مستقبله مع إنتر ميامي    صحة الخرطوم تبحث خطة لإعادة إعمار المرافق الصحية بالتعاون مع الهيئة الشبابية    كمين في جنوب السودان    كوليبَالِي.. "شَدولو وركب"!!    دبابيس ودالشريف    إتحاد الكرة يكمل التحضيرات لمهرجان ختام الموسم الرياضي بالقضارف    محمد عبدالقادر يكتب: بالتفصيل.. أسرار طريقة اختيار وزراء "حكومة الأمل"..    تقرير يكشف كواليس انهيار الرباعية وفشل اجتماع "إنقاذ" السودان؟    ارتفاع احتياطيات نيجيريا من النقد الأجنبي بأكثر من ملياري دولار في يوليو    وحدة الانقاذ البري بالدفاع المدني تنجح في إنتشال طفل حديث الولادة من داخل مرحاض في بالإسكان الثورة 75 بولاية الخرطوم    "تشات جي بي تي" يتلاعب بالبشر .. اجتاز اختبار "أنا لست روبوتا" بنجاح !    أول أزمة بين ريال مدريد ورابطة الدوري الإسباني    "الحبيبة الافتراضية".. دراسة تكشف مخاطر اعتماد المراهقين على الذكاء الاصطناعي    الخرطوم تحت رحمة السلاح.. فوضى أمنية تهدد حياة المدنيين    المصرف المركزي في الإمارات يلغي ترخيص "النهدي للصرافة"    أنقذ المئات.. تفاصيل "الوفاة البطولية" لضحية حفل محمد رمضان    بزشكيان يحذِّر من أزمة مياه وشيكة في إيران    شهادة من أهل الصندوق الأسود عن كيكل    لجنة أمن ولاية الخرطوم تقرر حصر وتصنيف المضبوطات تمهيداً لإعادتها لأصحابها    اكتمال عملية التسليم والتسلم بين رئيس مجلس الإدارة السابق والمدير العام للنادي    انتظام النوم أهم من عدد ساعاته.. دراسة تكشف المخاطر    خبر صادم في أمدرمان    مصانع أدوية تبدأ العمل في الخرطوم    اقتسام السلطة واحتساب الشعب    شاهد بالصورة والفيديو.. ماذا قالت السلطانة هدى عربي عن "الدولة"؟    شاهد بالصورة والفيديو.. الفنان والممثل أحمد الجقر "يعوس" القراصة ويجهز "الملوحة" ببورتسودان وساخرون: (موهبة جديدة تضاف لقائمة مواهبك الغير موجودة)    شاهد بالفيديو.. منها صور زواجه وأخرى مع رئيس أركان الجيش.. العثور على إلبوم صور تذكارية لقائد الدعم السريع "حميدتي" داخل منزله بالخرطوم    إلى بُرمة المهدية ودقلو التيجانية وابراهيم الختمية    رحيل "رجل الظلّ" في الدراما المصرية... لطفي لبيب يودّع مسرح الحياة    بنك أمدرمان الوطني .. استئناف العمل في 80% من الفروع بالخرطوم    بنك أمدرمان الوطني .. استئناف العمل في 80% من الفروع بالخرطوم    زيادة راس المال الاسمي لبنك امدرمان الوطني الي 50 مليار جنيه سوداني    وفاة 18 مهاجرًا وفقدان 50 بعد غرق قارب شرق ليبيا    احتجاجات لمرضى الكٌلى ببورتسودان    السيسي لترامب: ضع كل جهدك لإنهاء حرب غزة    تقرير يسلّط الضوء على تفاصيل جديدة بشأن حظر واتساب في السودان    استعانت بصورة حسناء مغربية وأدعت أنها قبطية أمدرمانية.. "منيرة مجدي" قصة فتاة سودانية خدعت نشطاء بارزين وعدد كبير من الشباب ووجدت دعم غير مسبوق ونالت شهرة واسعة    «ملكة القطن» للمخرجة السودانية سوزانا ميرغني يشارك في مهرجان فينيسيا    وزارة المالية توقع عقد خدمة إلكترونية مع بنك النيل الأزرق المشرق    مقتل شاب ب 4 رصاصات على يد فرد من الجيش بالدويم    السودان..الإعلان عن إنزال البارجة"زمزم"    دقة ضوابط استخراج أو تجديد رخصة القيادة مفخرة لكل سوداني    أفريقيا ومحلها في خارطة الأمن السيبراني العالمي    الشمالية ونهر النيل أوضاع إنسانية مقلقة.. جرائم وقطوعات كهرباء وطرد نازحين    شرطة البحر الأحمر توضح ملابسات حادثة إطلاق نار أمام مستشفى عثمان دقنة ببورتسودان    السودان.. مجمّع الفقه الإسلامي ينعي"العلامة"    ترامب: "كوكاكولا" وافقت .. منذ اليوم سيصنعون مشروبهم حسب "وصفتي" !    بتوجيه من وزير الدفاع.. فريق طبي سعودي يجري عملية دقيقة لطفلة سودانية    نمط حياة يقلل من خطر الوفاة المبكرة بنسبة 40%    عَودة شريف    لماذا نستغفر 3 مرات بعد التسليم من الصلاة .. احرص عليه باستمرار    







شكرا على الإبلاغ!
سيتم حجب هذه الصورة تلقائيا عندما يتم الإبلاغ عنها من طرف عدة أشخاص.



بالفيديو .. الذكاء الاصطناعي مخيف، والبشر هم السبب الحقيقي لهذا
نشر في النيلين يوم 31 - 10 - 2016

ستطيع مهندسو البرمجيات أن يحولوا الأسلحة الذكية بسهولة بالغة إلى آلات قتل عشوائي.
للأسف، أثارت الضجة الأخيرة ضد أسلحة الذكاء الاصطناعي اللبس، إذ تمت شيطنة الروبوتات بادعاء أنها ستسيطر على العالم. وعلى المدى القريب، يعتبر هذا السيناريو غير منطقي بالمرة، فعلى العكس من الأسلحة التقليدية ذات التحكم البشري، تمثل أسلحة الذكاء الاصطناعي خطرًا حقيقيًّا، ويوجد سبب وجيه وراء حظرها.
لقد شهدنا بالفعل لمحة عن مستقبل الذكاء الاصطناعي من خلال سيارات جوجل ذاتية القيادة. تخيل لو سرقت إحدى العصابات الوحشية تلك السيارة، وقامت بتثبيت سلاح أعلاها، وأعادوا برمجتها لتطلق النار على الناس، فهذا بالتحديد هو سلاح ذكاء اصطناعي.
لم تفارق إمكانات تلك الأسلحة خيالات الحكومات، فقد شهدنا مؤخرًا إعلان البحرية الأمريكية عن خططها لتطوير أسلحة ذاتية التحكم، وكذلك إعلان حكومة كوريا الجنوبية عن تصنيع أسلحة ” Super aEgis II“، وإعلان الحكومة الروسية عن أسلحة “Platform-M” القتالية الآلية.
لكن ليست الحكومات هي الطرف الوحيد الذي يستطيع تصنيع أسلحة الذكاء الاصطناعي. على سبيل المثال، تخيل نجاح شركة جوبرو الأمريكية – المتخصصة في صناعة الكاميرات الرقمية- في تصنيع كوادكوبتر بدون طيار، وهي طوافة عمودية متعددة المراوح تستخدم أحيانًا في التجسس، والتي أصبح بإمكان أي شخص أن يشتريها. زد على ذلك، بساطة البرنامج المشغل الذي يسمح لتلك الطوافة بالطيران ذاتيًّا. حينها ستدرك مدى اقتراب العصابات الوحشية وشركات إنتاج الأسلحة الخاصة التي تمكنت من تسليح سيارة جوجل ذاتية القيادة، من إضافة بندقية لذلك النوع من الطوافات، وبرمجتها لقتل الناس في الأماكن المزدحمة.
هذا بالتحديد هو الخطر المباشر لأسلحة الذكاء الاصطناعي؛ إذ يمكن تحويلها بسهولة لآلات قتل عشوائي أكثر خطورة من أي سلاح مماثل يحمله أو يوجهه إنسان.
محاولات حظرها
وقع كل من ستيفن هوكينغ وماكس تاجمارك وإيلون موسك وغيرهم عريضة مؤسسة “فيوتشر أوف لايف”، لحظر استخدام أسلحة الذكاء الاصطناعي، وهي مؤسسة بحثية قائمة على التطوع، تهدف إلى تخفيف حدة الأخطار التي تهدد مستقبل البشرية، وبالأخص التهديد الذي يمثله الذكاء الاصطناعي وأسلحته. وقد تلقت المؤسسة تبرع بلغت قيمته 10 مليون دولار من السيد موسك في يناير/ كانون الثاني الماضي. وفي أعقاب ذلك، عقدت الأمم المتحدة اجتماعًا تحت عنوان “الروبوتات القاتلة” في أبريل. إلا أنه لم يؤت ثماره، إذ لم يؤد إلى أية قرارات سياسية إستراتيجية دائمة. يؤكد الخطاب الذي صاحب العريضة على أن خطر أسلحة الذكاء الاصطناعي مباشر ووشيك، مما يتطلب التحرك السريع لتجنب حدوث كوارث في غضون السنوات القليلة المقبلة. لكن، للأسف لم توضح العريضة أي نوع من أسلحة الذكاء الاصطناعي هي التي تلوح بالخطر في الأفق القريب.
وقد أعرب الكثيرون عن تخوفاتهم من نهاية للعالم كارثية مروعة، كما في سيناريوهات سلسلة أفلام تيرميناتور Terminator، حيث تطور الروبوتات مقدرة شبيهة بمقدرة البشر على التفاعل مع العالم المحيط بنفسها، بشكل كامل ذاتي، وبالتالي ستحاول غزو العالم والسيطرة عليه. فعلى سبيل المثال، حذر سير مارتن ريس – عالم فيزياء ورائد فضاء- في محادثته على موقع تيد من السيناريوهات المروعة لتطور الربوتات قائلًا: “روبوتات غبية تصبح شريرة، شبكة تُطوِّرعقلها بنفسها ذاتيًّا”. وأعرب الفيلسوف هيو برايس – زميله في جامعة كامبريدج- عن نفس المخاوف في مقاله على موقع ذا نيويورك تايمز، وأن البشرية قد لا تنجو إذا ما تخطى الذكاء الاصطناعي القيود البيولوجية. وبالتعاون معًا، أسس سير ريس وزميله هيو برايس، مركز دارسة المخاوف الوجودية “Centre for the Study of Existential Risk” التابع لجامعة كامبريدج، للمساعدة في تجنب تلك التهديدات المثيرة الكارثية للوجود البشري.
أين نحن من ذكاء اصطناعي كهذا؟
بالتأكيد تستحق تلك السيناريوهات الدراسة، إلا أنها تظل أقل قبولاً ومعقولية، ولا سيما أقل إلحاحًا بكثير من الخطر الوشيك الذي تمثله أسلحة الذكاء الاصطناعي الآن.
والسؤال المطروح الآن هو “أين نحن من تطوير ذكاء اصطناعي يشبه الإنسان الآن؟”. حسب كل المعايير، الإجابة هي أننا لسنا قريبين من تحقيق ذلك. فعلى سبيل المثال، وصفت مؤخرًا وسائل الإعلام المختلفة برنامج جامعة ريدينغ المسمى ب “يوجين غوستمان”، وهو ذكاء اصطناعي حاسوبي يقوم بإجراء محادثات عبر الإنترنت كطفل أوكراني عمره 13 سنة، بأنه غاية في الذكاء، إذ تمكن من خداع بعض الناس، وإيهامهم بأنه طفل حقيقي. وذلك على الرغم من أنه بعيد كل البعد عن كونه ذكاء اصطناعيًّا يشبه الإنسان حقيقةً. وقد أثبت ذلك عالم الكمبيوتر سكوت أرونسون، إذ دحض البرنامج كليةً من خلال حوار أجراه مع يوجين، بداية بطرح سؤال بديهي عليه: “أيهما أكبر صندوق أحذية ، أم جبل إيفرست؟”، فعجز البرنامج عن الإجابة، ثم أعقبه بسؤال: “كم عدد أرجل الجمل؟”، فتعثر البرنامج في الإجابة عليه أيضًا؛ ليتعرى البرنامج ويُفضح بأنه لا يشبه الذكاء البشري على الإطلاق.
وعلى الرغم من كل ما سبق، وقَّعنا نحن – كاتبا هذا المقال- على عريضة حظر استخدام أسلحة الذكاء الاصطناعي، والسبب في ذلك، أنه بخلاف شبكات الحاسوب ذات الوعي الذاتي الاصطناعي، أصبحت السيارات ذاتية القيادة المرفق بها رشاشات ممكنة التصنيع الآن. فالخطر الذي تمثله أسلحة الذكاء الاصطناعي لا يتمثل في كونها على وشك السيطرة على العالم، بل المشكله الأساسية تتمثل في سهولة وبساطة إعادة برمجتها بطريقة تمكِّن أي شخص من خلق آلة قتل عشوائية عالية الكفاءة وبتكلفة ذهيدة بشكل لا يصدق. فالآلات في حد ذاتها ليست مخيفة، وإنما ما يمكن أن يفعله أي قرصان كمبيوتر أو مخترق شبكات بتلك الآلات، وبميزانية زَهِيدة نسبيًّا.
تخيل مثلًا صعود أحد الطواغيت المستبدين الراغبين في تدمير المعارضة، وهو مسلح بقاعدة بيانات تضم الانتماءات السياسية لجميع المعارضين وعناوينهم وصورهم. فيما مضى، مثل ذلك الطاغية كان سيحتاج جيشًا من الجنود لإنجاز المهمة، وربما يفشل الجنود في ذلك، لأنه من السهل أن يخدع هؤلاء الجنود أو تتم رشوتهم أو يفقدون رباطة جأشهم فيطلقون النار على الأشخاص غير المستهدفين من الأساس.
لكن يختلف الحال مع طواغيت المستقبل، إذ سيتمكنون من مجرد شراء بضعة آلاف من الطائرات بدون طيار المزودة برشاشات. وبفضل قانون مور، ابتكره غوردون مور أحد مؤسسي شركة إنتل، والذي يوصِّف الزيادة الهائلة في القدرة الحاسوبية للدولار الواحد منذ اختراع الترانزيستور، تنخفض تكلفة طائرة الذكاء الاصطناعي بدون طيار، وبالتالي ستصبح في متناول الأيدي مثلها مثل سهولة ورخص تكلفة البنادق من نوع كلاشنكوف اليوم. إذ يصير بإمكان بضعة مهندسين برمجيات إعادة برمجة الطائرات بدون طيار لتقوم بدوريات قرب منازل وأماكن عمل المنشقين والمعارضين للأنظمة، فتقتلهم في الحال. مثل تلك الطائرات أقل عرضة لارتكاب الأخطاء كما هو الحال مع جنود البشر، ولا يمكنها التأثر بالرشوة أو حتى التأثر عاطفيًّا أيًّا كان موقف القتل، ولعل الأهم من ذلك كله هو كفاءتها التي تفوق قدرة الجنود من بني الإنسان. وبالتالي، يصبح بإمكان أي طاغية سحق المعارضين له، ومحوهم من على وجه الأرض، قبل حتى أن يستجيب المجتمع الدولي، ويتخذ إجراءات بشأنه.
ونظرًا للفعالية الهائلة التي أحدثها التشغيل الآلي، ستزلل أسلحة الذكاء الاصطناعي العقبات أمام كل مختل يسعى لارتكاب مثل تلك الأفعال الوحشية. فما كان ذات مرة اختصاص حصري للطواغيت في السيطرة على جيوش بأكملها، سيصير في متناول الأفراد متوسطي الثراء.
ربما تدعي الحكومات والمصنعون المهتمون بتطوير مثل تلك الأسلحة، أن بإمكانها هندسة وتصنيع ضمانات مناسبة للتأكيد من استحالة إعادة برمجتها أو اختراقها؛ لكن يجب أن تقابَل تلك الادعاءات بالتشكيك. إذ تعرضت ماكينات التصويت الإلكترونية، وماكينات الصراف الآلي، ومشغلات بلوراي، وحتى السيارات المسرعة على الطرق السريعة للاختراق مؤخرًا، على الرغم من درجة تأمينهم العالية التي يتم الإعلان عنها. فقد برهن التاريخ على أنه في نهاية المطاف حتمًا ستتعرض الحواسيب للقرصنة، ولمحاولات إعادة برمجتها وتطويعها من قبل قراصنة مدفوعين لذلك. ومن المستبعد استثناء أسلحة الذكاء الاصطناعي في ذلك.
هل يرقى خطرها لخطر الأسلحة المحرمة دوليًّا؟
منذ عام 1925، حظرت المعاهدات الدولية استخدام الأسلحة البيولوجية والكيميائية في الحروب، وتم حظر استخدام رصاص دوم دوم أو الرصاص المتفجر قبل ذلك في عام 1899، إذ تخلق تلك الأنواع من الأسلحة معاناة شديدة دون داعٍ. فهي بالأخص تهدف لسقوط ضحايا مدنيين مثل استنشاق الناس للغاز السام أو إصابة الأطباء أثناء محاولة انتزاع الرصاص المتفجر من الضحية. فقد حظرت جميع تلك الأسلحة لأنها تخلق معاناة وقتلًا عشوائيًّا بين المدنيين.
“هل توجد فئة معينة من أسلحة الذكاء الاصطناعي التي تستحق نفس القدر من الحظر؟” بالتأكيد، وبما لا يترك مجالًا للشك، نعم. فإذا كان بالإمكان تحويل أي ماكينة ذكاء اصطناعي بسهولة وبتكلفة زهيدة، لآلة قتل جماعي وعشوائي فعالة، إذًا لا بد من عقد اتفاق دولي ضدها. فتلك الآلات لا تختلف كثيرًا عن المعادن المشعة، حيث يمكن استخدامها هي الأخرى لأغراض وجيهة، لكن ينبغي علينا السيطرة عليها بعناية حيث يمكن تحويلها بسهولة لأسلحة مدمرة فتاكة. فالفرق هنا هو أن تطويع ماكينات الذكاء الاصطناعي وإعادة برمجتها يفوق في سهولته تطويع مفاعل نووي.
ينبغي علينا حظر استخدام أسلحة الذكاء الاصطناعي ليس لكونها غير أخلاقية، بل لأن البشر بالتأكيد سيحولونها لوحوش بشعة متعطشة للدماء، وببساطة عن طريق التكويد واستخدام قراصنة الكمبيوتر المأجورين السهل العثور عليهم على شبكات الإنترنت. فشفرة بسيطة بإمكانها تحويل أكبر قدر ممكن من أسلحة الذكاء الاصطناعي، لآلات قتل قادرة على إحداث دمار وقتل، يتجاوز بكثير ما قد تخلفه أي من الأسلحة المحرمة، كالأسلحة الكيميائية والبيولوجية أو حتى الرصاص المتفجر.
يستدعي حظر أنواع معينة من الذكاء الاصطناعي صراعًا مع عدة تساؤلات فلسفية. هل سيتم حظر استخدام أسلحة الذكاء الاصطناعي على مبادرة الدفاع الإستراتيجي للولايات المتحدة الأمريكية، المعروفة شعبيًا باسم “حرب النجوم”؟ ولأنه من الممكن استخدام السيارات كأسلحة، هل ستحظر العريضة استخدام سيارة جوجل ذاتية القيادة؟ أو حتى ستحظر استخدام السيارات ذاتية القيادة الأخرى التي انتشرت في جميع أنحاء المملكة المتحدة؟ ما هو الحد الفاصل بين ما يعتبر ذكاءً وما يعتبر سلاحًا؟
تلك الأسئلة صعبة وهامة في نفس الوقت. لكن الإجابة عليها ليست ملحة بقدر وجوب توافقنا على صياغة اتفاقية للسيطرة على أسلحة الذكاء الاصطناعي. ينبغي على المجتمع الدولي النظر بجدية لحدود ما هو مقبول، وذلك من خلال توصيات العلماء والفلاسفة و مهندسي الكمبيوتر. بالفعل تحظر وزارة الدفاع الأمريكية الأسلحة المستقلة الذاتية التشغيل؛ وحان الوقت لتوسيع نطاق هذا الحظر، وتحسينه ليرقى إلى التطبيق على المستوى الدولي.
وبطبيعة الحال لن يتمكن أي حظر دولي من منع كامل لانتشار أسلحة الذكاء الاصطناعي. لكن ليس هذا عذرًا لإلغاء الحظر. فإذا اعتقدنا كمجتمعٍ بوجود ما يستوجب حظر استخدام الأسلحة الكيميائية، والبيولوجية، والرصاص المتفجر، إذًا يوجد هناك ما يحتم علينا حظر استخدام أسلحة الذكاء الاصناعي أيضًا.
لمشاهدة الفيديو أضغط هنا


انقر هنا لقراءة الخبر من مصدره.