تعاون مصري سوداني في مجال الكهرباء    الخلافات تشتعل بين مدرب الهلال ومساعده عقب خسارة "سيكافا".. الروماني يتهم خالد بخيت بتسريب ما يجري في المعسكر للإعلام ويصرح: (إما أنا أو بخيت)    شاهد بالصورة والفيديو.. بأزياء مثيرة.. تيكتوكر سودانية تخرج وترد على سخرية بعض الفتيات: (أنا ما بتاجر بأعضائي عشان أكل وأشرب وتستاهلن الشتات عبرة وعظة)    ترامب : بوتين خذلني.. وسننهي حرب غزة    كامل إدريس في السعودية: وعكة رباعية..!!    الكويت ترحب ب "الرباعية" حول السودان    شاهد بالصورة والفيديو.. حصلت على أموال طائلة من النقطة.. الفنانة فهيمة عبد الله تغني و"صراف آلي" من المال تحتها على الأرض وساخرون: (مغارز لطليقها)    شاهد بالفيديو.. شيخ الأمين: (في دعامي بدلعو؟ لهذا السبب استقبلت الدعامة.. أملك منزل في لندن ورغم ذلك فضلت البقاء في أصعب أوقات الحرب.. كنت تحت حراسة الاستخبارات وخرجت من السودان بطائرة عسكرية)    بايرن ميونخ يتغلب على تشيلسي    نادي دبيرة جنوب يعزز صفوفه إستعداداً لدوري حلفا    البرهان : " لايمكن أن نرهن سيادتنا لأي دولة مهما كانت علاقتنا معها "    أول دولة تهدد بالانسحاب من كأس العالم 2026 في حال مشاركة إسرائيل    900 دولار في الساعة... الوظيفة التي قلبت موازين الرواتب حول العالم!    "نهاية مأساوية" لطفل خسر أموال والده في لعبة على الإنترنت    "مرصد الجزيرة لحقوق الإنسان يكشف عن انتهاكات خطيرة طالت أكثر من 3 آلاف شخص"    د.ابراهيم الصديق على يكتب: معارك كردفان..    رئيس اتحاد بربر يشيد بلجنة التسجيلات ويتفقد الاستاد    عثمان ميرغني يكتب: المفردات «الملتبسة» في السودان    خطوط تركيا الجويّة تدشّن أولى رحلاتها إلى السودان    شاهد بالصورة والفيديو.. حصلت على أموال طائلة من النقطة.. الفنانة فهيمة عبد الله تغني و"صراف آلي" من المال تحتها على الأرض وساخرون: (مغارز لطليقها)    إحباط محاولة تهريب وقود ومواد تموينية إلى مناطق سيطرة الدعم السريع    شاهد بالصورة والفيديو.. خلال حفل خاص حضره جمهور غفير من الشباب.. فتاة سودانية تدخل في وصلة رقص مثيرة بمؤخرتها وتغمر الفنانة بأموال النقطة وساخرون: (شكلها مشت للدكتور المصري)    هدف قاتل يقود ليفربول لإفساد ريمونتادا أتلتيكو مدريد    السعودية وباكستان توقعان اتفاقية دفاع مشترك    المالية تؤكد دعم توطين العلاج داخل البلاد    غادر المستشفى بعد أن تعافي رئيس الوزراء من وعكة صحية في الرياض    تحالف خطير.. كييف تُسَلِّح الدعم السريع وتسير نحو الاعتراف بتأسيس!    دوري الأبطال.. مبابي يقود ريال مدريد لفوز صعب على مارسيليا    شاهد بالفيديو.. نجم السوشيال ميديا ود القضارف يسخر من الشاب السوداني الذي زعم أنه المهدي المنتظر: (اسمك يدل على أنك بتاع مرور والمهدي ما نازح في مصر وما عامل "آي لاينر" زيك)    الجزيرة: ضبط أدوية مهربة وغير مسجلة بالمناقل    ماذا لو اندفع الغزيون نحو سيناء؟.. مصر تكشف سيناريوهات التعامل    ريال مدريد يواجه مرسيليا في بداية مشواره بدوري أبطال أوروبا    ماذا تريد حكومة الأمل من السعودية؟    الشرطة تضع حداً لعصابة النشل والخطف بصينية جسر الحلفايا    شاهد بالصور.. زواج فتاة "سودانية" من شاب "بنغالي" يشعل مواقع التواصل وإحدى المتابعات تكشف تفاصيل هامة عن العريس: (اخصائي مهن طبية ويملك جنسية إحدى الدول الأوروبية والعروس سليلة أعرق الأسر)    إنت ليه بتشرب سجاير؟! والله يا عمو بدخن مجاملة لأصحابي ديل!    وزير الداخلية يترأس إجتماع لجنة ضبط الأمن وفرض هيبة الدولة ولاية الخرطوم    في أزمنة الحرب.. "زولو" فنان يلتزم بالغناء للسلام والمحبة    إيد على إيد تجدع من النيل    حسين خوجلي يكتب: الأمة العربية بين وزن الفارس ووزن الفأر..!    ضياء الدين بلال يكتب: (معليش.. اكتشاف متأخر)!    في الجزيرة نزرع أسفنا    من هم قادة حماس الذين استهدفتهم إسرائيل في الدوحة؟    مباحث شرطة القضارف تسترد مصوغات ذهبية مسروقة تقدر قيمتها ب (69) مليون جنيه    في عملية نوعية.. مقتل قائد الأمن العسكري و 6 ضباط آخرين وعشرات الجنود    الخرطوم: سعر جنوني لجالون الوقود    السجن المؤبّد لمتهم تعاون مع الميليشيا في تجاريًا    وصية النبي عند خسوف القمر.. اتبع سنة سيدنا المصطفى    عثمان ميرغني يكتب: "اللعب مع الكبار"..    جنازة الخوف    حكاية من جامع الحارة    حسين خوجلي يكتب: حكاية من جامع الحارة    تخصيص مستشفى الأطفال أمدرمان كمركز عزل لعلاج حمى الضنك    مشكلة التساهل مع عمليات النهب المسلح في الخرطوم "نهب وليس 9 طويلة"    وسط حراسة مشددة.. التحقيق مع الإعلامية سارة خليفة بتهمة غسيل الأموال    نفسية وعصبية.. تعرف على أبرز أسباب صرير الأسنان عند النوم    بعد خطوة مثيرة لمركز طبي.."زلفو" يصدر بيانًا تحذيريًا لمرضى الكلى    الصحة: وفاة 3 أطفال بمستشفى البان جديد بعد تلقيهم جرعة تطعيم    







شكرا على الإبلاغ!
سيتم حجب هذه الصورة تلقائيا عندما يتم الإبلاغ عنها من طرف عدة أشخاص.



بالفيديو .. الذكاء الاصطناعي مخيف، والبشر هم السبب الحقيقي لهذا
نشر في النيلين يوم 31 - 10 - 2016

ستطيع مهندسو البرمجيات أن يحولوا الأسلحة الذكية بسهولة بالغة إلى آلات قتل عشوائي.
للأسف، أثارت الضجة الأخيرة ضد أسلحة الذكاء الاصطناعي اللبس، إذ تمت شيطنة الروبوتات بادعاء أنها ستسيطر على العالم. وعلى المدى القريب، يعتبر هذا السيناريو غير منطقي بالمرة، فعلى العكس من الأسلحة التقليدية ذات التحكم البشري، تمثل أسلحة الذكاء الاصطناعي خطرًا حقيقيًّا، ويوجد سبب وجيه وراء حظرها.
لقد شهدنا بالفعل لمحة عن مستقبل الذكاء الاصطناعي من خلال سيارات جوجل ذاتية القيادة. تخيل لو سرقت إحدى العصابات الوحشية تلك السيارة، وقامت بتثبيت سلاح أعلاها، وأعادوا برمجتها لتطلق النار على الناس، فهذا بالتحديد هو سلاح ذكاء اصطناعي.
لم تفارق إمكانات تلك الأسلحة خيالات الحكومات، فقد شهدنا مؤخرًا إعلان البحرية الأمريكية عن خططها لتطوير أسلحة ذاتية التحكم، وكذلك إعلان حكومة كوريا الجنوبية عن تصنيع أسلحة ” Super aEgis II“، وإعلان الحكومة الروسية عن أسلحة “Platform-M” القتالية الآلية.
لكن ليست الحكومات هي الطرف الوحيد الذي يستطيع تصنيع أسلحة الذكاء الاصطناعي. على سبيل المثال، تخيل نجاح شركة جوبرو الأمريكية – المتخصصة في صناعة الكاميرات الرقمية- في تصنيع كوادكوبتر بدون طيار، وهي طوافة عمودية متعددة المراوح تستخدم أحيانًا في التجسس، والتي أصبح بإمكان أي شخص أن يشتريها. زد على ذلك، بساطة البرنامج المشغل الذي يسمح لتلك الطوافة بالطيران ذاتيًّا. حينها ستدرك مدى اقتراب العصابات الوحشية وشركات إنتاج الأسلحة الخاصة التي تمكنت من تسليح سيارة جوجل ذاتية القيادة، من إضافة بندقية لذلك النوع من الطوافات، وبرمجتها لقتل الناس في الأماكن المزدحمة.
هذا بالتحديد هو الخطر المباشر لأسلحة الذكاء الاصطناعي؛ إذ يمكن تحويلها بسهولة لآلات قتل عشوائي أكثر خطورة من أي سلاح مماثل يحمله أو يوجهه إنسان.
محاولات حظرها
وقع كل من ستيفن هوكينغ وماكس تاجمارك وإيلون موسك وغيرهم عريضة مؤسسة “فيوتشر أوف لايف”، لحظر استخدام أسلحة الذكاء الاصطناعي، وهي مؤسسة بحثية قائمة على التطوع، تهدف إلى تخفيف حدة الأخطار التي تهدد مستقبل البشرية، وبالأخص التهديد الذي يمثله الذكاء الاصطناعي وأسلحته. وقد تلقت المؤسسة تبرع بلغت قيمته 10 مليون دولار من السيد موسك في يناير/ كانون الثاني الماضي. وفي أعقاب ذلك، عقدت الأمم المتحدة اجتماعًا تحت عنوان “الروبوتات القاتلة” في أبريل. إلا أنه لم يؤت ثماره، إذ لم يؤد إلى أية قرارات سياسية إستراتيجية دائمة. يؤكد الخطاب الذي صاحب العريضة على أن خطر أسلحة الذكاء الاصطناعي مباشر ووشيك، مما يتطلب التحرك السريع لتجنب حدوث كوارث في غضون السنوات القليلة المقبلة. لكن، للأسف لم توضح العريضة أي نوع من أسلحة الذكاء الاصطناعي هي التي تلوح بالخطر في الأفق القريب.
وقد أعرب الكثيرون عن تخوفاتهم من نهاية للعالم كارثية مروعة، كما في سيناريوهات سلسلة أفلام تيرميناتور Terminator، حيث تطور الروبوتات مقدرة شبيهة بمقدرة البشر على التفاعل مع العالم المحيط بنفسها، بشكل كامل ذاتي، وبالتالي ستحاول غزو العالم والسيطرة عليه. فعلى سبيل المثال، حذر سير مارتن ريس – عالم فيزياء ورائد فضاء- في محادثته على موقع تيد من السيناريوهات المروعة لتطور الربوتات قائلًا: “روبوتات غبية تصبح شريرة، شبكة تُطوِّرعقلها بنفسها ذاتيًّا”. وأعرب الفيلسوف هيو برايس – زميله في جامعة كامبريدج- عن نفس المخاوف في مقاله على موقع ذا نيويورك تايمز، وأن البشرية قد لا تنجو إذا ما تخطى الذكاء الاصطناعي القيود البيولوجية. وبالتعاون معًا، أسس سير ريس وزميله هيو برايس، مركز دارسة المخاوف الوجودية “Centre for the Study of Existential Risk” التابع لجامعة كامبريدج، للمساعدة في تجنب تلك التهديدات المثيرة الكارثية للوجود البشري.
أين نحن من ذكاء اصطناعي كهذا؟
بالتأكيد تستحق تلك السيناريوهات الدراسة، إلا أنها تظل أقل قبولاً ومعقولية، ولا سيما أقل إلحاحًا بكثير من الخطر الوشيك الذي تمثله أسلحة الذكاء الاصطناعي الآن.
والسؤال المطروح الآن هو “أين نحن من تطوير ذكاء اصطناعي يشبه الإنسان الآن؟”. حسب كل المعايير، الإجابة هي أننا لسنا قريبين من تحقيق ذلك. فعلى سبيل المثال، وصفت مؤخرًا وسائل الإعلام المختلفة برنامج جامعة ريدينغ المسمى ب “يوجين غوستمان”، وهو ذكاء اصطناعي حاسوبي يقوم بإجراء محادثات عبر الإنترنت كطفل أوكراني عمره 13 سنة، بأنه غاية في الذكاء، إذ تمكن من خداع بعض الناس، وإيهامهم بأنه طفل حقيقي. وذلك على الرغم من أنه بعيد كل البعد عن كونه ذكاء اصطناعيًّا يشبه الإنسان حقيقةً. وقد أثبت ذلك عالم الكمبيوتر سكوت أرونسون، إذ دحض البرنامج كليةً من خلال حوار أجراه مع يوجين، بداية بطرح سؤال بديهي عليه: “أيهما أكبر صندوق أحذية ، أم جبل إيفرست؟”، فعجز البرنامج عن الإجابة، ثم أعقبه بسؤال: “كم عدد أرجل الجمل؟”، فتعثر البرنامج في الإجابة عليه أيضًا؛ ليتعرى البرنامج ويُفضح بأنه لا يشبه الذكاء البشري على الإطلاق.
وعلى الرغم من كل ما سبق، وقَّعنا نحن – كاتبا هذا المقال- على عريضة حظر استخدام أسلحة الذكاء الاصطناعي، والسبب في ذلك، أنه بخلاف شبكات الحاسوب ذات الوعي الذاتي الاصطناعي، أصبحت السيارات ذاتية القيادة المرفق بها رشاشات ممكنة التصنيع الآن. فالخطر الذي تمثله أسلحة الذكاء الاصطناعي لا يتمثل في كونها على وشك السيطرة على العالم، بل المشكله الأساسية تتمثل في سهولة وبساطة إعادة برمجتها بطريقة تمكِّن أي شخص من خلق آلة قتل عشوائية عالية الكفاءة وبتكلفة ذهيدة بشكل لا يصدق. فالآلات في حد ذاتها ليست مخيفة، وإنما ما يمكن أن يفعله أي قرصان كمبيوتر أو مخترق شبكات بتلك الآلات، وبميزانية زَهِيدة نسبيًّا.
تخيل مثلًا صعود أحد الطواغيت المستبدين الراغبين في تدمير المعارضة، وهو مسلح بقاعدة بيانات تضم الانتماءات السياسية لجميع المعارضين وعناوينهم وصورهم. فيما مضى، مثل ذلك الطاغية كان سيحتاج جيشًا من الجنود لإنجاز المهمة، وربما يفشل الجنود في ذلك، لأنه من السهل أن يخدع هؤلاء الجنود أو تتم رشوتهم أو يفقدون رباطة جأشهم فيطلقون النار على الأشخاص غير المستهدفين من الأساس.
لكن يختلف الحال مع طواغيت المستقبل، إذ سيتمكنون من مجرد شراء بضعة آلاف من الطائرات بدون طيار المزودة برشاشات. وبفضل قانون مور، ابتكره غوردون مور أحد مؤسسي شركة إنتل، والذي يوصِّف الزيادة الهائلة في القدرة الحاسوبية للدولار الواحد منذ اختراع الترانزيستور، تنخفض تكلفة طائرة الذكاء الاصطناعي بدون طيار، وبالتالي ستصبح في متناول الأيدي مثلها مثل سهولة ورخص تكلفة البنادق من نوع كلاشنكوف اليوم. إذ يصير بإمكان بضعة مهندسين برمجيات إعادة برمجة الطائرات بدون طيار لتقوم بدوريات قرب منازل وأماكن عمل المنشقين والمعارضين للأنظمة، فتقتلهم في الحال. مثل تلك الطائرات أقل عرضة لارتكاب الأخطاء كما هو الحال مع جنود البشر، ولا يمكنها التأثر بالرشوة أو حتى التأثر عاطفيًّا أيًّا كان موقف القتل، ولعل الأهم من ذلك كله هو كفاءتها التي تفوق قدرة الجنود من بني الإنسان. وبالتالي، يصبح بإمكان أي طاغية سحق المعارضين له، ومحوهم من على وجه الأرض، قبل حتى أن يستجيب المجتمع الدولي، ويتخذ إجراءات بشأنه.
ونظرًا للفعالية الهائلة التي أحدثها التشغيل الآلي، ستزلل أسلحة الذكاء الاصطناعي العقبات أمام كل مختل يسعى لارتكاب مثل تلك الأفعال الوحشية. فما كان ذات مرة اختصاص حصري للطواغيت في السيطرة على جيوش بأكملها، سيصير في متناول الأفراد متوسطي الثراء.
ربما تدعي الحكومات والمصنعون المهتمون بتطوير مثل تلك الأسلحة، أن بإمكانها هندسة وتصنيع ضمانات مناسبة للتأكيد من استحالة إعادة برمجتها أو اختراقها؛ لكن يجب أن تقابَل تلك الادعاءات بالتشكيك. إذ تعرضت ماكينات التصويت الإلكترونية، وماكينات الصراف الآلي، ومشغلات بلوراي، وحتى السيارات المسرعة على الطرق السريعة للاختراق مؤخرًا، على الرغم من درجة تأمينهم العالية التي يتم الإعلان عنها. فقد برهن التاريخ على أنه في نهاية المطاف حتمًا ستتعرض الحواسيب للقرصنة، ولمحاولات إعادة برمجتها وتطويعها من قبل قراصنة مدفوعين لذلك. ومن المستبعد استثناء أسلحة الذكاء الاصطناعي في ذلك.
هل يرقى خطرها لخطر الأسلحة المحرمة دوليًّا؟
منذ عام 1925، حظرت المعاهدات الدولية استخدام الأسلحة البيولوجية والكيميائية في الحروب، وتم حظر استخدام رصاص دوم دوم أو الرصاص المتفجر قبل ذلك في عام 1899، إذ تخلق تلك الأنواع من الأسلحة معاناة شديدة دون داعٍ. فهي بالأخص تهدف لسقوط ضحايا مدنيين مثل استنشاق الناس للغاز السام أو إصابة الأطباء أثناء محاولة انتزاع الرصاص المتفجر من الضحية. فقد حظرت جميع تلك الأسلحة لأنها تخلق معاناة وقتلًا عشوائيًّا بين المدنيين.
“هل توجد فئة معينة من أسلحة الذكاء الاصطناعي التي تستحق نفس القدر من الحظر؟” بالتأكيد، وبما لا يترك مجالًا للشك، نعم. فإذا كان بالإمكان تحويل أي ماكينة ذكاء اصطناعي بسهولة وبتكلفة زهيدة، لآلة قتل جماعي وعشوائي فعالة، إذًا لا بد من عقد اتفاق دولي ضدها. فتلك الآلات لا تختلف كثيرًا عن المعادن المشعة، حيث يمكن استخدامها هي الأخرى لأغراض وجيهة، لكن ينبغي علينا السيطرة عليها بعناية حيث يمكن تحويلها بسهولة لأسلحة مدمرة فتاكة. فالفرق هنا هو أن تطويع ماكينات الذكاء الاصطناعي وإعادة برمجتها يفوق في سهولته تطويع مفاعل نووي.
ينبغي علينا حظر استخدام أسلحة الذكاء الاصطناعي ليس لكونها غير أخلاقية، بل لأن البشر بالتأكيد سيحولونها لوحوش بشعة متعطشة للدماء، وببساطة عن طريق التكويد واستخدام قراصنة الكمبيوتر المأجورين السهل العثور عليهم على شبكات الإنترنت. فشفرة بسيطة بإمكانها تحويل أكبر قدر ممكن من أسلحة الذكاء الاصطناعي، لآلات قتل قادرة على إحداث دمار وقتل، يتجاوز بكثير ما قد تخلفه أي من الأسلحة المحرمة، كالأسلحة الكيميائية والبيولوجية أو حتى الرصاص المتفجر.
يستدعي حظر أنواع معينة من الذكاء الاصطناعي صراعًا مع عدة تساؤلات فلسفية. هل سيتم حظر استخدام أسلحة الذكاء الاصطناعي على مبادرة الدفاع الإستراتيجي للولايات المتحدة الأمريكية، المعروفة شعبيًا باسم “حرب النجوم”؟ ولأنه من الممكن استخدام السيارات كأسلحة، هل ستحظر العريضة استخدام سيارة جوجل ذاتية القيادة؟ أو حتى ستحظر استخدام السيارات ذاتية القيادة الأخرى التي انتشرت في جميع أنحاء المملكة المتحدة؟ ما هو الحد الفاصل بين ما يعتبر ذكاءً وما يعتبر سلاحًا؟
تلك الأسئلة صعبة وهامة في نفس الوقت. لكن الإجابة عليها ليست ملحة بقدر وجوب توافقنا على صياغة اتفاقية للسيطرة على أسلحة الذكاء الاصطناعي. ينبغي على المجتمع الدولي النظر بجدية لحدود ما هو مقبول، وذلك من خلال توصيات العلماء والفلاسفة و مهندسي الكمبيوتر. بالفعل تحظر وزارة الدفاع الأمريكية الأسلحة المستقلة الذاتية التشغيل؛ وحان الوقت لتوسيع نطاق هذا الحظر، وتحسينه ليرقى إلى التطبيق على المستوى الدولي.
وبطبيعة الحال لن يتمكن أي حظر دولي من منع كامل لانتشار أسلحة الذكاء الاصطناعي. لكن ليس هذا عذرًا لإلغاء الحظر. فإذا اعتقدنا كمجتمعٍ بوجود ما يستوجب حظر استخدام الأسلحة الكيميائية، والبيولوجية، والرصاص المتفجر، إذًا يوجد هناك ما يحتم علينا حظر استخدام أسلحة الذكاء الاصناعي أيضًا.
لمشاهدة الفيديو أضغط هنا


انقر هنا لقراءة الخبر من مصدره.