كواليس صادمة... كيف تعطلت صفقة تسليح الجيش السوداني في اللحظات الأخيرة؟    بالصورة.. الصحفي السوداني الشهير حسين خوجلي يستعيد بصره وسط سعادة أصدقائه ومتابعيه: (عودة البصر لصاحب البصيرة والوان وحمدا لله على السلامة أبو ملاذ)    الباشا طبيق : السيطرة على الكرمك تعيد تشكيل الخريطة العسكرية في السودان    تعديل وزاري مرتقب في السودان يشمل ست حقائب وزارية    11 دقيقة إضافية من النوم ليلا تساعد فى الوقاية من النوبات القلبية    13 حزمة لغوية جديدة لترجمة محادثات "واتساب"    سناب شات" يحوّل الصور إلى فيديو بالذكاء الاصطناعي    هل يكون محمد صلاح الصفقة الكبرى القادمة بالدوري الأمريكي بعد جريزمان؟    جلسة مع محمد صبحى في الزمالك.. اعرف السبب    استمرار محاولات الأهلي لإنهاء أزمة الشرط الجزائي مع توروب    يارا السكري تكشف لليوم السابع تفاصيل دورها فى فيلم صقر وكناريا    شاهد بالصورة.. فاتنة الإعلام السوداني تخطف الأضواء بأحدث إطلالة لها والجمهور يطيل الغزل في جمالها: (يا دووب كدة عيدنا)    باسم سمرة: الناس بقت تناديلى ب«زكى».. ونجاح عين سحرية توفيق من ربنا    ذكرى رحيل أحمد حلاوة.. ممثل جمع بين الهندسة والدكتوراه فى فلسفة الفنون    نصائح لوقاية مرضى حساسية الصدر من التقلبات الجوية والرياح    مشروبات تساعد على حرق الدهون بعد كحك العيد    اكتشاف مرض وراثي جديد يسبب الشيخوخة المبكرة والقصور الإدراكى    شاهد بالصور. الفنانة مروة الدولية تفاجئ الجميع وتعتزل الغناء وعازفها الشهير ينشر مراسلات واتساب بينهما أكدت فيها تمسكها بالقرار    بالصور.. مدارس أبو ذر الكودة تلزم أسرة طالب بدفع غرامة قدرها 100 ألف جنيه بسبب كسره مفتاح مروحة بالفصل ومتابعون يتصدون للدفاع عن المؤسسة    شاهد بالصورة والفيديو.. في تقليعة جديدة.. شباب سودانيون يلطخون صديقهم العريس ووزيره ب"ظهر الصابون" و"البودرة"    الهلال يواجه ضغط المباريات في رواندا    ((نار فلوران ولاجنة ريجيكامب؟؟))    جبريل يلتقي المبعوث الشخصي للأمين العام للأمم المتحدة إلى السودان    مهلة أخيرة للمخالفين: خيارات متعددة لمعالجة أوضاع التأشيرات المنتهية في السعودية    كيف تفاعل النجوم مع خبر رحيل صلاح عن ليفربول؟    ضبط 2800 قندول بنقو بالجزيرة في عملية نوعية لمكافحة التهريب    تعطيل الدراسة في الخرطوم    المريخ يكثف درجات إعداده ويتدرب بالصالة    النخبة بالخرطوم.. كيف؟    "تمبور" يكشف عن توجيهات صادرة جديدة    ترامب يصدر أوامره ويكشف تطورات مثيرة مع إيران    طهران ترد على تهديدات ترمب    هل مخالفة ترامب خلل في الكون؟!    هل تستطيع أمريكا احتلال جزيرة خارك الإيرانية؟    الأمن يداهم مخزن يبيع الوقود المهرب لعصابات التنقيب عن الذهب    تراجع معدّل التضخّم في السودان    بادي يصدر مرسوم تنظيم أعمال التعدين التقليدي وضبط آليات التعدين بالنيل الأزرق    رئيس الأهلي مدني وابنه يتعرضان لحادث مروع    المباحث تنهي مغامرات شبكة إجرامية متخصصة في الإحتيال علي أصحاب المحلات التجارية عن طريق اشعارات تطبيق بنكك المزيفة    شركة كهرباء السودان تحديث حول سير أعمال الصيانة الطارئة للشبكة القومية    توقّعات بارتفاع غير مسبوق في أسعار النفط    ضبط 238 كجم من "الآيس" وأسلحة بجانب نحاس بولاية البحر الاحمر    ضبط 238 كجم من "الآيس" وأسلحة بجانب نحاس بولاية البحر الاحمر    الشيخ بن زومة.. إلى جنة الخلد    أغلى علبة كعك في مصر تشعل مواقع التواصل    قيم الهلال المتوارثة يجب أن تبقى أبد الدهر    بنك السودان المركزي يصدر توجيهًا للمصارف    إبراهيم شقلاوي يكتب: الزراعة ما بعد اقتصاد الحرب    في زمن الضجيج.. القرآن بوصلة المعنى والسكينة    د.مزمل أبو القاسم يكتب: دموع الباز.. وزاهر! (2)    السودان.. الدفاع المدني يستعين ب"التوك توك"    طفح جلدي في رقبة الرئيس ترمب يثير تساؤلات حول صحته    ملتقي التحصين للعام 2025 ينعقد بحضور التحالف العالمي للقاحات والشركاء    صوت لا يغيب.. محمد رفعت ورحلة الآذان الخالد في رمضان    أجهزة الأمن السودانية تنهي مغامرات لص الصيدليات في عطبرة    شاهد بالفيديو.. الوطن يتعافى ويعود.. تزاحم مئات المصلين في صلاة التراويح بمسجد السيدة سنهوري بالخرطوم    شاهد بالفيديو.. الوطن يتعافى ويعود.. تزاحم مئات المصلين في صلاة التراويح بمسجد السيدة سنهوري بالخرطوم    السودان.. فكّ طلاسم"تبيدي للمجوهرات" في الخرطوم والتحقيقيات تفجّر مفاجأة    







شكرا على الإبلاغ!
سيتم حجب هذه الصورة تلقائيا عندما يتم الإبلاغ عنها من طرف عدة أشخاص.



بالفيديو .. الذكاء الاصطناعي مخيف، والبشر هم السبب الحقيقي لهذا
نشر في النيلين يوم 31 - 10 - 2016

ستطيع مهندسو البرمجيات أن يحولوا الأسلحة الذكية بسهولة بالغة إلى آلات قتل عشوائي.
للأسف، أثارت الضجة الأخيرة ضد أسلحة الذكاء الاصطناعي اللبس، إذ تمت شيطنة الروبوتات بادعاء أنها ستسيطر على العالم. وعلى المدى القريب، يعتبر هذا السيناريو غير منطقي بالمرة، فعلى العكس من الأسلحة التقليدية ذات التحكم البشري، تمثل أسلحة الذكاء الاصطناعي خطرًا حقيقيًّا، ويوجد سبب وجيه وراء حظرها.
لقد شهدنا بالفعل لمحة عن مستقبل الذكاء الاصطناعي من خلال سيارات جوجل ذاتية القيادة. تخيل لو سرقت إحدى العصابات الوحشية تلك السيارة، وقامت بتثبيت سلاح أعلاها، وأعادوا برمجتها لتطلق النار على الناس، فهذا بالتحديد هو سلاح ذكاء اصطناعي.
لم تفارق إمكانات تلك الأسلحة خيالات الحكومات، فقد شهدنا مؤخرًا إعلان البحرية الأمريكية عن خططها لتطوير أسلحة ذاتية التحكم، وكذلك إعلان حكومة كوريا الجنوبية عن تصنيع أسلحة ” Super aEgis II“، وإعلان الحكومة الروسية عن أسلحة “Platform-M” القتالية الآلية.
لكن ليست الحكومات هي الطرف الوحيد الذي يستطيع تصنيع أسلحة الذكاء الاصطناعي. على سبيل المثال، تخيل نجاح شركة جوبرو الأمريكية – المتخصصة في صناعة الكاميرات الرقمية- في تصنيع كوادكوبتر بدون طيار، وهي طوافة عمودية متعددة المراوح تستخدم أحيانًا في التجسس، والتي أصبح بإمكان أي شخص أن يشتريها. زد على ذلك، بساطة البرنامج المشغل الذي يسمح لتلك الطوافة بالطيران ذاتيًّا. حينها ستدرك مدى اقتراب العصابات الوحشية وشركات إنتاج الأسلحة الخاصة التي تمكنت من تسليح سيارة جوجل ذاتية القيادة، من إضافة بندقية لذلك النوع من الطوافات، وبرمجتها لقتل الناس في الأماكن المزدحمة.
هذا بالتحديد هو الخطر المباشر لأسلحة الذكاء الاصطناعي؛ إذ يمكن تحويلها بسهولة لآلات قتل عشوائي أكثر خطورة من أي سلاح مماثل يحمله أو يوجهه إنسان.
محاولات حظرها
وقع كل من ستيفن هوكينغ وماكس تاجمارك وإيلون موسك وغيرهم عريضة مؤسسة “فيوتشر أوف لايف”، لحظر استخدام أسلحة الذكاء الاصطناعي، وهي مؤسسة بحثية قائمة على التطوع، تهدف إلى تخفيف حدة الأخطار التي تهدد مستقبل البشرية، وبالأخص التهديد الذي يمثله الذكاء الاصطناعي وأسلحته. وقد تلقت المؤسسة تبرع بلغت قيمته 10 مليون دولار من السيد موسك في يناير/ كانون الثاني الماضي. وفي أعقاب ذلك، عقدت الأمم المتحدة اجتماعًا تحت عنوان “الروبوتات القاتلة” في أبريل. إلا أنه لم يؤت ثماره، إذ لم يؤد إلى أية قرارات سياسية إستراتيجية دائمة. يؤكد الخطاب الذي صاحب العريضة على أن خطر أسلحة الذكاء الاصطناعي مباشر ووشيك، مما يتطلب التحرك السريع لتجنب حدوث كوارث في غضون السنوات القليلة المقبلة. لكن، للأسف لم توضح العريضة أي نوع من أسلحة الذكاء الاصطناعي هي التي تلوح بالخطر في الأفق القريب.
وقد أعرب الكثيرون عن تخوفاتهم من نهاية للعالم كارثية مروعة، كما في سيناريوهات سلسلة أفلام تيرميناتور Terminator، حيث تطور الروبوتات مقدرة شبيهة بمقدرة البشر على التفاعل مع العالم المحيط بنفسها، بشكل كامل ذاتي، وبالتالي ستحاول غزو العالم والسيطرة عليه. فعلى سبيل المثال، حذر سير مارتن ريس – عالم فيزياء ورائد فضاء- في محادثته على موقع تيد من السيناريوهات المروعة لتطور الربوتات قائلًا: “روبوتات غبية تصبح شريرة، شبكة تُطوِّرعقلها بنفسها ذاتيًّا”. وأعرب الفيلسوف هيو برايس – زميله في جامعة كامبريدج- عن نفس المخاوف في مقاله على موقع ذا نيويورك تايمز، وأن البشرية قد لا تنجو إذا ما تخطى الذكاء الاصطناعي القيود البيولوجية. وبالتعاون معًا، أسس سير ريس وزميله هيو برايس، مركز دارسة المخاوف الوجودية “Centre for the Study of Existential Risk” التابع لجامعة كامبريدج، للمساعدة في تجنب تلك التهديدات المثيرة الكارثية للوجود البشري.
أين نحن من ذكاء اصطناعي كهذا؟
بالتأكيد تستحق تلك السيناريوهات الدراسة، إلا أنها تظل أقل قبولاً ومعقولية، ولا سيما أقل إلحاحًا بكثير من الخطر الوشيك الذي تمثله أسلحة الذكاء الاصطناعي الآن.
والسؤال المطروح الآن هو “أين نحن من تطوير ذكاء اصطناعي يشبه الإنسان الآن؟”. حسب كل المعايير، الإجابة هي أننا لسنا قريبين من تحقيق ذلك. فعلى سبيل المثال، وصفت مؤخرًا وسائل الإعلام المختلفة برنامج جامعة ريدينغ المسمى ب “يوجين غوستمان”، وهو ذكاء اصطناعي حاسوبي يقوم بإجراء محادثات عبر الإنترنت كطفل أوكراني عمره 13 سنة، بأنه غاية في الذكاء، إذ تمكن من خداع بعض الناس، وإيهامهم بأنه طفل حقيقي. وذلك على الرغم من أنه بعيد كل البعد عن كونه ذكاء اصطناعيًّا يشبه الإنسان حقيقةً. وقد أثبت ذلك عالم الكمبيوتر سكوت أرونسون، إذ دحض البرنامج كليةً من خلال حوار أجراه مع يوجين، بداية بطرح سؤال بديهي عليه: “أيهما أكبر صندوق أحذية ، أم جبل إيفرست؟”، فعجز البرنامج عن الإجابة، ثم أعقبه بسؤال: “كم عدد أرجل الجمل؟”، فتعثر البرنامج في الإجابة عليه أيضًا؛ ليتعرى البرنامج ويُفضح بأنه لا يشبه الذكاء البشري على الإطلاق.
وعلى الرغم من كل ما سبق، وقَّعنا نحن – كاتبا هذا المقال- على عريضة حظر استخدام أسلحة الذكاء الاصطناعي، والسبب في ذلك، أنه بخلاف شبكات الحاسوب ذات الوعي الذاتي الاصطناعي، أصبحت السيارات ذاتية القيادة المرفق بها رشاشات ممكنة التصنيع الآن. فالخطر الذي تمثله أسلحة الذكاء الاصطناعي لا يتمثل في كونها على وشك السيطرة على العالم، بل المشكله الأساسية تتمثل في سهولة وبساطة إعادة برمجتها بطريقة تمكِّن أي شخص من خلق آلة قتل عشوائية عالية الكفاءة وبتكلفة ذهيدة بشكل لا يصدق. فالآلات في حد ذاتها ليست مخيفة، وإنما ما يمكن أن يفعله أي قرصان كمبيوتر أو مخترق شبكات بتلك الآلات، وبميزانية زَهِيدة نسبيًّا.
تخيل مثلًا صعود أحد الطواغيت المستبدين الراغبين في تدمير المعارضة، وهو مسلح بقاعدة بيانات تضم الانتماءات السياسية لجميع المعارضين وعناوينهم وصورهم. فيما مضى، مثل ذلك الطاغية كان سيحتاج جيشًا من الجنود لإنجاز المهمة، وربما يفشل الجنود في ذلك، لأنه من السهل أن يخدع هؤلاء الجنود أو تتم رشوتهم أو يفقدون رباطة جأشهم فيطلقون النار على الأشخاص غير المستهدفين من الأساس.
لكن يختلف الحال مع طواغيت المستقبل، إذ سيتمكنون من مجرد شراء بضعة آلاف من الطائرات بدون طيار المزودة برشاشات. وبفضل قانون مور، ابتكره غوردون مور أحد مؤسسي شركة إنتل، والذي يوصِّف الزيادة الهائلة في القدرة الحاسوبية للدولار الواحد منذ اختراع الترانزيستور، تنخفض تكلفة طائرة الذكاء الاصطناعي بدون طيار، وبالتالي ستصبح في متناول الأيدي مثلها مثل سهولة ورخص تكلفة البنادق من نوع كلاشنكوف اليوم. إذ يصير بإمكان بضعة مهندسين برمجيات إعادة برمجة الطائرات بدون طيار لتقوم بدوريات قرب منازل وأماكن عمل المنشقين والمعارضين للأنظمة، فتقتلهم في الحال. مثل تلك الطائرات أقل عرضة لارتكاب الأخطاء كما هو الحال مع جنود البشر، ولا يمكنها التأثر بالرشوة أو حتى التأثر عاطفيًّا أيًّا كان موقف القتل، ولعل الأهم من ذلك كله هو كفاءتها التي تفوق قدرة الجنود من بني الإنسان. وبالتالي، يصبح بإمكان أي طاغية سحق المعارضين له، ومحوهم من على وجه الأرض، قبل حتى أن يستجيب المجتمع الدولي، ويتخذ إجراءات بشأنه.
ونظرًا للفعالية الهائلة التي أحدثها التشغيل الآلي، ستزلل أسلحة الذكاء الاصطناعي العقبات أمام كل مختل يسعى لارتكاب مثل تلك الأفعال الوحشية. فما كان ذات مرة اختصاص حصري للطواغيت في السيطرة على جيوش بأكملها، سيصير في متناول الأفراد متوسطي الثراء.
ربما تدعي الحكومات والمصنعون المهتمون بتطوير مثل تلك الأسلحة، أن بإمكانها هندسة وتصنيع ضمانات مناسبة للتأكيد من استحالة إعادة برمجتها أو اختراقها؛ لكن يجب أن تقابَل تلك الادعاءات بالتشكيك. إذ تعرضت ماكينات التصويت الإلكترونية، وماكينات الصراف الآلي، ومشغلات بلوراي، وحتى السيارات المسرعة على الطرق السريعة للاختراق مؤخرًا، على الرغم من درجة تأمينهم العالية التي يتم الإعلان عنها. فقد برهن التاريخ على أنه في نهاية المطاف حتمًا ستتعرض الحواسيب للقرصنة، ولمحاولات إعادة برمجتها وتطويعها من قبل قراصنة مدفوعين لذلك. ومن المستبعد استثناء أسلحة الذكاء الاصطناعي في ذلك.
هل يرقى خطرها لخطر الأسلحة المحرمة دوليًّا؟
منذ عام 1925، حظرت المعاهدات الدولية استخدام الأسلحة البيولوجية والكيميائية في الحروب، وتم حظر استخدام رصاص دوم دوم أو الرصاص المتفجر قبل ذلك في عام 1899، إذ تخلق تلك الأنواع من الأسلحة معاناة شديدة دون داعٍ. فهي بالأخص تهدف لسقوط ضحايا مدنيين مثل استنشاق الناس للغاز السام أو إصابة الأطباء أثناء محاولة انتزاع الرصاص المتفجر من الضحية. فقد حظرت جميع تلك الأسلحة لأنها تخلق معاناة وقتلًا عشوائيًّا بين المدنيين.
“هل توجد فئة معينة من أسلحة الذكاء الاصطناعي التي تستحق نفس القدر من الحظر؟” بالتأكيد، وبما لا يترك مجالًا للشك، نعم. فإذا كان بالإمكان تحويل أي ماكينة ذكاء اصطناعي بسهولة وبتكلفة زهيدة، لآلة قتل جماعي وعشوائي فعالة، إذًا لا بد من عقد اتفاق دولي ضدها. فتلك الآلات لا تختلف كثيرًا عن المعادن المشعة، حيث يمكن استخدامها هي الأخرى لأغراض وجيهة، لكن ينبغي علينا السيطرة عليها بعناية حيث يمكن تحويلها بسهولة لأسلحة مدمرة فتاكة. فالفرق هنا هو أن تطويع ماكينات الذكاء الاصطناعي وإعادة برمجتها يفوق في سهولته تطويع مفاعل نووي.
ينبغي علينا حظر استخدام أسلحة الذكاء الاصطناعي ليس لكونها غير أخلاقية، بل لأن البشر بالتأكيد سيحولونها لوحوش بشعة متعطشة للدماء، وببساطة عن طريق التكويد واستخدام قراصنة الكمبيوتر المأجورين السهل العثور عليهم على شبكات الإنترنت. فشفرة بسيطة بإمكانها تحويل أكبر قدر ممكن من أسلحة الذكاء الاصطناعي، لآلات قتل قادرة على إحداث دمار وقتل، يتجاوز بكثير ما قد تخلفه أي من الأسلحة المحرمة، كالأسلحة الكيميائية والبيولوجية أو حتى الرصاص المتفجر.
يستدعي حظر أنواع معينة من الذكاء الاصطناعي صراعًا مع عدة تساؤلات فلسفية. هل سيتم حظر استخدام أسلحة الذكاء الاصطناعي على مبادرة الدفاع الإستراتيجي للولايات المتحدة الأمريكية، المعروفة شعبيًا باسم “حرب النجوم”؟ ولأنه من الممكن استخدام السيارات كأسلحة، هل ستحظر العريضة استخدام سيارة جوجل ذاتية القيادة؟ أو حتى ستحظر استخدام السيارات ذاتية القيادة الأخرى التي انتشرت في جميع أنحاء المملكة المتحدة؟ ما هو الحد الفاصل بين ما يعتبر ذكاءً وما يعتبر سلاحًا؟
تلك الأسئلة صعبة وهامة في نفس الوقت. لكن الإجابة عليها ليست ملحة بقدر وجوب توافقنا على صياغة اتفاقية للسيطرة على أسلحة الذكاء الاصطناعي. ينبغي على المجتمع الدولي النظر بجدية لحدود ما هو مقبول، وذلك من خلال توصيات العلماء والفلاسفة و مهندسي الكمبيوتر. بالفعل تحظر وزارة الدفاع الأمريكية الأسلحة المستقلة الذاتية التشغيل؛ وحان الوقت لتوسيع نطاق هذا الحظر، وتحسينه ليرقى إلى التطبيق على المستوى الدولي.
وبطبيعة الحال لن يتمكن أي حظر دولي من منع كامل لانتشار أسلحة الذكاء الاصطناعي. لكن ليس هذا عذرًا لإلغاء الحظر. فإذا اعتقدنا كمجتمعٍ بوجود ما يستوجب حظر استخدام الأسلحة الكيميائية، والبيولوجية، والرصاص المتفجر، إذًا يوجد هناك ما يحتم علينا حظر استخدام أسلحة الذكاء الاصناعي أيضًا.
لمشاهدة الفيديو أضغط هنا


انقر هنا لقراءة الخبر من مصدره.