عبد الله حمدوك.. متلازمة الفشل والعمالة ..!!    بريطانيا .. (سيدى بى سيدو)    كريستيانو يقود النصر لمواجهة الهلال في نهائي الكأس    المربخ يتعادل في أولى تجاربه الإعدادية بالاسماعيلية    شهود عيان يؤكدون عبور مئات السيارات للعاصمة أنجمينا قادمة من الكاميرون ومتجهة نحو غرب دارفور – فيديو    الغرب "يضغط" على الإمارات واحتمال فرض عقوبات عليها    دورتموند يسقط باريس بهدف فولكروج.. ويؤجل الحسم لحديقة الأمراء    وزارة الخارجية تنعي السفير عثمان درار    العقاد والمسيح والحب    واشنطن: دول في المنطقة تحاول صب الزيت على النار في السودان    شاهد بالفيديو.. حسناء السوشيال ميديا السودانية "لوشي" تغني أغنية الفنان محمد حماقي و "اللوايشة" يتغزلون فيها ويشبهونها بالممثلة المصرية ياسمين عبد العزيز    شاهد بالصور.. المودل والممثلة السودانية الحسناء هديل إسماعيل تشعل مواقع التواصل بإطلالة مثيرة بأزياء قوات العمل الخاص    شاهد بالصورة والفيديو.. نجم "التيك توك" السوداني وأحد مناصري قوات الدعم السريع نادر الهلباوي يخطف الأضواء بمقطع مثير مع حسناء "هندية" فائقة الجمال    شاهد بالفيديو.. الناشط السوداني الشهير "الشكري": (كنت بحب واحدة قريبتنا تشبه لوشي لمن كانت سمحة لكن شميتها وكرهتها بسبب هذا الموقف)    محمد وداعة يكتب: الروس .. فى السودان    مؤسس باينانس.. الملياردير «سي زي» يدخل التاريخ من بوابة السجن الأمريكي    «الذكاء الاصطناعي» بصياغة أمريكية إماراتية!    الموارد المعدنية وحكومة سنار تبحثان استخراج المعادن بالولاية    طبيب مصري يحسم الجدل ويكشف السبب الحقيقي لوفاة الرئيس المخلوع محمد مرسي    "الجنائية الدولية" و"العدل الدولية".. ما الفرق بين المحكمتين؟    السودان..اعتقال"آدم إسحق"    فلوران لم يخلق من فسيخ النهضة شربات    رئيس نادي المريخ : وقوفنا خلف القوات المسلحة وقائدها أمر طبيعي وواجب وطني    لأول مرة منذ 10 أعوام.. اجتماع لجنة التعاون الاقتصادي بين الإمارات وإيران    فينيسيوس يقود ريال مدريد لتعادل ثمين أمام البايرن    دولة إفريقية تصدر "أحدث عملة في العالم"    والي الخرطوم يدشن استئناف البنك الزراعي    أول حكم على ترامب في قضية "الممثلة الإباحية"    بعد اتهام أطباء بوفاته.. تقرير طبي يفجر مفاجأة عن مارادونا    تعويضاً لرجل سبّته امرأة.. 2000 درهم    الحراك الطلابي الأمريكي    سعر الدرهم الإماراتي مقابل الجنيه السوداني ليوم الثلاثاء    أنشيلوتي: لا للانتقام.. وهذا رأيي في توخيل    بعد فضيحة وفيات لقاح أسترازينيكا الصادمة..الصحة المصرية تدخل على الخط بتصريحات رسمية    راشد عبد الرحيم: يا عابد الحرمين    تعلية خزان الرصيرص 2013م وإسقاط الإنقاذ 2019م وإخلاء وتهجير شعب الجزيرة 2024م    شاهد بالفيديو.. الفنانة ندى القلعة تواصل دعمها للجيش وتحمس الجنود بأغنية جديدة (أمن يا جن) وجمهورها يشيد ويتغزل: (سيدة الغناء ومطربة الوطن الأولى بدون منازع)    سرقة أمتعة عضو في «الكونجرس»    شاهد بالصورة.. بعد أن احتلت أغنية "وليد من الشكرية" المركز 35 ضمن أفضل 50 أغنية عربية.. بوادر خلاف بين الفنانة إيمان الشريف والشاعر أحمد كوستي بسبب تعمد الأخير تجاهل المطربة    بيان جديد لشركة كهرباء السودان    أمس حبيت راسك!    دخول أول مركز لغسيل الكلي للخدمة بمحلية دلقو    شركة توزيع الكهرباء في السودان تصدر بيانا    تصريحات جديدة لمسؤول سوداني بشأن النفط    دخول الجنّة: بالعمل أم برحمة الله؟    الملك سلمان يغادر المستشفى    عملية عسكرية ومقتل 30 عنصرًا من"الشباب" في"غلمدغ"    جريمة مروّعة تهزّ السودانيين والمصريين    بالصور.. مباحث عطبرة تداهم منزل أحد أخطر معتادي الإجرام وتلقي عليه القبض بعد مقاومة وتضبط بحوزته مسروقات وكمية كبيرة من مخدر الآيس    لمستخدمي فأرة الكمبيوتر لساعات طويلة.. انتبهوا لمتلازمة النفق الرسغي    مضي عام ياوطن الا يوجد صوت عقل!!!    إصابة 6 في إنقلاب ملاكي على طريق أسوان الصحراوي الغربي    مدير شرطة ولاية شمال كردفان يقدم المعايدة لمنسوبي القسم الشمالي بالابيض ويقف علي الانجاز الجنائي الكبير    الطيب عبد الماجد يكتب: عيد سعيد ..    بعد نجاحه.. هل يصبح مسلسل "الحشاشين" فيلمًا سينمائيًّا؟    السلطات في السودان تعلن القبض على متهم الكويت    «أطباء بلا حدود» تعلن نفاد اللقاحات من جنوب دارفور    دراسة: القهوة تقلل من عودة سرطان الأمعاء    







شكرا على الإبلاغ!
سيتم حجب هذه الصورة تلقائيا عندما يتم الإبلاغ عنها من طرف عدة أشخاص.



بالفيديو .. الذكاء الاصطناعي مخيف، والبشر هم السبب الحقيقي لهذا
نشر في النيلين يوم 31 - 10 - 2016

ستطيع مهندسو البرمجيات أن يحولوا الأسلحة الذكية بسهولة بالغة إلى آلات قتل عشوائي.
للأسف، أثارت الضجة الأخيرة ضد أسلحة الذكاء الاصطناعي اللبس، إذ تمت شيطنة الروبوتات بادعاء أنها ستسيطر على العالم. وعلى المدى القريب، يعتبر هذا السيناريو غير منطقي بالمرة، فعلى العكس من الأسلحة التقليدية ذات التحكم البشري، تمثل أسلحة الذكاء الاصطناعي خطرًا حقيقيًّا، ويوجد سبب وجيه وراء حظرها.
لقد شهدنا بالفعل لمحة عن مستقبل الذكاء الاصطناعي من خلال سيارات جوجل ذاتية القيادة. تخيل لو سرقت إحدى العصابات الوحشية تلك السيارة، وقامت بتثبيت سلاح أعلاها، وأعادوا برمجتها لتطلق النار على الناس، فهذا بالتحديد هو سلاح ذكاء اصطناعي.
لم تفارق إمكانات تلك الأسلحة خيالات الحكومات، فقد شهدنا مؤخرًا إعلان البحرية الأمريكية عن خططها لتطوير أسلحة ذاتية التحكم، وكذلك إعلان حكومة كوريا الجنوبية عن تصنيع أسلحة ” Super aEgis II“، وإعلان الحكومة الروسية عن أسلحة “Platform-M” القتالية الآلية.
لكن ليست الحكومات هي الطرف الوحيد الذي يستطيع تصنيع أسلحة الذكاء الاصطناعي. على سبيل المثال، تخيل نجاح شركة جوبرو الأمريكية – المتخصصة في صناعة الكاميرات الرقمية- في تصنيع كوادكوبتر بدون طيار، وهي طوافة عمودية متعددة المراوح تستخدم أحيانًا في التجسس، والتي أصبح بإمكان أي شخص أن يشتريها. زد على ذلك، بساطة البرنامج المشغل الذي يسمح لتلك الطوافة بالطيران ذاتيًّا. حينها ستدرك مدى اقتراب العصابات الوحشية وشركات إنتاج الأسلحة الخاصة التي تمكنت من تسليح سيارة جوجل ذاتية القيادة، من إضافة بندقية لذلك النوع من الطوافات، وبرمجتها لقتل الناس في الأماكن المزدحمة.
هذا بالتحديد هو الخطر المباشر لأسلحة الذكاء الاصطناعي؛ إذ يمكن تحويلها بسهولة لآلات قتل عشوائي أكثر خطورة من أي سلاح مماثل يحمله أو يوجهه إنسان.
محاولات حظرها
وقع كل من ستيفن هوكينغ وماكس تاجمارك وإيلون موسك وغيرهم عريضة مؤسسة “فيوتشر أوف لايف”، لحظر استخدام أسلحة الذكاء الاصطناعي، وهي مؤسسة بحثية قائمة على التطوع، تهدف إلى تخفيف حدة الأخطار التي تهدد مستقبل البشرية، وبالأخص التهديد الذي يمثله الذكاء الاصطناعي وأسلحته. وقد تلقت المؤسسة تبرع بلغت قيمته 10 مليون دولار من السيد موسك في يناير/ كانون الثاني الماضي. وفي أعقاب ذلك، عقدت الأمم المتحدة اجتماعًا تحت عنوان “الروبوتات القاتلة” في أبريل. إلا أنه لم يؤت ثماره، إذ لم يؤد إلى أية قرارات سياسية إستراتيجية دائمة. يؤكد الخطاب الذي صاحب العريضة على أن خطر أسلحة الذكاء الاصطناعي مباشر ووشيك، مما يتطلب التحرك السريع لتجنب حدوث كوارث في غضون السنوات القليلة المقبلة. لكن، للأسف لم توضح العريضة أي نوع من أسلحة الذكاء الاصطناعي هي التي تلوح بالخطر في الأفق القريب.
وقد أعرب الكثيرون عن تخوفاتهم من نهاية للعالم كارثية مروعة، كما في سيناريوهات سلسلة أفلام تيرميناتور Terminator، حيث تطور الروبوتات مقدرة شبيهة بمقدرة البشر على التفاعل مع العالم المحيط بنفسها، بشكل كامل ذاتي، وبالتالي ستحاول غزو العالم والسيطرة عليه. فعلى سبيل المثال، حذر سير مارتن ريس – عالم فيزياء ورائد فضاء- في محادثته على موقع تيد من السيناريوهات المروعة لتطور الربوتات قائلًا: “روبوتات غبية تصبح شريرة، شبكة تُطوِّرعقلها بنفسها ذاتيًّا”. وأعرب الفيلسوف هيو برايس – زميله في جامعة كامبريدج- عن نفس المخاوف في مقاله على موقع ذا نيويورك تايمز، وأن البشرية قد لا تنجو إذا ما تخطى الذكاء الاصطناعي القيود البيولوجية. وبالتعاون معًا، أسس سير ريس وزميله هيو برايس، مركز دارسة المخاوف الوجودية “Centre for the Study of Existential Risk” التابع لجامعة كامبريدج، للمساعدة في تجنب تلك التهديدات المثيرة الكارثية للوجود البشري.
أين نحن من ذكاء اصطناعي كهذا؟
بالتأكيد تستحق تلك السيناريوهات الدراسة، إلا أنها تظل أقل قبولاً ومعقولية، ولا سيما أقل إلحاحًا بكثير من الخطر الوشيك الذي تمثله أسلحة الذكاء الاصطناعي الآن.
والسؤال المطروح الآن هو “أين نحن من تطوير ذكاء اصطناعي يشبه الإنسان الآن؟”. حسب كل المعايير، الإجابة هي أننا لسنا قريبين من تحقيق ذلك. فعلى سبيل المثال، وصفت مؤخرًا وسائل الإعلام المختلفة برنامج جامعة ريدينغ المسمى ب “يوجين غوستمان”، وهو ذكاء اصطناعي حاسوبي يقوم بإجراء محادثات عبر الإنترنت كطفل أوكراني عمره 13 سنة، بأنه غاية في الذكاء، إذ تمكن من خداع بعض الناس، وإيهامهم بأنه طفل حقيقي. وذلك على الرغم من أنه بعيد كل البعد عن كونه ذكاء اصطناعيًّا يشبه الإنسان حقيقةً. وقد أثبت ذلك عالم الكمبيوتر سكوت أرونسون، إذ دحض البرنامج كليةً من خلال حوار أجراه مع يوجين، بداية بطرح سؤال بديهي عليه: “أيهما أكبر صندوق أحذية ، أم جبل إيفرست؟”، فعجز البرنامج عن الإجابة، ثم أعقبه بسؤال: “كم عدد أرجل الجمل؟”، فتعثر البرنامج في الإجابة عليه أيضًا؛ ليتعرى البرنامج ويُفضح بأنه لا يشبه الذكاء البشري على الإطلاق.
وعلى الرغم من كل ما سبق، وقَّعنا نحن – كاتبا هذا المقال- على عريضة حظر استخدام أسلحة الذكاء الاصطناعي، والسبب في ذلك، أنه بخلاف شبكات الحاسوب ذات الوعي الذاتي الاصطناعي، أصبحت السيارات ذاتية القيادة المرفق بها رشاشات ممكنة التصنيع الآن. فالخطر الذي تمثله أسلحة الذكاء الاصطناعي لا يتمثل في كونها على وشك السيطرة على العالم، بل المشكله الأساسية تتمثل في سهولة وبساطة إعادة برمجتها بطريقة تمكِّن أي شخص من خلق آلة قتل عشوائية عالية الكفاءة وبتكلفة ذهيدة بشكل لا يصدق. فالآلات في حد ذاتها ليست مخيفة، وإنما ما يمكن أن يفعله أي قرصان كمبيوتر أو مخترق شبكات بتلك الآلات، وبميزانية زَهِيدة نسبيًّا.
تخيل مثلًا صعود أحد الطواغيت المستبدين الراغبين في تدمير المعارضة، وهو مسلح بقاعدة بيانات تضم الانتماءات السياسية لجميع المعارضين وعناوينهم وصورهم. فيما مضى، مثل ذلك الطاغية كان سيحتاج جيشًا من الجنود لإنجاز المهمة، وربما يفشل الجنود في ذلك، لأنه من السهل أن يخدع هؤلاء الجنود أو تتم رشوتهم أو يفقدون رباطة جأشهم فيطلقون النار على الأشخاص غير المستهدفين من الأساس.
لكن يختلف الحال مع طواغيت المستقبل، إذ سيتمكنون من مجرد شراء بضعة آلاف من الطائرات بدون طيار المزودة برشاشات. وبفضل قانون مور، ابتكره غوردون مور أحد مؤسسي شركة إنتل، والذي يوصِّف الزيادة الهائلة في القدرة الحاسوبية للدولار الواحد منذ اختراع الترانزيستور، تنخفض تكلفة طائرة الذكاء الاصطناعي بدون طيار، وبالتالي ستصبح في متناول الأيدي مثلها مثل سهولة ورخص تكلفة البنادق من نوع كلاشنكوف اليوم. إذ يصير بإمكان بضعة مهندسين برمجيات إعادة برمجة الطائرات بدون طيار لتقوم بدوريات قرب منازل وأماكن عمل المنشقين والمعارضين للأنظمة، فتقتلهم في الحال. مثل تلك الطائرات أقل عرضة لارتكاب الأخطاء كما هو الحال مع جنود البشر، ولا يمكنها التأثر بالرشوة أو حتى التأثر عاطفيًّا أيًّا كان موقف القتل، ولعل الأهم من ذلك كله هو كفاءتها التي تفوق قدرة الجنود من بني الإنسان. وبالتالي، يصبح بإمكان أي طاغية سحق المعارضين له، ومحوهم من على وجه الأرض، قبل حتى أن يستجيب المجتمع الدولي، ويتخذ إجراءات بشأنه.
ونظرًا للفعالية الهائلة التي أحدثها التشغيل الآلي، ستزلل أسلحة الذكاء الاصطناعي العقبات أمام كل مختل يسعى لارتكاب مثل تلك الأفعال الوحشية. فما كان ذات مرة اختصاص حصري للطواغيت في السيطرة على جيوش بأكملها، سيصير في متناول الأفراد متوسطي الثراء.
ربما تدعي الحكومات والمصنعون المهتمون بتطوير مثل تلك الأسلحة، أن بإمكانها هندسة وتصنيع ضمانات مناسبة للتأكيد من استحالة إعادة برمجتها أو اختراقها؛ لكن يجب أن تقابَل تلك الادعاءات بالتشكيك. إذ تعرضت ماكينات التصويت الإلكترونية، وماكينات الصراف الآلي، ومشغلات بلوراي، وحتى السيارات المسرعة على الطرق السريعة للاختراق مؤخرًا، على الرغم من درجة تأمينهم العالية التي يتم الإعلان عنها. فقد برهن التاريخ على أنه في نهاية المطاف حتمًا ستتعرض الحواسيب للقرصنة، ولمحاولات إعادة برمجتها وتطويعها من قبل قراصنة مدفوعين لذلك. ومن المستبعد استثناء أسلحة الذكاء الاصطناعي في ذلك.
هل يرقى خطرها لخطر الأسلحة المحرمة دوليًّا؟
منذ عام 1925، حظرت المعاهدات الدولية استخدام الأسلحة البيولوجية والكيميائية في الحروب، وتم حظر استخدام رصاص دوم دوم أو الرصاص المتفجر قبل ذلك في عام 1899، إذ تخلق تلك الأنواع من الأسلحة معاناة شديدة دون داعٍ. فهي بالأخص تهدف لسقوط ضحايا مدنيين مثل استنشاق الناس للغاز السام أو إصابة الأطباء أثناء محاولة انتزاع الرصاص المتفجر من الضحية. فقد حظرت جميع تلك الأسلحة لأنها تخلق معاناة وقتلًا عشوائيًّا بين المدنيين.
“هل توجد فئة معينة من أسلحة الذكاء الاصطناعي التي تستحق نفس القدر من الحظر؟” بالتأكيد، وبما لا يترك مجالًا للشك، نعم. فإذا كان بالإمكان تحويل أي ماكينة ذكاء اصطناعي بسهولة وبتكلفة زهيدة، لآلة قتل جماعي وعشوائي فعالة، إذًا لا بد من عقد اتفاق دولي ضدها. فتلك الآلات لا تختلف كثيرًا عن المعادن المشعة، حيث يمكن استخدامها هي الأخرى لأغراض وجيهة، لكن ينبغي علينا السيطرة عليها بعناية حيث يمكن تحويلها بسهولة لأسلحة مدمرة فتاكة. فالفرق هنا هو أن تطويع ماكينات الذكاء الاصطناعي وإعادة برمجتها يفوق في سهولته تطويع مفاعل نووي.
ينبغي علينا حظر استخدام أسلحة الذكاء الاصطناعي ليس لكونها غير أخلاقية، بل لأن البشر بالتأكيد سيحولونها لوحوش بشعة متعطشة للدماء، وببساطة عن طريق التكويد واستخدام قراصنة الكمبيوتر المأجورين السهل العثور عليهم على شبكات الإنترنت. فشفرة بسيطة بإمكانها تحويل أكبر قدر ممكن من أسلحة الذكاء الاصطناعي، لآلات قتل قادرة على إحداث دمار وقتل، يتجاوز بكثير ما قد تخلفه أي من الأسلحة المحرمة، كالأسلحة الكيميائية والبيولوجية أو حتى الرصاص المتفجر.
يستدعي حظر أنواع معينة من الذكاء الاصطناعي صراعًا مع عدة تساؤلات فلسفية. هل سيتم حظر استخدام أسلحة الذكاء الاصطناعي على مبادرة الدفاع الإستراتيجي للولايات المتحدة الأمريكية، المعروفة شعبيًا باسم “حرب النجوم”؟ ولأنه من الممكن استخدام السيارات كأسلحة، هل ستحظر العريضة استخدام سيارة جوجل ذاتية القيادة؟ أو حتى ستحظر استخدام السيارات ذاتية القيادة الأخرى التي انتشرت في جميع أنحاء المملكة المتحدة؟ ما هو الحد الفاصل بين ما يعتبر ذكاءً وما يعتبر سلاحًا؟
تلك الأسئلة صعبة وهامة في نفس الوقت. لكن الإجابة عليها ليست ملحة بقدر وجوب توافقنا على صياغة اتفاقية للسيطرة على أسلحة الذكاء الاصطناعي. ينبغي على المجتمع الدولي النظر بجدية لحدود ما هو مقبول، وذلك من خلال توصيات العلماء والفلاسفة و مهندسي الكمبيوتر. بالفعل تحظر وزارة الدفاع الأمريكية الأسلحة المستقلة الذاتية التشغيل؛ وحان الوقت لتوسيع نطاق هذا الحظر، وتحسينه ليرقى إلى التطبيق على المستوى الدولي.
وبطبيعة الحال لن يتمكن أي حظر دولي من منع كامل لانتشار أسلحة الذكاء الاصطناعي. لكن ليس هذا عذرًا لإلغاء الحظر. فإذا اعتقدنا كمجتمعٍ بوجود ما يستوجب حظر استخدام الأسلحة الكيميائية، والبيولوجية، والرصاص المتفجر، إذًا يوجد هناك ما يحتم علينا حظر استخدام أسلحة الذكاء الاصناعي أيضًا.
لمشاهدة الفيديو أضغط هنا


انقر هنا لقراءة الخبر من مصدره.