المخاطر الأمنية المستحدثة

بسام البنمحمد
بسام البنمحمد
نشر في: آخر تحديث:
وضع القراءة
100% حجم الخط

استمع للمقال النص المسموع تلقائي ناتج عن نظام آلي

0:00
5 دقائق للقراءة

في ٢٦ سبتمبر ١٩٨٣ تصرف العسكري السوفيتي ستانيسلاف بيتروف المسؤول عن مركز قيادة التحذير المبكر للهجمات النووية في الدفاع الجوي بشكل يخالف الإجراءات الصارمة المتبعة والأوامر اللاحقة، ولكن لاحقا شكرا العالم لأنه بتصرفه المخالف أنقذ العالم من حرب كارثية كانت ستمحو نص سكان الدول المشاركة فيها.

ففي ذلك اليوم أصدر جهاز الرادار تنبيها يشير إلى أن أمريكا أطلقت صاروخا في اتجاه الاتحاد السوفيتي وثم تبعه إطلاق خمسة صواريخ أخرى أيضا في اتجاه السوفيت مما يوجب عليه اتخاذ قرار حالا بالرد لأن الصواريخ هذه إن سقطت على الأراضي السوفيتية لن يكون هناك أي وقت للرد نتيجة الدمار النووي الذي ستخلفه، ولكن بيتروف بحسه البشري وضع احتمال أن يكون هذا التنبيه ناتجا عن خلل تقني في أجهزة الرادار وتصرف على هذا الأساس بمخالفة صريحة للتعليمات العسكرية وكان لديه دقايق محدودة ليتخذ فيها هذا القرار المصيري وبالفعل قرر عدم الرد بإطلاق صواريخ نووية باتجاه الولايات المتحدة الأمريكية بترجيحه فرضية الخلل الفني التي أثبت لاحقا صحة فرضيته والتي أنقذت العالم من كارثة مدمرة.

كثر الحديث في الآونة الأخيرة عن إيجابيات وسلبيات الذكاء الاصطناعي على العديد من مناحي الحياة بما فيها التعليم والأضرار الأمنية والاجتماعية المحتملة بالذات بعد تدشين تطبيق Chat GPT وسهولة استخدامه للقيام بمهام البشر نيابة عنهم ودون تدخلهم.

ولكن هناك أيضا حديث أكثر خطورة تحاول بعض الدول والجهات التعامل معه قبل تفاقم أضراره وصعوبة السيطرة عليها لاحقا، وهو خطر توسع استخدامات الذكاء الاصطناعي في المجال العسكري، والخوف الأساسي هو من انعدام أي ضوابط أو قيود أو معايير لطبيعة وحدود هذا الاستخدام.

فهناك دول مثل أمريكا والصين تخصص ميزانيات ضخمة لتطوير إمكانياتها في الذكاء الاصطناعي سواء عبر تصنيع الاسلحة المتطورة او الطائرات والآلات ذاتية الاستخدام أو في برامج مثل الجندي الخارق super-soldier وهي برامج محاطة بدرجة كبيرة من السرية ولا نسمع عنها الا القليل مثل برنامج Tactical Assault Light Operator Suit الذي اعلن عنه بشكل مقتضب الرئيس الامريكي الاسبق باراك اوباما او البرامج الشبيهة في الصين التي تطرق لها رئيس المخابرات الوطنية الامريكية الاسبق جون راتكليف في مقال نشره في صحفية وول ستريت جورنال قبل خروجه للتقاعد بفترة بسيطه كنوع من التحذير الاستباقي لضرورة التعامل مع هذه الاخطار.

حيث كتب "اجرت الصين فعليا تجارب على بعض جنودها كمحاولة لتطوير جنود بقدرات بيولوجية فارقة القدرات. ولا يوجد لدى الصين اي حدود اخلاقية تحد من محاولاتها لامتلاك القوة" بحسب زعمه.

طبعا وجهة النظر الامريكية هي انها بعكس الصين تمتلك حدودا اخلاقية تمثل رادعا لها ضد التهور في تطوير مثل هذه البرامج، وهذه وجهة نظر لا يمكن بأي شكل من الاشكال الدفاع عنها لما لامريكا من تاريخ غير مريح في هذا الجانب، لذلك يمثل مثل هذا التطور ناقوس خطر بالنسبة لبقية دول العالم التي قد تجد نفسها امام نوع جديد من التحديات الامنية التي لا قدرة لهم على التعامل معها وبالذات اذا خرجت عن سيطرت الجميع بمن فيهم من انتجها.

مؤخرا، في شهر فبراير الماضي اجتمع في هولندا عدد من الدول بمن فيهم الولايات المتحدة الامريكية والصين، ولم تكن روسيا مدعوة، لبحث هذا المهدد تحديدا وكيفية وضع الاطر القانونية والدولية الرادعة لهم والكفيلة بمنع انفلاته وخروجه عن السيطرة. ولكن لم يكن لدى امريكا ولا الصين اي رغبة حقيقية في تقديم اي تنازلات الزامية تفرض عليهم قيود اخلاقية او قانونية تحد من امكانياتهم المستقبلية في عسكرة الذكاء الاصطناعي.

لذلك كانت مخرجات المؤتمر متواضعة جدا لم تتجاوز الاتفاق على "دعوة للعمل" بدون اي التزام قانوني ولا آلية تضمن تنفيذ ما يتم الاتفاق عليه، على الرغم من توقيع امريكا والصين بالاضافة لاكثر من ٦٠ دولة اخرى على دعوة العمل وامتناع عدد اخر من الدول التوقيع عليها بمن فيهم إسرائيل التي كانت حاضرة في المؤتمر.

لذلك تبقى العديد من الاسئلة الجادة بدون اجوبة وبدون تدخل مسؤول من المجتمع الدولي يمنع الانزلاق لواقع يستحيل التعامل معه ولكن يسهل تجنبه لو تصرفت الدول المعنية بمسؤولية حقيقية منذ الان، فكيف سيتعامل العالم على سبيل المثال مع طائرات حربية ومسيرات وجنود تتخذ قراراتها وتتصرف بشكل ذاتي وباعتماد كامل على الذكاء الاصطناعي لا على قرارات البشر؟ وكيف سيتعامل الذكاء الاصطناعي مع حادثة مثل التي واجهها بيتروف في ١٩٨٣؟ هل سيخشى جهاز الكتروني ذاتي العمل من حدوث كارثة بشرية بسبب خلل فني؟

اخيرا نحن لا ندعو لمنع تطوير برامج واستخدامات الذكاء الاصطناعي بل على العكس نرى اهميتها ودورها المهم في تقدم البشرية وصالحها لكن ندعوا لوضع الضوابط والحدود التي تحد من مخاطر هذه الاستخدامات، لكي لا تتطور بشكل سلبي يهدد امن واستقرار البشر كما حصل مع المسيرات التي اكثر من استخدامها باراك اوباما لاغتيال المقيدين على قوائم الارهاب الامريكية ومن ثم اصبحت تكنولوجيا تصنيع المسيرات متاحة في يد انظمة داعمة للارهاب وميليشيات متطرفة تستخدمها للاعتداء على سيادة الدولة والاضرار بمصالحها الاقتصادية والامنية وقتل المدنيين والابرياء.

تنويه: جميع المقالات المنشورة تمثل رأي كتابها فقط.
انضم إلى المحادثة
الأكثر قراءة مواضيع شائعة

تم اختيار مواضيع "العربية" الأكثر قراءة بناءً على إجمالي عدد المشاهدات اليومية. اقرأ المواضيع الأكثر شعبية كل يوم من هنا.

  • وضع القراءة
    100% حجم الخط