ذكاء اصطناعي

"مايكروسوفت" تحذر من إمكانية استخدام الذكاء الاصطناعي كسلاح!

"من الضروري أن يظل خاضعًا للسيطرة البشرية"

نشر في: آخر تحديث:
وضع القراءة
100% حجم الخط

استمع للمقال النص المسموع تلقائي ناتج عن نظام آلي

0:00
1 دقيقة للقراءة

قال رئيس شركة "مايكروسوفت" ونائب رئيس مجلس الإدارة براد سميث، إن الذكاء الاصطناعي يمكن استخدامه كسلاح.

وأضاف سميث، في مقابلة مع شبكة "CNBC" الأميركية"، اطلعت عليها "العربية.نت": "أعتقد أن كل تقنية تم اختراعها لديها القدرة على أن تصبح أداة وسلاحًا في نفس الوقت".

"علينا أن نضمن أن يظل الذكاء الاصطناعي خاضعًا للسيطرة البشرية. سواء كانت حكومة أو جيش أو أي نوع من المنظمات، التي تفكر في استخدام الذكاء الاصطناعي لأتمتة البنية التحتية الحيوية، على سبيل المثال، نحتاج إلى التأكد من أن لدينا بشرًا يتحكمون، وأننا نستطيع إبطاء الأمور أو إيقاف تشغيلها".

يحذر قادة التكنولوجيا في جميع أنحاء العالم من مخاطر الذكاء الاصطناعي بعد أن حقق برنامج "ChatGPT" الذي يعمل بالذكاء الاصطناعي شعبية كبيرة.

وحذر الرئيس التنفيذي لشركة "OpenAI" المالكة لـ "ChatGPT"، سام ألتمان، إلى جانب المديرين التنفيذيين من شركة "DeepMind" التابعة لشركة "Google" وأيضا من شركة "Microsoft"، في شهر مايو، من أن الذكاء الاصطناعي يشكل خطر انقراض الإنسان على قدم المساواة مع الحرب النووية وشددوا على الحاجة إلى التخفيف من تلك المخاطر.

كما حث الرئيس التنفيذي لشركة "Tesla" إيلون ماسك والمؤسس المشارك لشركة "Apple" ستيف وزنياك والعديد من قادة التكنولوجيا مختبرات الذكاء الاصطناعي على إيقاف أنظمة التدريب لتجاوز "GPT-4"، وهو أحدث نموذج لغوي كبير من "OpenAI".

انضم إلى المحادثة
الأكثر قراءة مواضيع شائعة

الأكثر قراءة