1. مواد پر جائیں
  2. مینیو پر جائیں
  3. ڈی ڈبلیو کی مزید سائٹس دیکھیں

مصنوعی ذہانت کا فوجی استعمال، امریکی فوج نے قواعد بنا لیے

25 فروری 2020

امریکی فوج کی طرف سے بنائے گئے قواعد میں فوجیوں کی طرف سے مصنوعی ذہانت پر مبنی جنگی ساز وسامان کے استعمال میں ’’فیصلے کے لیے مناسب درجات اور احتیاط کا استعمال کریں گے۔‘‘

https://p.dw.com/p/3YO8X
US Marine testet neue Waffentechnologie
تصویر: Reuters/U.S. Marine Corps

تاہم بعض مبصرین نے یہ کہتے ہوئے ان ضوابط پر تحفظات کا اظہار کیا ہے کہ یہ 'قانون سازی کی بجائے اخلاقی قواعد و ضوابط سے کام چلانے کے منصوبے کا ایک حصہ ہے‘۔

امریکی محکمہ دفاع کی طرف سے پیر 24 فروری کو اعلان کیا گیا کہ اس نے جنگی حالات میں مصنوعی ذہانت کے استعمال کے لیے 'اخلاقی ضوابط‘ اختیار کر لیے ہیں۔

یہ اعلان ایک ایسے موقع پر سامنے آیا ہے جب امریکی فوج تنازعات یا جنگی حالات کے دوران مصنوعی ذہانت کے استعمال کی تیاری میں تیزی لانے کی امید کر رہی ہے۔

آرٹیفیشل انٹیلیجنس یا مصنوعی ذہانت روبوٹس، ڈرونز اور بغیر انسان سے چلنے والی گاڑیوں میں استعمال ہو رہی ہے جو میدان جنگ میں بعض اوقات اپنے طور پر فیصلے بھی کرتی ہے۔

قاتل روبوٹ کتنے خطرناک ہو سکتے ہیں؟

امریکی محکمہ دفاع کی طرف سے اختیار کیے جانے والے یہ اصول و ضوابط 15 ماہ تک جاری رہنے والی مشاورت کا نتیجہ ہیں جس میں ٹیکنالوجی کی بڑی کمپنیاں اور یونیورسٹیوں کے ماہرین بھی شامل تھے۔ یہ مشاورت ایرک شمٹ کی سربراہی میں ہوتی رہی جو گوگل کمپنی کے سابق ایگزیکٹیو چیئرمین ہیں۔

اخلاقی ضوابط ہیں کیا؟

امریکی محکمہ دفاع کی طرف سے اختیار کیے جانے والے نئے ضوابط کے مطابق لوگوں پر زور دیا گیا ہے کہ وہ جب مصنوعی ذہانت پر مشتمل نظام استعمال کریں تو وہ احتیاط سے کام لیں اور فیصلے کے لیے مناسب طریقہ ہائے کار کا استعمال کریں۔‘‘ ان ضوابط کے مطابق آرٹیفیشل انٹیلیجنس کا ''واضح اور طے شدہ استعمال‘ بھی ضروری ہے۔

مزید یہ کہ خودکار نظاموں کی طرف سے لیے گئے فیصلے ایسے ہونے چاہییں جن کا 'کھوج لگایا جا سکے‘ اور جو 'قابو میں رکھے‘ جا سکتے ہوں۔ اس کا مطلب ہے کہ فوج کے پاس یہ ''صلاحیت ہو گی کہ وہ ایسے خودکار نظاموں کو کارروائی کے دوران روک سکے گی اور انہیں بے اثر کر سکے گی جو غیر مطلوبہ عمل کا رویے کا اظہار کریں گے۔‘‘

انسانوں کی مانند ڈرائیونگ سیکھتی خودکار گاڑیاں

ان قواعد سے قبل امریکی فوج کے لیے صرف یہ لازمی تھا کہ آرٹیفیشل انٹیلیجنس کی فیصلہ سازی میں انسانی عمل دخل موجود رہنا چاہیے۔ اس طریقہ کار کو 'ہیومن ان دا لُوپ‘ کا نام دیا جاتا ہے۔

'ایتھکس واشنگ پراجیکٹ‘

تاہم ہر کوئی اس بات پر یقین نہیں رکھتا کہ یہ قواعد اسی طرح کام کریں گے جیسا ان میں بتایا گیا ہے۔

برطانیہ کی لنکاسٹر یونیورسٹی میں سائنس اینڈ ٹیکنالوجی میں علم بشریات کے پروفیسر، ''مجھے خوف ہے کہ یہ قواعد قانون بنانے کی بجائے محض ضوابط سے کام چلانے کے پراجیکٹ کا حصہ ہیں۔‘‘

دیگر مبصرین کا تاہم یہ خیال ہے کہ ان قواعد کا مقصد امریکی ٹیکنالوجی کی صنعت کے اعتماد میں اضافہ کرنا ہے۔

ا ب ا / ع ا (اے پی، اے ایف پی)