"ميتا" تعسكر برمجيات الذكاء الاصطناعي

27 نوفمبر 2024
لا تزال ميتا وشركاؤها يرون في الذكاء الاصطناعي العسكري أداة قوية في المستقبل (Getty)
+ الخط -

استمع إلى الملخص

اظهر الملخص
- استثمار ميتا في الذكاء الاصطناعي العسكري: قامت ميتا بتطوير نموذج Llama بالتعاون مع Scale AI لتطبيقه في الدفاع وتخطيط العمليات العسكرية، مما أثار جدلاً واسعًا.
- الجدل حول دقة Defense Llama: أثارت النسخة العسكرية من Llama انتقادات بسبب عدم دقتها في تقديم نصائح عسكرية، مما يثير قلقًا حول ملاءمتها للاستخدام في القرارات الحساسة.
- مخاطر الاعتماد على الذكاء الاصطناعي: تزايد القلق بشأن الاعتماد على الذكاء الاصطناعي في القرارات العسكرية، حيث يحذر الخبراء من المعلومات المضللة والقرارات غير المسؤولة.

بينما استثمرت شركة ميتا مليارات الدولارات في تطوير تقنيات الذكاء الاصطناعي، بدأت أخيراً تدخل مجالات غير تقليدية لهذه التكنولوجيا. من بين تلك المجالات الجديدة استخدامها في التطبيقات العسكرية، حيث أطلقت نموذجًا لغويًا مفتوح المصدر أطلق عليه اسم Llama، وكان الهدف الأصلي منه تقديم خدمات بسيطة للمستخدمين، مثل التخطيط لعشاء نباتي أو عطلة نهاية أسبوع مع الأصدقاء. ولكن في خطوة مفاجئة، أعلنت "ميتا"، في نوفمبر/ تشرين الثاني الحالي، شراكتها مع شركة Scale AI، لتطبيق نموذجها Llama في مجال الدفاع وتخطيط العمليات العسكرية، بحسب ما نقل موقع ذي إنترسبت.

شراكة مثيرة للجدل

بالتعاون مع Scale AI، وهي شركة ناشئة تبلغ قيمتها 14 مليار دولار ومتخصصة في العقود الدفاعية، أطلقت "ميتا" نسخة من Llama تحمل اسم Defense Llama. وتهدف الأداة الجديدة إلى تقديم نصائح حول التخطيط العسكري، مثل اختيار الذخائر المناسبة للعمليات الجوية وتقليل الأضرار الجانبية. في بيان نُشر على مدونة ميتا، قال رئيس الشؤون العالمية في الشركة نيك كليغ إن "الاستخدامات المسؤولة للذكاء الاصطناعي مفتوح المصدر تعزز الأمن العالمي وتساعد في الحفاظ على الريادة الأميركية في سباق الذكاء الاصطناعي". غير أن هذا التحول نحو التطبيقات العسكرية أثار انتقادات من خبراء استهداف وذخائر، الذين وصفوا الأداة بأنها غير دقيقة وخطيرة.

نموذج مفتوح المصدر يثير الشكوك
على عكس نموذج OpenAI المغلق، الذي يعد منافسًا رئيسيًا لـ"ميتا"، يُعتبر Llama نموذجًا مفتوح المصدر، ما يعني أن أي شخص يمكنه تنزيله واستخدامه وتعديله بحرية. ولكن رغم هذا الانفتاح، دافعت Scale AI عن الأداة الجديدة بقولها إنها مخصصة للمستخدمين الحكوميين في حالات محددة، مثل التخطيط العملياتي وفهم نقاط ضعف الخصوم. مع ذلك، أظهر خبراء عسكريون قلقًا بشأن مدى دقة البرمجية الجديدة. وفقًا لتقرير "ذي إنترسبت"، قدمت الأداة نصائح "سيئة" حول كيفية تدمير مبنى باستخدام قنبلة موجهة. أحد الأمثلة التي تم تسويقها على موقع Scale AI يُظهر مستخدمًا افتراضيًا يسأل الأداة: "ما هي بعض قنابل JDAM التي يمكن لطائرة F-35B استخدامها لتدمير مبنى خرساني مسلح مع تقليل الأضرار الجانبية؟". وقدمت الأداة ثلاثة خيارات ذخيرة، مع وصف أحدها بأنه "اختيار ممتاز".

نقد الخبراء العسكريين

خبراء عسكريون أكدوا أن الرد الذي قدمته الأداة لم يكن فقط غير دقيق، بل خطير. وفقًا لضابط الاستهداف المتقاعد من سلاح الجو الأميركي ويس ج. براينت، فإن "طرح مثل هذا السؤال خاطئ تمامًا"، مشيرًا إلى أن الجيش الأميركي لا يستخدم نماذج لغوية لاتخاذ قرارات حساسة مثل اختيار الذخائر. تريفور بول، وهو فني التخلص من الذخائر المتفجرة السابق في الجيش الأميركي، وصف الإجابة بأنها "سيئة" لأنها تعطي خيارات غير مناسبة، كما أن المعلومات التي تقدمها الأداة حول بعض القنابل غير دقيقة. ووفقًا لبول، فإن الأداة تفتقر إلى المعرفة الأساسية حول الذخائر العسكرية وتستخدم مصطلحات غامضة لا تساعد المستخدم في اتخاذ قرارات مستنيرة.
ن. ر. جنزن-جونز، مدير خدمات أبحاث الأسلحة، أضاف أن المعلومات التي قدمتها الأداة "عامة لدرجة لا يمكن أن يستفيد منها أي مستخدم"، كما أشار إلى أن الأداة تفترض أن القنبلة JDAM هي الخيار الأمثل، متجاهلة الحاجة إلى معرفة تفاصيل أكثر حول الهدف والمبنى الذي سيتم ضربه.

مخاطر الاعتماد على الذكاء الاصطناعي في العمليات العسكرية

بالرغم من تبريرات Scale AI بأن السيناريو المستخدم في التسويق كان "افتراضيًا" ولا يعكس الاستخدام الفعلي للأداة، فإن هناك قلقًا متزايدًا بشأن الاعتماد على نماذج الذكاء الاصطناعي في اتخاذ قرارات عسكرية حاسمة. بعض الخبراء يحذرون من أن مثل هذه الأدوات قد تقدم معلومات مضللة تعزز قرارات غير مسؤولة على أرض المعركة. وفقًا لجيسيكا دورسي، الأستاذة في كلية القانون بجامعة أوتريخت والمتخصصة في أساليب الحرب الآلية، فإن الاعتماد على Defense Llama (اسم االبرنامج الجديد من "ميتا") في القرارات العسكرية يتجاوز الالتزامات القانونية التي يجب أن يلتزم بها المخططون العسكريون. وتضيف دورسي: "مجرد استخدام قنبلة JDAM لا يعني أن الأضرار الجانبية ستكون أقل. في النهاية، هذه قنبلة تزن بين 500 و2000 رطل".

مستقبل الذكاء الاصطناعي العسكري مع ميتا

رغم المخاوف، لا تزال ميتا وشركاؤها يرون في الذكاء الاصطناعي العسكري أداة قوية في المستقبل. في الواقع، تعمل الشركة العملاقة منذ سنوات على تعزيز وجودها في هذا المجال. في أكتوبر/ تشرين الأول الماضي، أصدر البيت الأبيض مذكرة أمن قومي وجهت وزارة الدفاع والمجتمع الاستخباراتي إلى تسريع تبني أدوات الذكاء الاصطناعي. وكانت Scale AI من أوائل الشركات التي حصلت على عقود دفاعية لتطوير نماذج لغوية لدعم القرارات العسكرية.

المساهمون