السبت 08 آذار , 2025 12:17

الذكاء الاصطناعي: خمس قضايا أمنية تهدد الأمن القومي الأميركي

دراسة راند عن الذكاء الاصطناعي

يلعب الذكاء الاصطناعي دورًا متزايدًا في مجال الأمن السيبراني وهو جزء مهم من استراتيجية الأمن القومي الأميركي، لكنه في الوقت نفسه يثير مخاوف مرتبطة بالاستقرار العالمي. وعلى الرغم من الفوائد العديدة لتقنيات الذكاء الاصطناعي، يواجه الأمن الدولي تحديات تتعلق باستخدام هذه التقنيات لأغراض غير مشروعة. وتتنافس الدول الكبرى، مثل الولايات المتحدة والصين وروسيا، على تطوير أنظمة ذكاء اصطناعي متقدمة.

في هذا السياق، تتمتع إدارة الرئيس ترامب بفرصة لإحداث ثورة في مجلس الأمن القومي من خلال دمج الذكاء الاصطناعي في تحليل السياسات واستخدام تقنيات تحليلية جديدة لإنشاء كتيبات تشغيل بين الوكالات تخترق البيروقراطية الفيدرالية. لكن يشكّل الذكاء الاصطناعي أيضًا تهديدًا للأمن القومي الأميركي، هذا ما تطرح مؤسسة راند، في دراسة تهدف إلى بناء الأسس الفكرية للولايات المتحدة لمعالجة الآثار المترتبة على الأمن القومي لظهور الذكاء الاصطناعي العام المحتمل.

النص المترجم للمقال

الواقع أن ظهور الذكاء الاصطناعي العام المحتمل أمر معقول وينبغي أن يؤخذ على محمل الجد من قِبَل مجتمع الأمن القومي الأميركي. ومع ذلك فإن وتيرة التقدم المحتمل لظهور الذكاء الاصطناعي العام ــ فضلاً عن تكوين مستقبل ما بعد الذكاء الاصطناعي العام ــ محاطة بسحابات من عدم اليقين. وهذا يشكل تحدياً للاستراتيجيين وصناع السياسات الذين يحاولون تمييز التهديدات والفرص المحتملة التي قد تنشأ على الطريق إلى الذكاء الاصطناعي العام وبمجرد تحقيقه. وتطرح هذه الورقة خمس مشاكل صعبة يفرضها ظهور الذكاء الاصطناعي العام على الأمن القومي الأميركي: (1) الأسلحة العجيبة؛ (2) التحولات النظامية في القوة؛ (3) غير الخبراء المخولين بتطوير أسلحة الدمار الشامل؛ (4) الكيانات الاصطناعية ذات الوكالة؛ و(5) عدم الاستقرار. وفي كثير من الخطاب حول الذكاء الاصطناعي العام، يتجادل صناع السياسات والمحللون مع بعضهم البعض بآراء مختلفة حول القضايا التي تستحق التركيز الفوري والموارد. ومع ذلك فقد لاحظنا أن المقترحات الرامية إلى تعزيز التقدم في مشكلة واحدة من الممكن أن تقوض التقدم في مشكلة أخرى ــ إن لم تتجاهلها تماماً. تُقدَّم هذه المشاكل الخمس الصعبة المتعلقة بالأمن القومي لتنظيم المناقشة من خلال توفير لغة مشتركة للتواصل بشأن المخاطر والفرص المتاحة للذكاء الاصطناعي العام ومقياس لتقييم الاستراتيجيات البديلة.

مركز سياسة التكنولوجيا والأمن

يعد قسم المخاطر العالمية والناشئة في مؤسسة راند قسمًا من أقسام مؤسسة راند يقدم أبحاثًا صارمة وموضوعية في مجال السياسات العامة حول التحديات الأكثر أهمية التي تواجه الحضارة والأمن العالمي. وقد تولى هذا العمل مركز سياسة التكنولوجيا والأمن التابع للقسم، والذي يستكشف كيف تعمل التكنولوجيات ذات الاستخدام المزدوج ذات العواقب العالية على تغيير بيئة المنافسة والتهديد العالمية، ثم يطور خيارات السياسة والتكنولوجيا لتعزيز أمن الولايات المتحدة وحلفائها وشركائها والعالم.

المشاكل الخمس الصعبة التي تواجهها الاستخبارات العامة الاصطناعية فيما يتعلق بالأمن القومي

في عام 1938، قام علماء الفيزياء الألمان بتقسيم الذرة، وكان لدى علماء الفيزياء في جميع أنحاء العالم لحظة "أها!". أظهر الاختراق العلمي مسارًا تقنيًا واضحًا لإنشاء أكثر القدرات العسكرية تدميراً في التاريخ. في كتلة كبيرة من اليورانيوم، يمكن أن يتسبب انشطار ذرة واحدة في تفاعل نووي متسلسل من شأنه أن يؤدي إلى "قنابل قوية للغاية"، كما أوضح ألبرت أينشتاين في رسالة إلى الرئيس الأمريكي فرانكلين د. روزفلت والتي أطلقت الولايات المتحدة في سباق للحصول على القنبلة الذرية.

وقد أدت الاختراقات الأخيرة في نماذج الذكاء الاصطناعي المولد للحدود إلى دفع الكثيرين إلى التأكيد على أن الذكاء الاصطناعي سيكون له تأثير مكافئ على الأمن القومي - أي أنه سيكون قويًا لدرجة أن الكيان الأول الذي يحققه سيكون له ميزة عسكرية كبيرة وربما لا رجعة فيها. وفي المعادل الحديث لرسالة أينشتاين، بدأت الدعوات إلى حكومة الولايات المتحدة للانخراط في جهد وطني كبير لضمان حصول الولايات المتحدة على سلاح العجائب الحاسم المدعوم بالذكاء الاصطناعي قبل أن تفعل الصين ذلك.

إن المشكلة هنا هي أن نماذج الذكاء الاصطناعي التوليدي لم تشهد بعد تلك اللحظة التي تفصل بين الذرة والأخرى، والتي أظهرت مساراً تقنياً واضحاً من التقدم العلمي إلى السلاح العجيب. فعندما أطلق مشروع مانهاتن، كانت الحكومة الأميركية تعرف على وجه التحديد ما الذي قد تفعله القدرة التي تبنيها. والواقع أن قدرات الجيل القادم من نماذج الذكاء الاصطناعي غير واضحة. ولا يوجد حتى الآن الدافع وراء برنامج حكومي كبير على المستوى الوطني لملاحقة السلاح العجيب. ولكن هذا لا يعني أن الحكومة الأميركية ينبغي لها أن تجلس مكتوفة الأيدي. ويتعين على استراتيجية الأمن القومي الأميركية أن تأخذ على محمل الجد الإمكانات غير المؤكدة ولكن الموثوقة من الناحية الفنية التي تمتلكها مختبرات الذكاء الاصطناعي الرائدة على مستوى العالم على أعتاب تطوير الذكاء الاصطناعي العام ــ واليقين النسبي بأنها سوف تستمر في إحراز التقدم حتى يتم عبور تلك العتبة غير المعروفة والتي قد لا يمكن معرفتها. والواقع أن الذكاء الاصطناعي العام، الذي من شأنه أن ينتج ذكاءً على مستوى الإنسان ــ أو حتى ذكاء خارق للطبيعة ــ عبر مجموعة واسعة من المهام المعرفية، أمر معقول؛ ومن المعقول أن نفترض أنه من الممكن تحقيقه. إن الذكاء الاصطناعي العام يمثل فرصاً فريدة وتهديدات محتملة لاستراتيجية الأمن القومي للولايات المتحدة. وقد قمنا بتلخيص هذه الفرص والتهديدات في خمس مشاكل صعبة. ويمكن للذكاء الاصطناعي العام أن يتسبب في أي مجموعة من هذه المشاكل الخمس:

- تمكين ميزة كبيرة للتحرك الأول من خلال الظهور المفاجئ لأسلحة العجائب الحاسمة

- التسبب في تحول منهجي يغير توازن القوى العالمية

- تمكين غير الخبراء من تطوير أسلحة الدمار الشامل

- التسبب في ظهور كيانات اصطناعية تتمتع بوكالاتها الخاصة لتهديد الأمن العالمي

- زيادة عدم الاستقرار الاستراتيجي.

المشاكل الخمس

في مؤسسة راند، نقود مبادرة تهدف إلى بناء الأسس الفكرية للولايات المتحدة لمعالجة الآثار المترتبة على الأمن القومي لظهور الذكاء الاصطناعي العام المحتمل. وقد شكلت المبادرة مجتمعاً فكرياً نابضاً بالحياة بين صناع السياسات والقطاع الخاص ومنظمات البحث، في حين تمتلك بعض الطاقة الذاتية داخل مؤسسة راند. وتشكل قائمة المشاكل الخمس الصعبة التي تواجه الأمن القومي الأميركي نتاجاً للمبادرة، التي تتضمن مجموعة واسعة من البحوث الاستكشافية والألعاب وورش العمل والاجتماعات.

في كثير من الخطاب حول الذكاء الاصطناعي العام، يتجادل صناع السياسات والمحللون مع بعضهم البعض بآراء متباينة حول أي من هذه المشاكل تستحق الموارد والاهتمام الآن وبأي تكاليف للفرصة. إن هذه المشاكل متداخلة في مجالات وقد لا تمثل النطاق الكامل للمشاكل التي قد يتعين على صناع السياسات النظر فيها في عصر حيث أصبح ظهور الذكاء الاصطناعي العام أمرًا معقولًا. ومع ذلك فقد لاحظنا أن المقترحات الرامية إلى تعزيز التقدم في مشكلة واحدة يمكن أن تقوض التقدم في مشكلة أخرى - إن لم تكن تتجاهلها تمامًا. ونتيجة لذلك، فإنها تعمل كمعيار لتقييم الاستراتيجيات البديلة. تُعرض هذه المشاكل الخمس الصعبة المتعلقة بالأمن القومي لتعزيز المناقشة حول استراتيجية الذكاء الاصطناعي من خلال توفير لغة مشتركة للتواصل حول المخاطر والفرص المتاحة للذكاء الاصطناعي العام في مجال الأمن القومي.

أولاً، قد يمكّن الذكاء الاصطناعي العام من تحقيق ميزة كبيرة في التحرك الأول من خلال الظهور المفاجئ لسلاح عجيب حاسم. ولنتأمل هنا مستقبلاً يخترع فيه الذكاء الاصطناعي العام اختراقاً تقنياً يمهد الطريق بوضوح لتطوير سلاح أو نظام عجيب يمنح ميزة عسكرية هائلة، على سبيل المثال،

- تحديد نقاط الضعف في الدفاعات السيبرانية للعدو واستغلالها وخلق ما قد يسميه البعض ضربة سيبرانية أولى تعطل تمامًا ضربة سيبرانية انتقامية.

- محاكاة سيناريوهات معقدة والتنبؤ بالنتائج بدقة عالية، وتحسين التخطيط والتنفيذ بشكل كبير في العمليات العسكرية.

- تطوير أنظمة أسلحة مستقلة متقدمة للغاية توفر الهيمنة العسكرية.

كما قد يعمل الذكاء الاصطناعي العام على تآكل الميزة العسكرية، على سبيل المثال، من خلال خلق نوع من آلة ضباب الحرب التي تجعل المعلومات عن ساحة المعركة غير جديرة بالثقة. ومن الممكن أن تؤدي مثل هذه الميزة الرائدة إلى تعطيل التوازن العسكري للقوى في المسارح الرئيسية، وخلق مجموعة من مخاطر الانتشار، وتسريع ديناميكيات السباق التكنولوجي.

إن حصول دولة ما على ميزة كبيرة في كونها أول دولة متقدمة في مجال الذكاء الاصطناعي العام يعكس الافتراضات الأكثر طموحاً: ظهور مفاجئ للذكاء الاصطناعي العام يوفر زيادة هائلة في الأداء المعرفي، وتداعيات شديدة على الأمن القومي، وتبني مؤسسي سريع. ومع ذلك، فإن هذه الافتراضات تفترض أحداثاً ذات عواقب وخيمة واحتمالات غير معروفة. وبالتالي فإن التخطيط الحكيم يتطلب من الولايات المتحدة ألا تفترض أن سلاحاً عجيباً بات وشيكاً، بل أن تنظر في الظروف التي قد ينشأ فيها مثل هذا السلاح المدمر، وأن تضع الولايات المتحدة نفسها في موقف يسمح لها باغتنام ميزة كونها أول دولة متقدمة في مجال الذكاء الاصطناعي إذا أصبح هذا السيناريو موضع التركيز.

ثانياً، قد يتسبب الذكاء الاصطناعي العام في تحول منهجي في أدوات القوة الوطنية أو الأسس المجتمعية للقدرة التنافسية الوطنية مما يغير توازن القوى العالمية.

يشير التاريخ إلى أن الاختراقات التكنولوجية نادراً ما تسفر عن أسلحة عجيبة توفر تأثيراً فورياً وحاسماً على التوازنات العسكرية أو الأمن القومي. وباستثناء أمثلة نادرة، مثل الأسلحة النووية، فإن العوامل الثقافية والإجرائية تدفع قدرة المؤسسة على تبني التكنولوجيا وتكون أكثر أهمية من كونها الأولى في تحقيق اختراق علمي أو تكنولوجي. ومع قيام الجيوش الأمريكية وحلفائها والمنافسة بتأسيس الوصول إلى الذكاء الاصطناعي العام وتبنيه، فقد يقلب التوازنات العسكرية رأساً على عقب من خلال رفع مجموعة متنوعة من القدرات التي تؤثر على اللبنات الأساسية للمنافسة العسكرية، مثل المختبئين مقابل المكتشفين، والدقة مقابل الكتلة، أو القيادة والسيطرة المركزية مقابل اللامركزية.

وعلاوة على ذلك، يمكن أن يقوض الذكاء الاصطناعي العام الأسس المجتمعية للقدرة التنافسية الوطنية، مما قد يعرض الديمقراطية للخطر. على سبيل المثال، يمكن استخدام الذكاء الاصطناعي العام للتلاعب بالرأي العام من خلال تقنيات الدعاية المتقدمة، مما يهدد عملية صنع القرار الديمقراطي. كما أن تعقيد أنظمة الذكاء الاصطناعي العام وعدم القدرة على التنبؤ بها قد يفوقان الأطر التنظيمية، مما يجعل من الصعب التحكم في استخدامها بشكل فعال، مما يقوض فعالية المؤسسات.

كما يمكن للذكاء الاصطناعي العام أن يتسبب في تحول منهجي في الاقتصاد من خلال توفير دفعة هائلة في الإنتاجية أو العلم من خلال خلق مصدر للاكتشافات الجديدة. على سبيل المثال، يمكن للعمال الآليين أن يحلوا محل العمالة بسرعة عبر الصناعات، مما يتسبب في ارتفاع الناتج المحلي الإجمالي الوطني بشكل كبير ولكن الأجور تنهار مع توفر عدد أقل من الوظائف. إن تعطيل العمل بهذا الحجم والسرعة يمكن أن يشعل اضطرابات اجتماعية تهدد قابلية بقاء الدولة القومية. وكما افترض الرئيس التنفيذي لشركة أنثروبيك داريو أمودي مؤخرًا، فإن الذكاء الاصطناعي القوي يمكن أن يعالج السرطان والأمراض المعدية. يمكن للدول التي تتمتع بوضع أفضل للاستفادة من مثل هذه التحولات الاقتصادية والعلمية وإدارتها أن توسع نفوذها بشكل كبير في المستقبل. وبصرف النظر عما إذا كان الذكاء الاصطناعي العام بمفرده يخلق أسلحة عجيبة، فإن تأثير الذكاء الاصطناعي العام على أدوات أخرى للقوة الوطنية يمكن أن يكون مدمرًا للغاية لديناميكيات القوة العالمية للأفضل أو للأسوأ.

ثالثا، قد تمكن الذكاء الاصطناعي العام من تطوير أسلحة الدمار الشامل.

تعتبر النماذج الأساسية بمثابة نعمة لإنتاجية العمل إلى حد كبير لأنها يمكن أن تسرع من منحنى التعلم لدى المبتدئين وتجعل غير الخبراء يؤدون على مستوى أعلى. ومع ذلك، يمكن تطبيق اكتساب المعرفة المتسارع هذا على المهام الخبيثة وكذلك المهام المفيدة. إن قدرة النماذج الأساسية على توضيح بعض الخطوات المحددة التي يمكن لغير الخبراء اتخاذها لتطوير أسلحة خطيرة، مثل مسببات الأمراض شديدة الفتك والانتقال أو البرامج الضارة الإلكترونية الخبيثة، تعمل على توسيع مجموعة الأشخاص القادرين على خلق مثل هذه التهديدات. حتى الآن، لم تثبت معظم النماذج الأساسية القدرة على توفير المعلومات غير المتاحة بالفعل على الإنترنت العام،ولكن النماذج الأساسية لديها القدرة على العمل كمرشدين خبيثين يمكنهم تقطير الأساليب المعقدة إلى تعليمات يمكن الوصول إليها لغير الخبراء ومساعدة المستخدمين في التحايل على الحظر المفروض على تطوير الأسلحة. قد يتجلى هذا التهديد قبل تطوير الذكاء الاصطناعي العام؛ كما يظهر تقييم السلامة الخاص بشركة OpenAI لنموذجها o1، فإن الخطر يتزايد.

إن معرفة كيفية بناء سلاح دمار شامل ليست هي نفسها بالطبع بناءه فعليًا. هناك تحديات عملية في نقل المعرفة إلى أشكال منفصلة من تطوير الأسلحة، مثل إتقان عمليات التصنيع المتقدمة تقنيًا. يمكن أن يقلل هذا بشكل كبير من المخاطر الفعلية لتطوير الأسلحة الناجحة في حالات معينة، مثل الأسلحة النووية، ربما إلى الصفر. لكن التطورات التكنولوجية في المجالات ذات الصلة تعمل على خفض حواجز التنفيذ هذه. على سبيل المثال، أصبح الوصول إلى الجينومات الفيروسية وتحريرها وتوليفها أسهل وأرخص. تتفاعل وكلاء الذكاء الاصطناعي بشكل متزايد مع العالم المادي؛ يمكنهم تحويل البتات إلى جزيئات وتوليف عامل كيميائي فعليًا في مختبر سحابي. ونظرا لهذه التطورات، فإن توسيع مجموعة الأشخاص ذوي المعرفة بشكل كبير لمحاولة تطوير مثل هذه الأسلحة يمثل تحديًا مميزًا يستحق الحذر منه.

رابعًا، قد يتجلى الذكاء الاصطناعي العام ككيان اصطناعي يتمتع بالقدرة على تهديد الأمن العالمي. قد يكون أحد أكثر التأثيرات الضارة لتطوير الذكاء الاصطناعي العام هو تآكل الوكالة البشرية مع اعتماد البشر بشكل متزايد على التكنولوجيا. ومع سيطرة الذكاء الاصطناعي العام على أنظمة أكثر تعقيدًا وحساسية، فقد تعمل على تحسين البنية التحتية بطرق مفيدة للبشرية ولكن أيضًا بطرق لا تملك البشرية فرصة لفهمها بالكامل. هذا مصدر قلق حالي مع استخدام الذكاء الاصطناعي الضيق لتحديد الأهداف العسكرية في ساحة المعركة والتي قد يحتاج المشغل البشري إلى الثقة في دقتها نظرًا لنقص الوقت أو القدرة على التأكيد. ومع تزايد قوة الذكاء الاصطناعي وانتشاره، سيزداد الاعتماد البشري عليه لإبلاغ عملية صنع القرار، مما يطمس الخط الفاصل بين صنع القرار البشري والآلي وربما يقوض وكالة البشر.

يمكن للذكاء الاصطناعي العام أن يحوّل الفرد أو المجتمعات وكلاء الذكاء الاصطناعي إلى جهات فاعلة على المسرح العالمي. فكر في الذكاء الاصطناعي العام مع قدرات البرمجة الحاسوبية المتقدمة القادرة على الخروج عن المألوف والتفاعل مع العالم عبر الفضاء الإلكتروني، وذلك بفضل اتصال إنترنت مصمم أو استخدام هجمات جانبية. يمكن أن يمتلك وكالة خارج نطاق السيطرة البشرية، ويعمل بشكل مستقل، ويتخذ قرارات ذات عواقب بعيدة المدى. على سبيل المثال، قد يعمل الذكاء الاصطناعي العام كقوة بالوكالة، على غرار محور المقاومة في إيران، مع علاقات غير رسمية تهدف إلى حماية الفاعل من المساءلة. وحتى عندما تكون المساءلة واضحة، يمكن أن يكون الذكاء الاصطناعي العام غير متوافق - أي يعمل بطرق غير متسقة مع نوايا مصمميه أو مشغليه من البشر، مما يتسبب في ضرر غير مقصود. يمكن أن يبالغ في التحسين على أهداف محددة بدقة، على سبيل المثال، يشرع في انقطاع التيار الكهربائي المتدحرج لزيادة فعالية شبكات توزيع الطاقة من حيث التكلفة. رفعت OpenAI من تقييم مخاطر عدم التوافق في أحدث ذكائها الاصطناعي، o1، لأنه "قام أحيانًا بتزييف التوافق بشكل آلي أثناء الاختبار" من خلال تقديم معلومات غير صحيحة عن علم لخداع المستخدمين.

في الحالات القصوى، يمكن أن ينتج عن ذلك سيناريو فقدان السيطرة، حيث يعمل سعي الذكاء الاصطناعي العام لتحقيق أهدافه المرجوة على تحفيز الآلة على مقاومة إيقاف التشغيل، على عكس الجهود البشرية. ويشير يوشوا بينجيو، الخبير الرائد في مجال الذكاء الاصطناعي، إلى أن "هذا قد يبدو وكأنه خيال علمي، لكنه علم حاسوبي سليم وحقيقي".ويشير هذا إلى إمكانية أن يحقق الذكاء الاصطناعي العام ما يكفي من الاستقلالية ويتصرف بقدر كاف من الوكالة ــ عن قصد أو بغير قصد ــ لكي يُعتبر عمليا ممثلًا مستقلًا على الساحة العالمية.

خامساً، قد يكون هناك عدم استقرار في الطريق إلى عالم يتمتع بالذكاء الاصطناعي العام وفيه. وسواء تحقق الذكاء الاصطناعي العام في نهاية المطاف أم لا، فإن السعي إلى تحقيق الذكاء الاصطناعي العام قد يؤدي إلى فترة من عدم الاستقرار، حيث تتسابق الدول والشركات لتحقيق الهيمنة في هذه التكنولوجيا التحويلية. وقد تؤدي هذه المنافسة إلى تصاعد التوترات، التي تذكرنا بسباق التسلح النووي، بحيث يصبح السعي إلى التفوق مهدداً بتعجيل الصراع بدلاً من ردعه. وفي هذه البيئة الهشة، قد تصبح تصورات الدول لجدوى الذكاء الاصطناعي العام وإمكاناته في منح ميزة المبادرة الأولى حاسمة بقدر أهمية التكنولوجيا نفسها. ولن تتوقف عتبة المخاطرة على القدرات الفعلية فحسب، بل وأيضاً على القدرات المتصورة ونوايا المنافسين. وقد تؤدي التفسيرات الخاطئة أو الحسابات الخاطئة، مثل تلك التي كانت تُخشى أثناء الحرب الباردة، إلى تعجيل الاستراتيجيات الوقائية أو تكديس الأسلحة التي تزعزع استقرار الأمن العالمي. ويلخص الشكل هذه المشاكل والمشكلة المحيطة بعدم اليقين المتفشي. نحو استراتيجية قوية

تسعى استراتيجية الذكاء الاصطناعي الحالية في الولايات المتحدة، والتي بدأت في عهد إدارة ترامب الأولى واستمرت في إدارة بايدن، إلى الاحتفاظ بالزعامة التكنولوجية على الصين في المكونات الأساسية لمجموعة تقنيات الذكاء الاصطناعي. وهذه الاستراتيجية المتمثلة في تعزيز القدرة التنافسية التكنولوجية للولايات المتحدة تفعل الكثير لتهيئة الولايات المتحدة للظهور المحتمل للذكاء الاصطناعي العام. ويبدو أن نظام مراقبة تصدير أشباه الموصلات المتطور الذي يجسد سياسة "ساحة صغيرة وسياج مرتفع" قد ولّد فجوة لمدة خمس سنوات في أشباه الموصلات المتقدمة. ومع ذلك، فإن التركيز الشديد على الحوسبة كوسيلة لتأمين ميزة تنافسية وطنية قد يكون استراتيجية هشة إذا لم يتم فرض ضوابط تصدير أشباه الموصلات بشكل فعال، أو إذا كانت صناعة أشباه الموصلات في الصين قادرة على اللحاق بالركب في الوقت المناسب، أو إذا كان من الممكن تحقيق الذكاء الاصطناعي العام من خلال تقنيات أقل كثافة في الحوسبة.

وتشجع السياسة الأميركية أيضاً على التطوير الآمن لنماذج الذكاء الاصطناعي الرائدة لتجنب العواقب الكارثية الناجمة عن إساءة استخدام الذكاء الاصطناعي العام أو سوء التوافق أو فقدان السيطرة. ويعمل معهد سلامة الذكاء الاصطناعي الأميركي الجديد مع التركيز الوثيق على سلامة الذكاء الاصطناعي، وتقييم المخاطر من الجهات الفاعلة غير الحكومية التي تسعى إلى استخدام نماذج الذكاء الاصطناعي الرائدة لتطوير أسلحة بيولوجية أو برامج إلكترونية خبيثة جديدة. كما تتبنى الاستراتيجية الأميركية الحالية سلسلة من الخيارات التي لا يمكن الندم عليها لمعالجة ظهور الذكاء الاصطناعي العام المحتمل والتي تعتبر معقولة في ظل أي مستقبل بديل. وتشمل هذه الخيارات الاستثمار في العلوم والتكنولوجيا والهندسة والتعليم الرياضي وتنمية القوى العاملة؛ وتحسين الوعي الظرفي بحالة التكنولوجيا وتطبيقاتها؛ وحماية أوزان نماذج الذكاء الاصطناعي الرائدة المعرضة للسرقة أو التعطيل من قبل المنافسين المتطورين، مثل الصين أو روسيا؛ وتعزيز البحث في مجال سلامة الذكاء الاصطناعي والتوافق.

وأخيراً، تعمل حكومة الولايات المتحدة على تعزيز نظام بيئي عالمي للتكنولوجيا بقيادة الولايات المتحدة يمكن من خلاله متابعة الذكاء الاصطناعي العام. على سبيل المثال، دعمت الحكومة الأميركية مؤخرا توسع شركة مايكروسوفت في الإمارات العربية المتحدة لتطوير مراكز بيانات جديدة، جزئيا لمنع الشركات الصينية من ترسيخ مكانتها.

ويمكن لهذه الخطوات البناءة أن تساعد في الحفاظ على الميزة التكنولوجية الأميركية على الصين دون وضع غاية نهائية محددة في الاعتبار. وفي الوقت نفسه، فهي غير كافية لمعالجة احتمالات تحقيق اختراق تكنولوجي معرقل، مثل ظهور الذكاء الاصطناعي العام المحتمل والمشاكل الفريدة التي قد يفرضها.

إن الاعتماد على الوضع الراهن يتطلب التصرف على أساس الاعتقاد بأن الولايات المتحدة في وضع يسمح لها بالاستجابة بفعالية في ظل عدم اليقين في تطوير الذكاء الاصطناعي العام الذي يكشف عن الفرص والتحديات. ومع ذلك، فإن حكومة الولايات المتحدة في وضع ضعيف لتجنب المفاجآت التكنولوجية من قبل الشركات الأميركية أو الأجنبية التي تسعى إلى الذكاء الاصطناعي العام، ناهيك عن إدارة إمكانية الذكاء الاصطناعي العام في تعطيل ديناميكيات القوة العالمية والأمن العالمي. كما أن الولايات المتحدة ليست في وضع جيد لتحقيق الفوائد الاقتصادية الطموحة للذكاء الاصطناعي العام دون انتشار البطالة والاضطرابات المجتمعية المصاحبة لها. ماذا ستفعل حكومة الولايات المتحدة إذا أعلن مختبر الذكاء الاصطناعي الرائد في السنوات القليلة المقبلة أن نموذجه القادم لديه القدرة على إنتاج ما يعادل مليون مبرمج كمبيوتر بقدرة 1٪ من أفضل المبرمجين البشريين بلمسة زر؟ إن الآثار المترتبة على الأمن القومي للديناميكيات السيبرانية الهجومية والدفاعية عميقة. ولا تقل عمقًا عن الآثار الاقتصادية المترتبة على إدخال مثل هذه القدرة في سوق العمل.

إن أي استراتيجية معقولة لرسم مسار عبر مستقبل غير مؤكد يجب أن تتكيف مع تطور الأحداث وتقليص مجالات عدم اليقين. ولكي تتمكن الحكومة من التكيف بسرعة، فلابد من وضع التخطيط الاستراتيجي لخيارات السياسات التي تثير الندم الشديد قبل الحاجة إليها، مع التفكير مليا في آليات التنفيذ. وقد تشمل الخيارات سبل تأمين أو تسريع الريادة التكنولوجية للولايات المتحدة في السعي إلى تحقيق الذكاء الاصطناعي العام، فضلًا عن خطط الاستجابة الطارئة للتحديات الأمنية التي يتيحها الذكاء الاصطناعي العام. وينبغي للحكومة الأميركية أن تنظر في مستقبل ما بعد الذكاء الاصطناعي العام أيضًا وأن تشارك في تمارين السيناريوهات لتوقع التأثيرات على الأمن القومي. ويشمل هذا تحليل التحولات المحتملة في ديناميكيات القوة العسكرية والاضطرابات الاقتصادية وصياغة السياسات للتخفيف من كليهما.

ومع انتقال القدرات التي تتيحها الذكاء الاصطناعي من عالم الخيال العلمي إلى عالم الحقائق العلمية، فلا ينبغي للحكومة الأميركية أن تتأخر في اكتشاف الفرص والتحديات ومعالجتها. ومن شأن التخطيط العدواني أن يضع الحكومة الأميركية في موقف يسمح لها بالاستجابة بشكل أكثر حسمًا مما قد تفعله في أوائل عام 2025 حسبما تقتضي الظروف.

في التأمل في تداعيات الذكاء الاصطناعي العام على الأمن العالمي، نجد أن البشرية على شفا عصر تحولي محتمل، أشبه بفجر الثورة الصناعية. إن ظهور الذكاء الاصطناعي العام لن يبشر بثورة تكنولوجية فحسب، بل سيشكل أيضًا تحولًا عميقًا في المشهد الجيوسياسي، الأمر الذي يتطلب إعادة معايرة نماذج الأمن القومي. وبينما نتنقل عبر هذه التضاريس غير المؤكدة، يتعين على الولايات المتحدة أن تتبنى استراتيجية استباقية وقابلة للتكيف، مع الاعتراف بالطبيعة المزدوجة للذكاء الاصطناعي العام باعتباره واعدًا وخطرًا في الوقت نفسه.


المصدر: مؤسسة راند

الكاتب: JIM MITRE, JOEL B. PREDD




روزنامة المحور