الدول بوصفها كائنات حية قراءة في أثر العاطفة في السياسة الدولية

الدول بوصفها كائنات حية

قراءة في أثر العاطفة في السياسة الدولية

مع استمرار تطور الذكاء الاصطناعي والتقنية الداعمة للقدرات البشرية، يبرز سؤال جوهري: هل يمكن أن تُستغل هذه التقنية سلاحًا من جانب جهات خبيثة أو مهيمنة لاختراق نيات البشر، وسلوكهم وانفعالاتهم؟

تثير هذه التطورات أسئلة أساسية حول مستقبل الحضارة الإنسانية برمتها: هل ستُعيد هذه التقنية التحويلية تشكيل الحالة الإنسانية؟ وهل يمكن أن تُربك آلاف السنين من التطور؟ كيف تتجلى قابلية الإنسان للخطأ في عالم تتولى فيه الجيوش المدعومة بالذكاء الاصطناعي -بما فيها أنظمة الذكاء الاصطناعي التعاطفي- رسم معالم الحرب وصناعة السلم؟

نحو فهم عصبي لسلوك الدول

قبل أكثر من ستين عامًا، وفي خضم أزمة الصواريخ الكوبية، طرح برتراند راسل سؤالًا مصيريًّا: هل للإنسان مستقبل؟ واليوم، ومع تنافس القوى الكبرى على التفوق في مجالي الذكاء الاصطناعي والحوسبة الكمية، يعود السؤال ذاته، بصيغة أخرى: كيف نمنع السيناريو الكارثي الذي يهدد مستقبل البشر؟

وفي ظل هذا الواقع، يجب أن نفهم بشكل أعمق الطبيعة البشرية، وأن نسأل كيف تتصرف الدول وكيف «تشعر»؟ وهذه منطقة معرفية تتقاطع فيها الفلسفة وعلم الاعصاب والجيوسياسة؛ فالأنا والعاطفة تؤثران في حياتنا الفردية والسياسية أكثر مما نعرف أو نعترف به غالبًا.

ستجلب الحدود العلمية الجديدة أخطارًا حضارية جماعية، يمكن تصنيفها في ثلاث مجموعات رئيسة: أولًا، أخطار عسكرية: مثل الأمن السيبراني، والذكاء الاصطناعي. ثانيًا، الحوسبة الكمية والحوسبة العصبية. ثالثًا، أخطار بيولوجية: تغير المناخ، الأوبئة، البيولوجيا التركيبية، التقنية العصبية.

تتطلب هذه المخاطر استعدادًا عالميًّا واستجابة عابرة للحدود. لكن الطبيعة السياسية للدول تدفعها إلى توظيف هذه التقنية لخدمة مصالح ضيقة. لقد دحض علم الأعصاب فكرة أن الدول وقادتها يتحركون بعقلانية محضة؛ إذ تظهر الدراسات وجود روابط عصبية تشريحية وكيميائية بين العواطف واتخاذ القرار.

من هذا المنظور، يمكن توسيع نظريتي حول «الطبيعة البشرية» لتصبح إطارًا لفهم سلوك الدول والعلاقات الدولية والأمن العالمي. فالإنسان ليس «صفحة بيضاء» تمامًا؛ بل تتشكل ميوله عبر الوراثة والبيئة والتجربة، وكذلك الدول حيث تتأثر قرارتها بالظروف السياسية والضغوط الانفعالية لا الإستراتيجية.

من منظور مستقبلي، أحد أهم التحديات التي تواجه البشرية هو أن الدول، حتى تلك المتنافسة جيوسياسيًّا، ستحتاج إلى بناء أطر دولية تشجع على تطوير شفاف واستخدام مسؤول للابتكارات المرتبطة بالذكاء الاصطناعي، الحوسبة الكمية، والطبيعة المشتركة للفضاء الخارجي.

لقد بدأ الذكاء الاصطناعي يتسرب إلى كل شيء، ويدفع بالتقدم العلمي والاقتصادي والعسكري والتقني إلى عصر جديد. سيكون لبعض التقنيات الجديدة التي تعتمد على الذكاء الاصطناعي آثار خطيرة في كيفية خوض الحروب. على الرغم من أن التعزيز يزيد القدرات المعرفية والجسدية، فإنه يضعف سمات إنسانية جوهرية مثل الرحمة والتعاطف، والحس الأخلاقي؛ وستكون لذلك عواقب وخيمة في ساحة القتال، مثل الوحشية المفرطة، والإيذاء المتعمد لغير المقاتلين، واستخدام التعذيب.

وقد يكون لذلك أيضًا آثار بعيدة المدى على ديناميكيات الأمن، العلاقات المدنية العسكرية، الدبلوماسية، آليات صناعة القرار السياسي، فضلًا عن الثقة والسلام المستديمين. في الوقت الراهن، تقع هذه التقنيات التخريبية الجديدة خارج الأطر الأخلاقية والقانونية للحرب، بما في ذلك القانون الدولي واتفاقيات جنيف. ينبغي أن تُثار بعض الأسئلة المعقدة للقانونيين وصناع السياسات، الخاصة بالمسؤولية: مَن يتحمل المسؤولية إذا خرج الجندي المعزز عن السيطرة؟ القائد العسكري؟ الجندي نفسه؟ المبرمج؟ أم المؤسسة؟

السياسة في عصر الابتكار غير المحايد

إن اقتران الذكاء الاصطناعي بالحوسبة الكمية سيزيد تدريجيًّا من قدراتنا، في الخير والشر. لكن، مع وجود القوة العظمى في العالم على أعتاب سباق تسلح كامل بالذكاء الاصطناعي، ينبغي لنا أن نتساءل بأي ثمن؟ إن الجمع بين الذكاء الاصطناعي والحوسبة الكمية سيغير موازين القوة، وهو ما يؤدي إلى إحداث ثورة في العلوم. ومع ذلك، في أقصى حالاته، فإن التطور الأحادي والحصري للتفوق الكمي يمكن أن يكسر تشفير دولة أخرى، وربما يسيطر على البنية التحتية الحيوية فضلًا عن تقييد الحريات الفردية، والتدخل في أعراف ثقافية، وهو ما يؤدي إلى صراعات عميقة بين الدول.

تأتي الأخطار الحضارية للحدود، التي تلوح في الأفق، في شكل سلامة وأمن واستدامة الفضاء الخارجي. يجب على جميع الدول التي ترتاد الفضاء أن تدرك أنه إذا أصبح الفضاء الخارجي غير آمن، فإنه سيكون غير آمن للجميع، بغض النظر عمن بدأ الصراع.

فقد كشفت الهجمات التي استهدفت أنظمة الفضاء في الصراع الأوكراني- الروسي أن تقنيات الفضاء أصبحت جزءًا من الحرب الحديثة. وتعتمد البشرية اليوم على الأقمار الصناعية لدعم كل شيء بدءًا من سلسلة التوريد، واتصالات الطوارئ، والعمليات العسكرية، والطقس، وسوق الأوراق المالية، والملاحة، وشبكات الطاقة الكهربائية؛ لذلك، أُوصِي بإعطاء الأولوية للإجراءات السياسية الخمسة التالية:

أولًا، تطوير أطر تنظيمية أقوى. ثانيًا، بناء تحالفات للسلوك المسؤول. ثالثًا، وقف اختبارات الأسلحة المضادة للأقمار الصناعية. رابعًا، تنظيم القطاع التجاري الفضائي. خامسًا، تحسين التنسيق في إدارة حركة المرور الفضائية.

أصبح عالمنا مترابطًا على نحو متزايد نتيجة للتقنيات التحويلية. ويظهر التاريخ أن الدول تميل إلى استخدام كل أداة متاحة سلاحًا في سعيها إلى الهيمنة، وهو ما يعني أن التقنيات الجديدة ليست محايدة سياسيًّا. ومن الآن فصاعدًا، لا يمكننا أن نتجاهل ما كشفه علم الأعصاب حول العاطفة، وحيادية الأخلاق، والأنانية المتأصلة في الطبيعة البشرية وسلوك الدول عند تقييم التغير التقني، أو القواعد القانونية، أو الإبداعات الاجتماعية.

تقدم فلسفة التقنية العصبية إطارًا قويًّا لهذه المهمة. ومن خلال دمج رؤى علم الأعصاب والتقنية والفلسفة، فإنه يربط بين استعدادنا البيولوجي وسلامة الابتكار المتسارع. ويدرك هذا النهج أن التغير التقني لا يحدث في فراغ أخلاقي أو عاطفي، كما يضمن أن السياسة تتوقع العواقب المقصودة وغير المقصودة للأدوات الناشئة على السلوك البشري والكرامة والتماسك المجتمعي. يمكن لهذا النهج متعدد التخصصات التوفيق بين المصالح الوطنية المتنافسة والأهداف الحضارية المشتركة، ومواءمة التقدم التقني مع استدامة البشرية على المدى الطويل.

وفي هذا السياق، فإن علم أعصاب الميول البشرية ليس تمرينًا أكاديميًّا مجردًا، بل هو أداة عملية لصنع السياسات. أداة تساعدنا في تحديد الظروف التي يتصرف في ظلها الأفراد والمجتمعات على نحو تعاوني أو هدام.

يمكن النظر إلى النظام الدولي بوصفه توترًا مستمرًّا بين ثلاث سمات للطبيعة البشرية: العاطفية، واللاأخلاقية، والأنانية. وتسعة احتياجات للكرامة الإنسانية: العقل، والأمن، وحقوق الإنسان، والمساءلة، والشفافية، والعدالة، والفرص، والابتكار، والشمول. وعندما تُلَبَّى هذه الاحتياجات، تميل عواطفنا –
التي تتوسطها الكيمياء العصبية- إلى تعزيز التماسك والتعاون، أو على الأقل، التعاون غير المتضارب؛ عندما تُنتهك تنزع نحو الاحتقار والصراع.

نحو حوكمة عالمية للتكنولوجيا المتقدمة

تقدم نظريتي عن «الأنانية العاطفية وحيادية الأخلاق» إطارًا لفهم هذه الديناميكية وتساعد في تصميم سياسات تعالج جذور التوتر، ليس فقط غياب الإذلال والعزلة ولكن أيضًا وجود الاعتراف المتبادل. فهي قادرة على توجيه صناع السياسات والمفاوضين نحو التعاون المستديم، حتى بعد صراع طويل الأمد، من خلال ترسيخ حل الصراعات في كل من العلوم السلوكية وعلم الأعصاب، وهو النهج الذي لا يزال نادرًا في الممارسة السياسية اليوم.

بينما تستمر تقنيات مثل الذكاء الاصطناعي والحوسبة الكمية، والبيولوجيا الاصطناعية في إعادة تشكيل عالمنا، فإنها تجلب معها وعودًا عظيمة وأخطارًا جسيمة على حد سواء؛ لذلك فإن احتمالية إساءة استخدام هذه الابتكارات -التلاعب بالمشاعر، والقرارات أو حتى بطبيعة الوجود الإنساني نفسها- تمثل تهديدًا متناميًا. والسؤال الجوهري هو: كيف نضمن استخدام هذه التقنيات بصورة مسؤولة وأخلاقية؟

تبرز المخاطر على نحو خاص في مجالات مثل الدبلوماسية، القوة العسكرية، الأمن السيبراني، واستكشاف الفضاء. فعلى سبيل المثال، مع بدء الذكاء الاصطناعي في أداء دور أكبر في الشؤون الحربية، قد نواجه مستقبلًا تُتَّخَذُ فيه القرارات العسكرية بوساطة خوارزميات، من دون تعاطف بشري أو قدرة على الحكم بشأن العواقب الفورية أو طويلة الأمد. وقد يحدث هذا التحول تغييرًا جذريًّا في طبيعة الصراع، وهو ما يقود إلى مزيد من الوحشية وارتفاع حدة الأخطار وإطالة أمد النزاعات، وتقويض المساءلة ومصداقية النظام الدولي في أشد الظروف خطورة.

في مواجهة هذه الأخطار ينبغي لنا إعادة التفكير في كيفية عمل النظم العالمية، وتحرير أنفسنا من الأطر الثنائية المتهالكة، ومن النماذج الاستعمارية ونماذج الحرب الباردة. إن التطور السريع للتقنيات المتقدمة يستدعي أطرًا دولية جديدة تُعلي من شأن المنافسة غير الصراعية بدلًا من المنافسة الصراعية البدائية والصلبة.

ينطوي مفهوم الواقعية التعاونية على أن الدول تركز على المنفعة المتبادلة والمكاسب المطلقة بدلًا من المنافسة ذات المحصلة الصفرية؛ وهو ما يوفر مسارًا أكثر بنائية وسلامًا وازدهارًا واستدامة. ويشجعنا ذلك على النظر إلى التحديات العالمية ليس بوصفها معارك بين رابح- خاسر، بل بوصفها فرصًا لمنافسة صحية وغير صراعية تخدم جميع الأطراف.

وفي الوقت نفسه، يجب أن نعترف بالأنانية العاطفية اللاأخلاقية التي تشكل السلوك البشري، سواء على المستوى الفردي أو على مستوى الدولة: فكما يتصرف الأفراد غالبًا بدافع الكبرياء أو الخوف أو المصلحة الذاتية، فإن الدول كذلك تتحرك بدافع الانفعالات، والرغبة في البقاء، خصوصًا في ظل نظام دولي فوضوي لا توجد فيه سلطة عليا جامعة.

إن إدراك هذه المحركات أمر حاسم في تصميم السياسات التي تراعي الجوانب العقلانية والعاطفية لعملية صنع القرار، سواء في سياق العلاقات الدولية أو في توظيف التقنيات الجديدة القوية. ولتفادي مستقبل يسوده الصراع، والهيمنة، والمعايير المزدوجة، وانعدام الثقة، نحتاج إلى مقاربة عالمية جديدة ترتكز على مفهوم الأمن متعدد المجموع؛ وهو إطار يستهدف تحقيق مكاسب جماعية لجميع الأطراف. بدلًا من الانشغال بانتصار طرف على حساب آخر. ويقوم الإطار على مبادئ الواقعية التعاونية التي تشجع على الشفافية والمساءلة والعدالة، وتفتح المجال لبيئة دولية تتعاون فيها الدول لمواجهة المخاطر المشتركة، بدل الانخراط في منافسة على مكاسب فردية.

ويتطلب ذلك التحول تبني تفكير تكاملي يتجاوز الحدود التقليدية بين التخصصات، ويضع الاستدامة والكرامة الإنسانية، والواقعية العاطفية في مقدمة إستراتيجيات الحكم. وقد طُرحت إحدى هذه الرؤى في بيان فلسفي عابر للتخصصات أصدرتُه حديثًا، يدعو إلى إعادة تخيل أطر الحوكمة العالمية بما يتوافق مع المطالب الأخلاقية لعالمنا المترابط والمتقدم تقنيًّا. وفي نهاية المطاف، فإن مستقبل البشرية يعتمد ليس فقط على التقنيات التي ابتكرها، بل على الطريقة التي ندير بها تلك التقنيات. ومن خلال فهم الدوافع العاطفية والنزعات الأنانية التي تؤثر في كل من الأفراد والدول، يمكننا تصميم نظم تعزز التعاون والسلام والابتكار الأخلاقي. وبهذه الطريقة، نستطيع تسخير التقنيات الجديدة للصالح العام وتفادي المزالق التي أدت إلى صراعات الماضي.

إن سؤال: هل للإنسان مستقبل؟ لا يتعلق فقط بمدى ما يمكن للتقنيات أن تحرزه من تقدم، بل يتعلق بقدرتنا على توجيه ذلك التقدم بما يعود بالنفع على الجميع، في إطار تنافسي غير صراعي. ويتمثل التحدي أمامنا في تعزيز الابتكار مع تجنب الصراع، وتشكيل مستقبل تقوده منافسة صحية، لا خصومة مدمرة. فالقرارات التي نتخذها اليوم ستحدد ما إذا كان المستقبل سيشهد ازدهارًا مشتركًا -ولو متفاوتًا بفعل اختلاف الموارد والقدرات- أم إنه سيظل مرهونًا بالانقسام والصراع والتشرذم واستمرار المعاناة الإنسانية.


الدكتور نايف الروضان فيلسوف سعودي وعالم أعصاب وخبير بالجيوستراتيجية. وهو أستاذ وزميل في كلية سانت أنتوني، في جامعة أكسفورد، بريطانيا، ويشغل منصب رئيس مركز الجغرافيا السياسية والمستقبل العالمي في مركز جنيف للسياسات الأمنية.

www.sustainablehistory.com