For other languages scroll down. Languages available: [العربية] | [English] | [Français] | [Русский] | [中文]
بيان من المؤسسة العربية للحقوق المدنية والسياسية-نضال بشأن مخاطر إدماج الذكاء الاصطناعي في منظومات إطلاق الأسلحة النووية
السادة سفراء جمهورية الصين الشعبية والاتحاد الروسي المحترمون،
السادة في وزارتي الخارجية الصينية والروسية،
تحية طيبة وبعد،
تتابع مؤسستنا، المعنية بالدفاع عن حقوق الإنسان وتعزيز السلام العالمي، ببالغ القلق تصاعد المؤشرات على توجه دول كبرى نحو إدماج تقنيات الذكاء الاصطناعي في أنظمة اتخاذ القرار الخاصة باستخدام الأسلحة النووية.
وإذ نُقِر بالتطور المتسارع في مجالات التكنولوجيا العسكرية، فإننا نحذر من أن إدخال أدوات غير بشرية في عملية اتخاذ القرار النووي يشكل تهديدًا وجوديًا للبشرية جمعاء. فهذه الأسلحة لا تحتمل هامش خطأ، ولا تغفر أي “سوء تقدير”.
والأخطر، أن أنظمة الذكاء الاصطناعي – مهما بلغت كفاءتها التقنية – تفتقر إلى الشفافية، ولا تخضع للمساءلة الأخلاقية أو السياسية، وقد تتخذ قرارات كارثية بناءً على مدخلات خاطئة أو دون فهم بشري لما يجري داخلها.
لقد أثبت التاريخ أن قرارات بشرية واعية، في لحظات حاسمة، حالت دون اندلاع كوارث نووية. ونذكّر هنا بأزمة الصواريخ الكوبية عام 1962، حين لعب ضبط النفس البشري، والحس السياسي لقادة عسكريين ودبلوماسيين من الطرفين، الدور الفاصل في تجنب دمار شامل، عندما كان العالم على شفا حرب نووية.
لذا، تطالب مؤسستنا، وبأشد العبارات الممكنة، حكومتي بلدكم الموقرتين، بإصدار إعلان واضح وصريح، يلتزم بعدم استخدام الذكاء الاصطناعي أو أي منظومات آلية في عملية اتخاذ القرار الخاصة بإطلاق الأسلحة النووية، والتأكيد على أن تظل هذه القرارات خاضعة لرقابة بشرية مباشرة ومسؤولة، على أعلى مستويات القيادة السياسية.
كما ندعو إلى تبني إطار دولي ملزم، يضع قيودًا صارمة على استخدام الذكاء الاصطناعي في المجال النووي، ويعيد التأكيد على مركزية العقل الإنساني في قرارات تتعلق بمصير البشرية.
ونشير في هذا السياق إلى تصاعد النداءات من خبراء ومسؤولين دوليين ومنظمات مجتمع مدني، تُحذر من مغبة ترك قرارات الحرب والسلم لخوارزميات بلا وعي أو ضمير أو محاسبة.
وبناء عليه، ندعو إلى إطلاق حوار دولي مفتوح وعاجل، تشارك فيه الدول المالكة للأسلحة النووية، إلى جانب المجتمع المدني وخبراء الذكاء الاصطناعي، لوضع ضوابط وقواعد أخلاقية وقانونية لاستخدام هذه التقنيات في المجال العسكري.
نلفت عنايتكم إلى أن نسخة من هذا البيان قد تم إرسالها أيضًا إلى سفارات ووزارات خارجية الولايات المتحدة الأمريكية، والمملكة المتحدة، وفرنسا، ودول الاتحاد الأوروبي، تأكيدًا على أن هذا النداء موجّه لكافة القوى الكبرى بلا استثناء.
إن الصمت في هذا المجال ليس حيادًا، بل تواطؤٌ محتمل مع خطر قد يُفني ملايين الأرواح البريئة في لحظة واحدة.
ونتوقع من دولكم، بما لها من وزن محوري في النظام الدولي، أن تتحمل مسؤولياتها التاريخية كاملة.
—
🔵 English Version
Statement from AFCPR-Nedal on the Risks of Integrating Artificial Intelligence into Nuclear Weapons Launch Systems
To the honorable Ambassadors of the People’s Republic of China and the Russian Federation,
To the Ministries of Foreign Affairs of China and Russia,
Greetings,
Our organization, dedicated to defending human rights and promoting global peace, is deeply concerned by the increasing indications of major powers moving toward integrating artificial intelligence technologies into nuclear weapons decision‑making systems.
While we recognize the rapid development in military technology, we warn that introducing non‑human tools into nuclear decision‑making poses an existential threat to all humanity. Nuclear weapons leave no margin for error or miscalculation.
Even more critically, AI systems—regardless of technical sophistication—lack transparency, are not subject to moral or political accountability, and may make catastrophic decisions based on flawed inputs or without human comprehension of internal processing.
History has proven that deliberate human decisions at critical junctures have prevented nuclear catastrophes. We recall the 1962 Cuban Missile Crisis, when human restraint and the political judgment of military and diplomatic leaders on both sides played the decisive role in averting total destruction, at a moment when the world stood on the brink of nuclear war.
Therefore, our organization strongly urges your esteemed governments to issue a clear and explicit declaration committing not to use artificial intelligence or any automated systems in nuclear weapons launch decision‑making, and reaffirm that such decisions must remain under direct, responsible human oversight at the highest levels of political leadership.
We also call for the adoption of a binding international framework that imposes strict limits on AI use in nuclear contexts and reaffirms the central role of human judgment in decisions affecting the survival of humanity.
We note the mounting calls from international experts, officials, and civil society organizations warning against leaving war‑and‑peace decisions to algorithms devoid of awareness, conscience, or accountability.
Accordingly, we invite the launch of an open, urgent international dialogue involving nuclear‑armed states, civil society, and AI experts to establish ethical and legal safeguards for the military use of these technologies.
Please be informed that this statement has also been sent to the embassies and foreign ministries of the United States, United Kingdom, France, and EU countries, underscoring that this appeal is addressed to all major powers without exception.
Silence in this domain is not neutrality; it is potential complicity in a threat that could eradicate millions of innocent lives in a single moment.
We expect your nations, as pivotal actors in the international system, to fully shoulder their historic responsibility.
—
🔴 Français
Déclaration de AFCPR-Nedal sur les risques d’intégration de l’intelligence artificielle aux systèmes de lancement d’armes nucléaires
Aux Ambassadeurs de la République populaire de Chine et de la Fédération de Russie,
Aux Ministères des Affaires étrangères de Chine et de Russie,
Salutations,
Notre organisation, engagée dans la défense des droits humains et la promotion de la paix mondiale, exprime sa profonde inquiétude face aux signes croissants de grandes puissances tendant à intégrer des technologies d’intelligence artificielle dans les systèmes décisionnels relatifs aux armes nucléaires.
Si nous reconnaissons l’évolution rapide de la technologie militaire, nous avertissons que confier des décisions aussi critiques à des outils non humains constitue une menace existentielle pour toute l’humanité. Les armes nucléaires ne tolèrent ni erreur ni erreur de calcul.
Plus grave encore, les systèmes d’IA — quel que soit leur degré de sophistication — manquent de transparence, ne sont pas soumis à une responsabilité morale ou politique, et peuvent prendre des décisions catastrophiques sur la base d’informations erronées ou sans compréhension humaine de leur fonctionnement interne.
L’histoire a démontré que les décisions humaines réfléchies aux moments clés ont évité des catastrophes nucléaires. Nous rappelons la crise des missiles de Cuba en 1962, lorsque la retenue humaine et le jugement politique de dirigeants militaires et diplomatiques des deux camps ont joué un rôle décisif pour éviter une destruction totale, alors que le monde était au bord de la guerre nucléaire.
C’est pourquoi notre organisation appelle fermement vos gouvernements à émettre une déclaration claire et explicite s’engageant à ne pas utiliser l’intelligence artificielle ou tout système automatisé dans la prise de décisions relatives au lancement d’armes nucléaires, et à garantir que ces décisions restent sous supervision humaine directe et responsable, aux plus hauts niveaux de leadership politique.
Nous appelons également à l’adoption d’un cadre international contraignant imposant des limites strictes à l’utilisation de l’IA dans des contextes nucléaires et réaffirmant le rôle central du jugement humain dans des décisions touchant la survie de l’humanité.
Nous soulignons les appels croissants d’experts internationaux, d’officiels et d’organisations de la société civile, qui avertissent des dangers de confier les décisions de guerre ou de paix à des algorithmes dépourvus de conscience, de morale ou de responsabilité.
Ainsi, nous proposons le lancement d’un dialogue international ouvert et urgent impliquant les États dotés d’armes nucléaires, la société civile et des experts en IA, afin d’élaborer des garde‑fous éthiques et juridiques pour l’utilisation militaire de ces technologies.
Veuillez noter que ce communiqué a également été adressé aux ambassades et ministères des Affaires étrangères des États‑Unis, du Royaume‑Uni, de la France et des pays de l’UE, soulignant que cet appel s’adresse à toutes les grandes puissances sans exception.
Le silence dans ce domaine n’est pas neutralité ; c’est une complicité potentielle avec une menace capable d’anéantir des millions d’innocents en un instant.
Nous attendons de vos pays, en tant qu’acteurs clés du système international, qu’ils assument pleinement leur responsabilité historique.
—
🟡 中文(简体)
AFCPR-Nedal 关于人工智能融入核武器发射决策系统风险的声明
致中华人民共和国与俄罗斯联邦大使阁下:
并抄送两国外交部相关负责人,
敬上问候,
本组织致力于维护人权与促进世界和平,对当前大国倾向将人工智能技术引入核武器决策系统的趋势深表担忧。
我们认识到军事科技发展迅速,但必须警告,将决定生死的核发射授权交由非人类工具,构成人类存续的根本威胁。核武器丝毫不容误差或误判。
更严重的是,无论技术多么先进,人工智能系统缺乏透明性,不受道德与政治问责,可能在信息错误或人类无法理解的条件下,做出灾难性决策。
历史证明,关键时刻人类深思熟虑的决定,曾避免核灾难。例如1962年古巴导弹危机,双方军事与外交领导人的克制与政治判断,是避免全面毁灭的关键,当时世界濒临核战争边缘。
因此,我们组织郑重敦促贵国政府,发布明确声明,承诺不在核武器发射决策中使用人工智能或任何自动化系统,确保所有相关决定由政治最高层级负责并由人类直接监督。
我们亦呼吁制定具法律约束力的国际框架,对在核领域使用人工智能设定严格限制,并重申人类判断在关乎人类存亡决策中的核心地位。
我们注意到国际专家、官员及民间组织纷纷呼吁:不要将关乎战争与和平的决策交给缺乏意识、良知与问责机制的算法。
为此,我们建议立即启动包括拥有核武的国家、民间社会及AI专家在内的国际开放对话,以制定伦理与法律保障措施,规范这些技术在军事领域的使用。
请注意,此声明副本亦已发送至美国、英国、法国及欧盟国家的使馆和外交部,以强调此呼吁面向所有大国、无一例外。
在此领域的沉默并非中立,而是对可能瞬间湮灭数百万无辜生命风险的潜在纵容。
我们期待贵国—作为国际体系中的关键力量—承担起其历史责任。
Русский перевод
Заявление AFCPR-Nedal о рисках интеграции искусственного интеллекта в системы запуска ядерного оружия
Уважаемым Послам Китайской Народной Республики и Российской Федерации, Министерствам иностранных дел Китая и России,
Приветствуем вас!
Наша организация, занимающаяся защитой прав человека и содействием глобальному миру, выражает глубокую обеспокоенность в связи с растущими признаками того, что крупные державы движутся к интеграции технологий искусственного интеллекта в системы принятия решений по использованию ядерного оружия.
Признавая быстрое развитие военных технологий, мы предупреждаем, что внедрение нечеловеческих инструментов в процесс принятия ядерных решений представляет экзистенциальную угрозу для всего человечества. Ядерное оружие не оставляет места для ошибок или неверных расчетов.
Что еще более важно, системы ИИ — независимо от их технической сложности — лишены прозрачности, не подлежат моральной или политической ответственности и могут принимать катастрофические решения на основе ошибочных данных или без человеческого понимания внутренних процессов.
История доказала, что сознательные человеческие решения в критические моменты предотвращали ядерные катастрофы. Мы вспоминаем Карибский кризис 1962 года, когда человеческая сдержанность и политическое суждение военных и дипломатических лидеров с обеих сторон сыграли решающую роль в предотвращении полного уничтожения в момент, когда мир стоял на грани ядерной войны.
Поэтому наша организация настоятельно призывает ваши уважаемые правительства выпустить четкое и недвусмысленное заявление, обязующее не использовать искусственный интеллект или любые автоматизированные системы в процессе принятия решений по запуску ядерного оружия, и подтвердить, что такие решения должны оставаться под прямым, ответственным человеческим надзором на высших уровнях политического руководства.
Мы также призываем к принятию обязательной международной рамочной основы, которая налагает строгие ограничения на использование ИИ в ядерном контексте и подтверждает центральную роль человеческого суждения в решениях, влияющих на выживание человечества.
В связи с этим мы отмечаем растущие призывы международных экспертов, официальных лиц и организаций гражданского общества, предупреждающих об опасности передачи решений о войне и мире алгоритмам, лишенным осознанности, совести или подотчетности.
Соответственно, мы призываем к началу открытого, срочного международного диалога с участием государств, обладающих ядерным оружием, гражданского общества и экспертов по ИИ для установления этических и правовых гарантий для военного использования этих технологий.
Обращаем ваше внимание, что копия этого заявления также была отправлена в посольства и министерства иностранных дел Соединенных Штатов, Соединенного Королевства, Франции и стран ЕС, подчеркивая, что этот призыв адресован всем крупным державам без исключения.
Молчание в этой области — это не нейтралитет; это потенциальное соучастие в угрозе, которая может уничтожить миллионы невинных жизней в одно мгновение. Мы ожидаем, что ваши страны, как ключевые игроки в международной системе, в полной мере возьмут на себя свою историческую ответственность.