تومان نیوز: اگر بایدن، شی و دیگر رهبران جهان اکنون برای رویارویی با چالشهای ایجاد شده توسط هوش مصنوعی به همان اندازه که پیشینیان شان در مقابله با تهدیدات هستهای در دهههای قبل تلاش کردند اقدام کنند آیا به همان اندازه موفق خواهند بود؟ با نگاهی به صفحه بزرگتر تاریخ و قطبی شدن فزاینده امروز خوش بین بودن دشوار است.
مسیر کنترل تسلیحات هوش مصنوعی؛ آمریکا و چین باید برای جلوگیری از فاجعه با یکدیگر همکاری کنند/ شناخت سه تفاوت بین چالش ناشی از هوش مصنوعی و تسلیحات هسته ایفرارو- گراهام آلیسون، استاد برجسته علوم سیاسی دانشگاه هاروارد است. او از متفکران برجسته مکتب واقع گرایی در نظریه روابط بین الملل میباشد. آلیسون به عنوان دانشجوی دکترا زیر نظر هنری کیسینجر تحصیل کرد و در سال ۱۹۷۱ میلادی اثر مهم “جوهر تصمیم” را نوشت که نظریه رایج “بازیگر منطقی” روابط بین الملل را به چالش میکشید و به طور گسترده به عنوان مطالعهای مورد درباره بحران موشکی کوبا قلمداد میشود.
به گزارش فرارو به نقل از فارین افرز، هنگامی که نابودی اتمی هیروشیما و ناکازاکی توسط ایالات متحده، ژاپن را مجبور به تسلیم بی قید و شرط فوری کرد هیچ کس تصور نمیکرد که جهان شاهد توقف عملی استفاده از سلاحهای هستهای برای هفت دهه آینده باشد. حتی غیر محتملتر به نظر میرسید که تقریبا هشت دهه پس از آن صرفا ۹ کشور دارای سلاح هستهای وجود داشته باشند.
امروزه در حالی که جهان با چالشهای منحصر به فردی مواجه است که توسط فناوری بی سابقه و از برخی جهات حتی وحشتناکتر هوش مصنوعی ایجاد میشود جای تعجبی ندارد که بسیاری برای آموزش به دنبال تاریخ بوده اند. آیا ماشینهایی با قابلیتهای مافوق بشری موقعیت بشریت به عنوان ارباب جهان را تهدید میکنند؟ آیا هوش مصنوعی انحصار کشورها را در زمینه ابزار خشونت جمعی تضعیف میکند؟ آیا هوش مصنوعی افراد یا گروههای کوچک را قادر میسازد تا ویروسهایی را با قابلیت کشتن در مقیاسی تولید کنند که پیشتر در اختیار قدرتهای بزرگ بود؟ آیا هوش مصنوعی میتواند بازدارندههای هستهای که ستون نظم جهانی امروزی بوده اند را از بین ببرد؟
در این مرحله هیچ کس نمیتواند با اطمینان به این سوالات پاسخ دهد. با این وجود، همان طور که در دو سال گذشته با گروهی از رهبران فناوری در خط مقدم انقلاب هوش مصنوعی همراه با “هنری کیسینجر” وزیر خارجه اسبق آمریکا به بررسی این موضوعات پرداخته ام به این نتیجه رسیده ایم که پیشرفت بدون محدودیت هوش مصنوعی، عواقب فاجعه باری را برای ایالات متحده و جهان ایجاد خواهد کرد. این استدلال به قدری قانع کننده است که رهبران دولتها باید هم اکنون اقدام کنند.
همان طور که رهبران این انتخابها را انجام میدهند درسهای آموخته شده در عصر هستهای میتواند تصمیمات آنان را تعیین کند. حتی دشمنانی که برای توسعه و استقرار یک فناوری بی سابقه که میتواند صدها میلیون نفر را بکشد مسابقه میدهند منافع مشترک را کشف کرده اند. امریکا و شوروی به عنوان دو قطب، منافعی در جلوگیری از گسترش سریع این فناوری به کشورهای دیگر داشتند که میتوانست آنان را تهدید کند. هم واشنگتن و هم مسکو دریافتند که اگر فناوری هستهای به دست بازیگران یا تروریستهای سرکش در داخل مرزهای شان بیفتد میتوانند از آن برای تهدید کشورهای شان استفاده کنند و بنابراین هر یک سیستمهای امنیتی قوی را برای زرادخانههای خود توسعه دادند.
از آنجایی که در صورت دستیابی بازیگران سرکش دشمن به سلاح هستهای، هر یک ممکن بود تهدید شوند هر دو ابرقدرت به نفع خود میدانستند که در مورد این خطر با یکدیگر بحث کنند و شیوهها و فناوریهایی را که برای اطمینان از عدم تحقق آن سناریوی کابوسوار، برای یکدیگر توصیف کنند. هنگامی که زرادخانه تسلیحات هستهای دو کشور به سطحی رسید که هیچ یک نمیتوانست بدون این که پاسخی برای نابودی خود ایجاد کند به دیگری حمله کند دو کشور به ثبات متناقض نابودی حتمی طرفین* (MAD) پی بردند. با درونی شدن این واقعیت زشت، هر قدرتی یاد گرفت که خود را محدود کند و راههایی را پیدا کند برای متقاعد کردن دشمن خود به محدود کردن ابتکار عملهایش به منظور اجتناب از رویاروییهایی که میتواند منجر به جنگ شود. در واقع، رهبران ایالات متحده و دولت شوروی دریافتند که اجتناب از جنگ هستهای که کشورشان اولین قربانی آن خواهد بود یک مسئولیت اساسی است.
چالشهای امروزی ناشی از هوش مصنوعی صرفا فصل دوم عصر هستهای نیست. تاریخ یک کتاب آشپزی با دستور العملهایی نیست که بتوان آن را برای تولید سوفله مو به مو دنبال کرد. تفاوت بین هوش مصنوعی و سلاحهای هستهای حداقل به اندازه شباهتها قابل توجه است. با این وجود، درسهای آموخته شده در شکل دهی نظم بینالمللی که تقریبا هشت دهه بدون جنگ قدرتهای بزرگ ایجاد شده اگر به درستی درک و تطبیق داده شود، بهترین راهنماییها را به رهبرانی که امروز با هوش مصنوعی مواجه هستند ارائه میکند.
در حال حاضر، تنها دو ابرقدرت هوش مصنوعی وجود دارند: ایالات متحده و چین تنها کشورهایی هستند که استعداد، موسسات تحقیقاتی و ظرفیت محاسبات انبوه مورد نیاز برای آموزش پیشرفتهترین مدلهای هوش مصنوعی را در اختیار دارند. این وضعیت به آنان فرصت باریکی برای ایجاد دستورالعملهایی میدهد که از خطرناکترین پیشرفتها و کاربردهای هوش مصنوعی جلوگیری کنند. جو بایدن رئیسجمهور ایالات متحده و شی جین پینگ رئیسجمهور چین باید از این فرصت استفاده کنند و اجلاسی را شاید بلافاصله پس از نشست همکاریهای اقتصادی آسیا – اقیانوسیه در سانفرانسیسکو در نوامبر برگزار کنند که در آن میتوانند گفتگوهای گسترده، مستقیم و رو در رو در مورد مسائل را انجام دهند.
درسهایی از عصر هستهای
پس از آن که بمبهای اتمی شهرهای ژاپن را در سال ۱۹۴۵ ویران کردند دانشمندانی که جعبه اتمی پاندورا را باز کرده بودند آنچه را که خلق کرده بودند دیدند و با وحشت پس زدند. رابرت اوپنهایمر دانشمند اصلی پروژه منهتن خطی از بهگود گیتا مهمترین و اسرارآمیزترین بخش حماسه هندی موسوم به ماهابهاراتا را با این مضمون به یاد میآورد: “اکنون من به مرگ تبدیل شده ام، ویرانگر دنیاها”. اوپنهایمر چنان طرفدار سرسخت اقدامات رادیکال برای کنترل بمب شد که مجوز امنیتی اش سلب شد. مانیفست راسل-انیشتین که در سال ۱۹۵۵ توسط ۱۱ دانشمند برجسته از جمله برتراند راسل و آلبرت انیشتین و نیز لینوس پاولینگ و مکس بورن شیمی دانان و فیزیکدانان برجسته امضا شد در مورد قدرتهای ترسناک سلاحهای هستهای هشدار داد و از رهبران جهان درخواست کرد که هرگز از آن تسلیحات استفاده نکنند.
اگرچه هری ترومن رئیس جمهور وقت امریکا هرگز در مورد تصمیم خود اظهار نظر نکرد نه او و نه اعضای تیم امنیت ملی اش دیدگاه قابل قبولی در مورد چگونگی ادغام این فناوری عالی در نظم بین المللی پس از جنگ نداشتند. آیا ایالات متحده باید برای حفظ موقعیت انحصاری خود به عنوان تنها قدرت اتمی تلاش کند؟ آیا این تصمیم اصلا امکان پذیر بود؟ آیا ایالات متحده در تعقیب هدف میتواند فناوری خود را با اتحاد جماهیر شوروی به اشتراک بگذارد؟ آیا بقا در دنیایی با این سلاح به رهبرانی نیاز داشت که قدرتی برتر از دولتهای ملی اختراع کنند؟ این موارد پرسشهای مطرح شده در آن زمان بودند.
هنری استیمسون وزیر جنگ ترومن (که به تازگی به پیروزی بر آلمان و ژاپن کمک کرده بود) پیشنهاد کرد که ایالات متحده انحصار بمب اتمی خود را با جوزف استالین رهبر شوروی و وینستون چرچیل نخست وزیر بریتانیا تقسیم کند تا قدرتی بزرگ ایجاد شود که از گسترش سلاحهای هستهای جلوگیری میکند. ترومن کمیتهای به ریاست دین آچسون معاون وزیر امور خارجه ایالات متحده ایجاد کرد تا راهبردی برای پیگیری پیشنهاد استیمسون ایجاد کند.
آچسون اساسا با استیمسون موافق بود: تنها راه برای جلوگیری از یک مسابقه تسلیحات هستهای که به جنگ فاجعه بار ختم میشد ایجاد یک مرجع بینالمللی بود که تنها دارنده سلاحهای اتمی باشد. این امر مستلزم آن بود که ایالات متحده اسرار هستهای خود را با اتحاد جماهیر شوروی و دیگر اعضای شورای امنیت سازمان ملل متحد در میان میگذاشت، سلاحهای هستهای خود را به یک مرجع توسعه اتمی جدید سازمان ملل منتقل میکرد و همه کشورها را از توسعه سلاح یا ساخت تواناییهای خود برای تولید مواد هستهای با درجه تسلیحاتی منع میشدند. ترومن در سال ۱۹۴۶ میلادی برنارد باروخ سرمایه دار و مشاور رئیسجمهور را به سازمان ملل فرستاد تا در مورد توافقی برای اجرای طرح آچسون مذاکره کنند. با این وجود، این پیشنهاد قاطعانه توسط آندری گرومیکو نماینده شوروی در سازمان ملل رد شد.
سه سال پس از آن زمانی که اتحاد جماهیر شوروی موفق به ساخت بمب اتمی شد، ایالات متحده و اتحاد جماهیر شوروی وارد چیزی شدند که مردم آن را جنگ سرد نامیدند: رقابتی که به هر طریقی بمب و گلوله نداشت. یکی از ویژگیهای اصلی این رقابت تلاش برای برتری هستهای بود. زرادخانههای هستهای دو ابرقدرت در اوج خود شامل بیش از ۶۰۰۰۰ سلاح بود که برخی از آنها کلاهکهایی با قدرت انفجاری بیشتر از تمام سلاحهایی که در تمام جنگهای تاریخ ثبت شده بود در اختیار داشتند.
کارشناسان بحث کردند که آیا یک جنگ هستهای همه جانبه به معنای پایان هر جاندار روی زمین است یا خیر. در طول دهههای متمادی واشنگتن و مسکو تریلیونها دلار برای زرادخانههای هستهای خود هزینه کرده اند. بودجه سالانه فعلی برای شرکت هستهای ایالات متحده بیش از ۵۰ میلیارد دلار است. در دهههای اولیه این مسابقه هم ایالات متحده و هم اتحاد جماهیر شوروی به امید به دست آوردن یک مزیت قاطع، جهشهای که پیشتر غیر قابل تصور قلمداد میشد را رقم زدند. افزایش قدرت انفجاری تسلیحات مستلزم ایجاد معیارهای جدیدی بود: از کیلوتن (معادل انرژی آزاد شده توسط ۱۰۰۰ تن تی ان تی) برای سلاحهای شکافت اولیه تا مگاتون (معادل انرژی آزاد شده با یک میلیون تن) برای بمبهای همجوشی هیدروژنی.
دو طرف موشکهای قاره پیما را اختراع کردند که میتوانست در ۳۰ دقیقه کلاهکها را به اهدافی در آن سوی کره زمین برساند. دو طرف ماهوارههایی را ساختند که در ارتفاع صدها مایلی کره زمین میچرخیدند و مجهز به دوربینهایی بودند که میتوانست مختصات اهداف را در مقیاس اینچ شناسایی کند. برخی از ناظران به طور جدی دفاعی را تصور میکردند که به قول رونالد ریگان رئیس جمهور اسبق امریکا سلاحهای هستهای را ناتوان و منسوخ میکرد. در تلاش برای شکل دادن به این تحولات، استراتژیستها سه گانه هستهای زیردریایی ها، بمب افکنها و موشکهای مستقر در زمین را توسعه دادند تا اطمینان حاصل کنند که اگر دشمن یک آسیب پذیری را کشف کند سایر اجزای زرادخانه برای پاسخ ویرانگر باقی میماند.
درک خطرات پرتاب تصادفی یا غیرمجاز تسلیحات باعث اختراعات تازه شد برای مثال، قفلهای الکترونیکی تعبیه شده در سلاحهای هستهای که از فعال شدن آن تسلیحات بدون کدهای پرتاب هستهای مناسب جلوگیری میکرد. افزودن این نوآوریها برای محافظت در برابر پیشرفتهای تکنولوژیکی که ممکن بود سیستمهای فرمان و کنترل را به خطر بیندازند انگیزه اختراع یک شبکه رایانهای بود که به اینترنت تبدیل شد. همان طور که هرمان کان استراتژیست معروف میگوید آنان به چیزهای غیرقابل تصور فکر میکردند. هسته استراتژی هستهای مفهوم بازدارندگی بود: جلوگیری از حمله دشمن با تهدید هزینههای خارج از هر سود قابل تصور. بازدارندگی موفقیت آمیز نه تنها به توانایی بلکه به اعتبار نیز نیاز داشت. قربانیان بالقوه نه تنها به ابزارهایی برای پاسخ قاطع بلکه به اراده نیز نیاز داشتند.
در سال ۱۹۶۲ میلادی زمانی که جان اف کندی رئیس جمهور وقت ایالات متحده با نیکیتا خروشچف، رهبر وقت اتحاد جماهیر شوروی بر سر موشکهایی با کلاهک هستهای که شوروی در کوبا قرار داده بود مواجه شد جامعه اطلاعاتی ایالات متحده تخمین زد که حتی اگر کندی اولین حمله موفقیت آمیز را انجام دهد واکنش تلافی جویانه شوروی با آن امکان پذیر است و امکان کشته شدن ۶۲ میلیون امریکایی وجود داشت.
در سال ۱۹۶۹ میلادی زمانی که ریچارد نیکسون رئیس جمهور شد ایالات متحده باید در رویکرد خود تجدید نظر میکرد. استراتژیستها اصطلاح نابودی حتمی طرفین را مطرح کردند که ماهیت آن با عبارت مکررا به کار برده شده توسط ریگان خلاصه میشد:”در یک جنگ هستهای نمیتوان برنده شد و بنابراین هرگز نباید در آن جنگید”.
از نظر عملیاتی نابودی حتمی طرفین به معنای آسیب پذیری متقابل تضمین شده بود. در حالی که ایالات متحده و اتحاد جماهیر شوروی هر دو به دنبال فرار از این شرایط بودند در نهایت متوجه شدند که قادر به انجام این کار نیستند و باید اساسا روابط خود را دوباره مفهوم سازی کنند. در سال ۱۹۵۵ میلادی چرچیل با طنزی عالی به این موضوع اشاره کرده بود: “ایمنی فرزند محکم وحشت خواهد بود و زنده ماندن برادر دوقلوی نابودی”. بدون انکار تفاوت در ارزشها یا به خطر انداختن منافع ملی حیاتی رقبای مرگبار باید استراتژیهایی را برای شکست دادن دشمن خود به هر وسیله ممکن به جز جنگ همه جانبه ایجاد میکردند. یکی از ستونهای این استراتژیها مجموعهای از محدودیتهای ضمنی و صریح بود که اکنون به عنوان کنترل تسلیحات شناخته میشوند. برای کاهش خطر بروز اشتباهات ایالات متحده و اتحاد جماهیر شوروی در گفتگوهای غیررسمی توافق کردند که برای محافظت از شهروندان خود در برابر پرتوهای رادیواکتیو آزمایش اتمسفر را ممنوع کنند. دو طرف هم چنین در معاهده موشکی ضد بالستیک ۱۹۷۲ توافق کردند که دفاع موشکی را محدود کنند.
ریگان و میخائیل گورباچف رهبر اتحاد جماهیر شوروی در معاهده نیروهای هستهای میان برد که در سال ۱۹۸۷ امضا شد توافق کردند که نیروهای هستهای میان برد را حذف کنند. مذاکرات محدودسازی تسلیحات استراتژیک که منجر به امضای معاهداتی در سالهای ۱۹۷۲ و ۱۹۷۹ شد افزایش محدود پرتاب کنندههای موشک را به همراه داشت و بعدا معاهده کاهش تسلیحات استراتژیک (استارت) که در سال ۱۹۹۱ امضا شد و استارت جدید که در سال ۲۰۱۰ امضا شد از تعداد پرتاب کنندههای موشک کاست. شاید مهمتر از همه بتوان به این موضوه اشاره کرد که ایالات متحده و اتحاد جماهیر شوروی به این نتیجه رسیدند که گسترش سلاحهای هستهای به سایر کشورها تهدیدی برای هر دو کشور بوده و در نهایت خطر هرج و مرج هستهای را به دنبال دارد. در نتیجه، دو کشور چیزی را به وجود آوردند که امروزه به عنوان رژیم منع گسترش سلاحهای هستهای شناخته میشود که محور اصلی آن معاهده منع گسترش تسلیحات هستهای ۱۹۶۸ است که از طریق آن امروزه ۱۸۶ کشور متعهد شده اند از توسعه زرادخانههای هستهای خود خودداری کنند.
کنترل هوش مصنوعی
برای تطبیق درسهای تاریخ هستهای برای مقابله با چالش کنونی ناشی از هوش مصنوعی شناخت تفاوتهای برجسته بین هوش مصنوعی و سلاحهای هستهای ضروری است. نخست آن که در حالی که دولتها توسعه فناوری هستهای را رهبری میکردند، امروزه کارآفرینان خصوصی و شرکتها در حال پیشرفت در عرصه هوش مصنوعی هستند. دانشمندانی که برای مایکروسافت، گوگل، آمازون، متا، اوپنای آی و تعداد انگشت شماری از استارت آپهای کوچکتر کار میکنند بسیار جلوتر از تلاشهای مشابه صورت گرفته درون دولت هستند. علاوه بر این، این شرکتها اکنون درگیر یک مبارزه گلادیاتوری میان خود هستند که بدون شک باعث نوآوری میشود، اما هزینههایی به دنبال دارد. از آنجایی که این بازیگران خصوصی بین ریسکها و پاداشها معاوضه میکنند مطمئنا از وزن منافع ملی کاسته خواهد شد.
نکته دوم آن که هوش مصنوعی دیجیتال است. تولید تسلیحات هستهای دشوار بود و به زیرساختهای پیچیدهای برای انجام همه چیز از غنیسازی اورانیوم گرفته تا طراحی سلاحهای هستهای نیاز داشت. در آن دوره محصولات اشیاء فیزیکی و در نتیجه قابل شمارش بودند. در جایی که امکان بررسی کاری که دشمن انجام میدهد وجود داشت محدودیتهایی ظاهر شد. هوش مصنوعی یک چالش کاملا متفاوت را نشان میدهد. تحولات عمده آن در ذهن انسانها رخ میدهد. کاربرد آن در آزمایشگاهها تکامل مییابد و مشاهده استقرار آن دشوار است. سلاحهای هستهای ملموس هستند در حالی که ماهیت هوش مصنوعی مفهومی است.
سوم آن که هوش مصنوعی با سرعتی در حال پیشرفت و گسترش است که مذاکرات طولانی را غیرممکن میسازد. کنترل تسلیحات طی چند دهه توسعه یافته است. محدودیتهایی برای هوش مصنوعی باید پیش از آن که هوش مصنوعی در ساختار امنیتی هر جامعه ایجاد شود رخ دهد یعنی پیش از آن که ماشینها شروع به تعیین اهداف خود کنند که اکنون برخی کارشناسان میگویند احتمالا در پنج سال آینده رخ خواهد داد.
خوشبختانه شرکتهای بزرگی که هوش مصنوعی مولد را توسعه داده اند تشخیص میدهند که نه تنها در قبال سهامداران خود بلکه در قبال کشور و بشریت در کلیت آن مسئولیتهایی دارند. بسیاری از شرکت از پیش دستورالعملهای خود را برای ارزیابی ریسک قبل از استقرار هوش مصنوعی، کاهش سوگیری در دادههای آموزشی و محدود کردن استفاده خطرناک از مدلهای شان ایجاد کرده اند. شرکتهای دیگر در حال بررسی راههایی برای محدود کردن آموزش و تحمیل الزامات “مشتری خود را بشناسید” برای ارائه دهندگان رایانش ابری هستند.
هر یک از شرکتهایی که توانایی محاسبات انبوه برای آموزش مدلهای جدید هوش مصنوعی را دارند و هر شرکت یا گروه تحقیقاتی که مدلهای جدید را توسعه میدهند باید گروهی برای تجزیه و تحلیل پیامدهای انسانی و ژئوپولیتیکی عملیات تجاری هوش مصنوعی خود ایجاد کنند.
دو ابرقدرت هوش مصنوعی
حتی در مرحله اولیه فعلی در حالی که ایالات متحده هنوز در حال ایجاد چارچوب خاص خود برای مدیریت هوش مصنوعی در داخل کشور است هنوز برای شروع گفتگوهای جدی با تنها ابرقدرت هوش مصنوعی جهان خیلی زود نیست. قهرمانان ملی چین در بخش فناوری یعنی بایدو (برترین موتور جستجوی چین)، بایت دنس (خالق تیک تاک)، تنسنت (سازنده وی چت) و علی بابا (پیشروو در تجارت الکترونیک) در حال ساخت آنالوگهای اخصاصی چت جی پی تی به زبان چینی هستند اگرچه سیستم سیاسی چین مشکلات خاصی را برای هوش مصنوعی ایجاد کرده است. در حالی که چین هنوز از نظر فناوری ساخت نیمه هادیهای پیشرفته عقب مانده است، اما دارای ملزومات لازم برای تولید برق در آینده نزدیک است.
بنابراین، بایدن و شی باید در آینده نزدیک برای گفتگوی خصوصی در مورد کنترل تسلیحات هوش مصنوعی با یکدیگر ملاقات کنند. نشست همکاری اقتصادی آسیا و اقیانوسیه در نوامبر در سانفرانسیسکو این فرصت را ارائه میدهد. هر رهبر باید در مورد این که چگونه شخصا خطرات ناشی از هوش مصنوعی را ارزیابی میکند، کشورش برای جلوگیری از برنامههایی که خطرات فاجعه بار ایجاد میکنند چه میکند و چگونه کشورش تضمین میکند که شرکتهای داخلی خطرات را صادر نمیکنند بحث کند. آنان باید یک گروه مشورتی متشکل از دانشمندان آمریکایی و چینی در عرصه هوش مصنوعی و دیگرانی که در مورد پیامدهای این پیشرفتها فکر کرده اند را ایجاد کنند.
اگر بایدن، شی و دیگر رهبران جهان اکنون برای رویارویی با چالشهای ایجاد شده توسط هوش مصنوعی به همان اندازه که پیشینیان شان در مقابله با تهدیدات هستهای در دهههای قبل اقداماتی را انجام دادند عمل کنند آیا به همان اندازه موفق خواهند بود؟ با نگاهی به صفحه بزرگتر تاریخ و قطبی شدن فزاینده امروز خوش بین بودن دشوار است. با این وجود، این واقعیت درخشان که ما اکنون ۷۸ سال صلح را در میان قدرتهای هستهای جشن میگیریم باید الهام بخش همه باشد تا بر چالشهای انقلابی و اجتناب ناپذیر آینده هوش مصنوعی غلبه کنیم.
*MAD: آموزهای در راهبرد نظامی و سیاست امنیت ملی است که بنا بر آن استفاده همه جانبه از سلاحهای پرقدرت کشتارجمعی توسط دو یا چند دولت متخاصم منجر به نابودی کامل هم مهاجم و هم مدافع خواهد شد.