• 1404 جمعه 10 بهمن
روزنامه در یک نگاه
امکانات
روزنامه در یک نگاه دریافت همه صفحات
تبلیغات
بانک سپه fhk; whnvhj ایرانول بیمه ملت

30 شماره آخر

  • شماره 6235 -
  • 1404 شنبه 20 دي

چگونه پيشرفت‌ها در حوزه فناوري تعاملات بازيگران بين‌المللي را تحت تاثير قرار داده است؟

بازدارندگي در عصر ديجيتال

برت وي. بنسون٭

برت جي. گلدستين٭٭

هوش مصنوعي با سرعت زيادي در حال تبديل شدن به ابزاري ضروري براي تصميم‌گيري‌ها در حوزه امنيت ملي است. ارتش‌هاي سراسر جهان همين حالا هم به مدل‌هاي هوش مصنوعي تكيه مي‌كنند تا تصاوير ماهواره‌اي را پالايش و تحليل كنند، توانايي‌ها و ظرفيت‌هاي دشمنان را ارزيابي كنند و براي اينكه نيرو در چه زمان، كجا و به چه شيوه‌اي به كار گرفته شود، توصيه‌هايي ارايه دهند. با پيشرفت اين سامانه‌ها، انتظار مي‌رود شيوه واكنش دولت‌ها به تهديدها دگرگون شود. اما در عين حال، پلتفرم‌هاي پيشرفته هوش مصنوعي مي‌توانند بازدارندگي را تضعيف كنند؛ مفهومي كه مدت‌ها زيربناي كلي راهبرد امنيتي ايالات‌متحده بوده است.هوش مصنوعي با شتاب زيادي در حال تبديل شدن به ابزاري ضروري براي تصميم‌گيري‌هاي امنيت ملي است. ارتش‌هاي سراسر جهان هم‌اكنون به مدل‌هاي هوش مصنوعي اتكا دارند تا تصاوير ماهواره‌اي را غربال كنند، توانمندي‌هاي رقيبان را بسنجند و درباره اينكه نيرو چه زماني، كجا و چگونه بايد به كار گرفته شود، توصيه‌هايي توليد كنند. با پيشرفت اين سامانه‌ها، انتظار مي‌رود شيوه واكنش دولت‌ها به تهديدها دگرگون شود. اما پلتفرم‌هاي پيشرفته هوش مصنوعي همزمان مي‌توانند بازدارندگي را تضعيف كنند؛ مفهومي كه مدت‌ها شالوده كلي راهبرد امنيتي ايالات‌متحده بوده است.بازدارندگي موثر به اين وابسته است كه يك كشور به شكلي باورپذير هم توانايي و هم اراده وارد كردن آسيبي غيرقابل ‌قبول به دشمن را داشته باشد. هوش مصنوعي برخي پايه‌هاي اين باورپذيري را تقويت مي‌كند. اطلاعات بهتر، ارزيابي‌هاي سريع‌تر و تصميم‌گيري باثبات‌تر مي‌تواند بازدارندگي را تقويت كند، چون توان دفاعي يك كشور و نيز عزمِ ظاهري آن براي استفاده از اين توان را روشن‌تر به طرف مقابل منتقل مي‌كند. با اين حال دشمنان مي‌توانند از هوش مصنوعي براي خنثي كردن همين اهداف نيز بهره ببرند: مي‌توانند داده‌هاي آموزشي مدل‌هايي را كه كشورها به آنها تكيه مي‌كنند، آلوده كنند و در نتيجه خروجي آنها را تغيير دهند يا عمليات نفوذ و اثرگذاري مجهز به هوش مصنوعي را براي جهت‌دهي به رفتار مقام‌هاي كليدي به راه بيندازند. در يك بحرانِ پرمخاطره، چنين دستكاري‌هايي مي‌تواند توان يك دولت را براي حفظ بازدارندگي باورپذير محدود كند و تصميم‌گيري رهبرانش را منحرف سازد يا حتي فلج كند.در سناريوي يك بحران، تصور كنيد چين تحريم‌هاي اقتصادي گسترده‌اي عليه تايوان اعمال كرده و رزمايش‌هاي بزرگ‌مقياس نظامي را در اطراف اين جزيره آغاز كرده است. مقام‌هاي دفاعي امريكا براي تدوين واكنش ايالات‌متحده به سامانه‌هاي مجهز به هوش مصنوعي روي مي‌آورند بي‌آنكه بدانند عمليات اطلاعاتي چين پيش‌تر با «مسموم‌سازي» داده‌هاي آموزشي و ورودي‌هاي اصلي، اين سامانه‌ها را آلوده و منحرف كرده است. در نتيجه، مدل‌ها توان واقعي چين را بيش از اندازه برآورد مي‌كنند و ميزان آمادگي امريكا را كمتر از واقع نشان مي‌دهند و ارزيابي‌اي جانبدارانه توليد مي‌كنند كه درنهايت، امريكا را از بسيج نيروها بازمي‌دارد. همزمان، كارزارهاي نفوذ چين كه با موج‌هاي ناگهاني محتواي جعلي توليد شده با هوش مصنوعي در پلتفرم‌هايي مانند فيس‌بوك و تيك‌تاك تقويت شده‌اند، حمايت افكار عمومي امريكا از مداخله را كاهش مي‌دهند. رهبران امريكا كه ديگر نمي‌توانند اطلاعات خود را درست تفسير كنند و سنجش دقيقي از نظر و احساسات عمومي داشته باشند، ممكن است به اين جمع‌بندي برسند كه اقدام قاطعانه بيش از حد پرريسك است. چين كه احساس مي‌كند فرصت مناسبي پيش آمده، اكنون محاصره كامل تايوان را آغاز مي‌كند و حملات پهپادي را به جريان بيندازد. همچنين جزيره را با ديپ‌فيك‌هايي اشباع مي‌كند كه در آنها مقام‌هاي امريكايي از آمادگي خود براي واگذاري تايوان سخن مي‌گويند، نظرسنجي‌هاي جعلي‌اي كه فروپاشي حمايت افكار عمومي امريكا را نشان مي‌دهد و شايعاتي درباره رها كردن تايوان ازسوي ايالات‌متحده پخش مي‌شود. در چنين وضعي، ارسال پيام‌هاي باورپذير ازسوي امريكا مبني بر تمايل به واكنش، شايد مي‌توانست چين را از تشديد تنش بازدارد و حتي به احتمال زياد چنين پيام‌هايي دنبال مي‌شد اگر مقام‌هاي امريكايي تحت تاثير سامانه‌هاي هوش مصنوعي مسموم‌ شده و افكار عمومي تحريف ‌شده، دلسرد نشده بودند. به اين ترتيب، هوش مصنوعي به جاي تقويت بازدارندگي، اعتبار امريكا را تضعيف و راه را براي تهاجم چين هموار كرده است.هرچه سامانه‌هاي هوش مصنوعي بيشتر در مركز تصميم‌گيري رهبران قرار بگيرند، مي‌توانند به جنگ اطلاعاتي نقشي تازه و بسيار قدرتمند در اجبار و درگيري بدهند، بنابراين براي تقويت بازدارندگي در عصر هوش مصنوعي، سياستگذاران، برنامه‌ريزان دفاعي و نهادهاي اطلاعاتي بايد با شيوه‌هايي كه از طريق آنها مي‌توان مدل‌هاي هوش مصنوعي را به سلاح تبديل كرد، صريح و جدي روبه‌رو و مطمئن شوند دفاع ديجيتال در برابر اين تهديدها همپاي آنها پيش مي‌رود. نتيجه بحران‌هاي آينده ممكن است به همين موضوع وابسته باشد.

​ جايگاه هوش مصنوعي در ميدان بازدارندگي
با هدف اينكه بازدارندگي عمل كند، طرف مقابل بايد باور داشته باشد كه مدافع هم توان تحميل هزينه‌هاي سنگين را دارد و هم اگر به چالش كشيده شود، براي واكنشي جدي مصمم است. برخي مولفه‌هاي قدرت نظامي قابل مشاهده‌اند، اما برخي ديگر-مانند برخي توانمندي‌هاي تسليحاتي، سطح آمادگي و ظرفيت‌هاي بسيج-از بيرون سخت‌تر ارزيابي مي‌شوند؛ عزم و اراده حتي مبهم‌تر است، چون معمولا فقط رهبران يك كشور دقيقا مي‌دانند تا چه اندازه حاضرند وارد جنگ شوند، بنابراين بازدارندگي به اين بستگي دارد كه يك كشور تا چه حد بتواند هم توانايي‌هايش و هم آمادگي‌اش براي اقدام را به شكلي باورپذير علامت‌دهي كند. اقدام‌هاي پرهزينه نظامي، مثل جابه‌جايي نيروها يا بالا بردن سطح آمادگي، اعتبار مي‌آفرينند، چون زمان، منابع و ريسك سياسي مي‌طلبند؛ براي نمونه پس از حمله يك گروه شبه‌نظامي پاكستاني به پارلمان هند در سال ۲۰۰۱، هند با تجمع نيرو در مرز پاكستان و با ارسال پيام‌هاي معتبر درباره توان و اراده خود، از تداوم حملات به خاكش جلوگيري كرد. فشارهاي سياسي داخلي در دموكراسي‌ها نيز مي‌تواند اعتبار رهبران و احزاب را تقويت كند، زيرا رهبران دموكراتيك در برابر شهروندان پاسخگو هستند. با اين همه همين گزاره مي‌تواند تهديد باشد، چراكه عقب‌نشيني مي‌تواند هزينه سياسي و واكنش منفي به همراه داشته باشد؛ مثلا در سال ۱۹۸۲ پس از تصرف جزاير فالكلند توسط آرژانتين، فشار شديد افكار عمومي در بريتانيا عزم مارگارت تاچر را براي كنش تقويت كرد و به تهديد بريتانيا براي پاسخ نظامي اعتبار بيشتري داد. چنين سازوكاري براي پاسخگويي معمولا باعث مي‌شود تهديدهاي بازدارنده دولت‌هاي دموكراتيك نسبت به دولت‌هاي خودكامه وزن بيشتري داشته باشد. سرعت هم عامل مهمي است: تهديدهاي يك دولتِ بازدارنده وقتي باورپذيرتر مي‌شود كه چنين به نظر برسد قادر است در برابر تهديد، سريع و حتي به‌صورت خودكار دست به اقدام بزند.
در نگاه اول، هوش مصنوعي به ‌نظر مي‌رسد ابزار مناسبي براي تقويت بازدارندگي باشد، چون با پردازش حجم عظيمي از داده‌ها مي‌تواند اطلاعات دقيق‌تر فراهم كند، پيام‌ها و نشانه‌ها را روشن‌تر سازد و با ارايه تحليل‌هايي سريع‌تر و جامع‌تر، تصميم‌گيري رهبران را شتاب بدهد. در جنگ اوكراين، ابزارهاي هوش مصنوعي به ارتش اوكراين امكان مي‌دهند تصاوير ماهواره‌اي و پهپادي را اسكن كند تا جابه‌جايي نيروها و تجهيزات روسيه، محل استقرار موشك‌ها و مسيرهاي تداركاتي را شناسايي كند؛ داده‌هاي راداري و سيگنال‌هاي صوتي و راديويي را استخراج و تجميع كند و همچنين به سرعت ميان دستورالعمل‌هاي آموزشي، گزارش‌هاي اطلاعاتي و ساير منابع جست‌وجو كند تا تصويري كامل‌تر از توان رزمي نيروهاي روسيه به دست آورد. براي برنامه‌ريزان دفاعي، چنين اطلاعاتي ارزيابي روشن‌تري از توان نظامي خود در مقايسه با توانمندي‌هاي طرف مقابل فراهم مي‌كند.هوش مصنوعي همچنين مي‌تواند بازدارندگي را تقويت كند، چون كمك مي‌كند اقدامات هر طرف به‌طور شفاف به طرف ديگر منتقل شود. از آنجا كه دولت‌ها اغلب انگيزه دارند بلوف بزنند، ممكن است در نشان دادن اينكه واقعا آماده‌اند تهديدهايشان را عملي كنند، دچار مشكل شوند. در مقابل، ابزارهاي مجهز به هوش مصنوعي بايد به شكلي طراحي شوند كه وقتي يك كشور براي نشان دادن عزم خود دست به اقدام‌هاي پرهزينه مي‌زند، اين اقدامات پيامي سريع، روشن و يكدست به طرف مقابل مخابره شود. سپس سامانه‌هاي هوش مصنوعي طرف مقابل مي‌توانند اين پيام‌ها را به شكلي كارآمدتر تفسير كنند و خطر برداشت نادرست كاهش يابد. براي مثال، با رصد لحظه‌به‌لحظه افكار عمومي داخلي، ابزارهاي هوش مصنوعي مي‌تواند به يك كشور دموكراتيك كمك كند تا نشان دهد براي اقدام آماده است، چون آشكار مي‌كند واكنشِ تهديد شده واقعا پشتوانه سياسي دارد. در ادامه، رقيب مي‌تواند با ابزارهاي هوش مصنوعي خودش نيز بررسي و تاييد كند كه اين حمايت واقعي است. همچنين استفاده از هوش مصنوعي براي پيدا كردن الگوها و ناهنجاري‌هايي كه ممكن است از چشم انسان پنهان بماند-مثل تغييرات ناگهاني در جابه‌جايي نيروها، جريان‌هاي مالي يا فعاليت‌هاي سايبري-مي‌تواند به رهبران تصوير روشن‌تري از نيت‌هاي طرف مقابل بدهد.از آنجايي كه يك مهاجم مي‌تواند حتي از تاخيرهاي جزيي در واكنشِ كشورِ هدف سوءاستفاده كند-براي تصرف قلمرو يا پيشبرد اهداف ديگر-بازدارندگي زماني بهترين كاركرد را دارد كه كشورِ هدف بتواند مهاجم را قانع كند آن‌قدر سريع پاسخ خواهد داد كه هيچ برتري زماني دراختيار او قرار نگيرد. هوش مصنوعي با امكان دادن به مدافعان براي شناسايي زودترِ چالش‌ها و واكنش سريع‌تر، به تقويت اين برداشت كمك مي‌كند. بهبود برنامه‌ريزي بلندمدتِ رهبران نيز مي‌تواند در بحران‌هاي طولاني‌تر، اعتبار را تقويت و حفظ كند. هوش مصنوعي با اجراي شمار زيادي سناريو «تا جايي كه امكان دارد» با استفاده از داده‌هاي مربوط به نيرو، جغرافيا، خطوط تداركات و اتحادها مي‌تواند تصويري روشن‌تر از مسير احتمالي يك درگيري به رهبران بدهد و كمك كند همزمان با تغيير شرايط، راهبردهاي سازگار و باثباتي را حفظ كند.

قدرت و آسيب‌پذيري
با اين همه فناوري‌هاي هوش مصنوعي كه بازدارندگي را تقويت مي‌كنند، اين توان را دارند كه اين سيستم را در برابر سوءاستفاده نيز آسيب‌پذير كنند. به جاي اينكه به يك كشور كمك كنند دانسته‌هايش درباره خودش را به شكلي باورپذير منتقل كند، سامانه‌هاي هوش مصنوعي-اگر دستكاري شوند-ممكن است رهبران را نسبت به توانمندي‌ها و عزم و اراده خودشان دچار ترديد كنند. دشمنان مي‌توانند از هوش مصنوعي براي منحرف كردن افكار عمومي استفاده كنند يا همان سامانه‌هاي هوش مصنوعي را كه رهبران يك كشور به آنها متكي‌اند با «مسموم‌سازي» داده‌ها آلوده كنند. با به‌كارگيري همزمان اين دو تاكتيك-عمليات نفوذِ مجهز به هوش مصنوعي و مسموم‌سازي مدل‌هاي هوش مصنوعي-يك دشمن مي‌تواند محيط اطلاعاتي يك كشور را طوري بازآرايي كند كه مستقيما بر بازدارندگي آن اثر بگذارد. در بدترين حالت، چنين سردرگمي‌اي ممكن است باعث شود بازدارندگي يك كشور از كار بيفتد، حتي وقتي توانايي‌هاي واقعي و عزم آن در اصل قوي است.يك دشمن همچنين مي‌تواند عمليات نفوذ را هم افكار عمومي يك كشور و هم چهره‌هاي اثرگذار بر بحث ملي آن-ازجمله تصميم‌گيران دولتي-هدف بگيرد. پيشرفت‌هاي اخير در علم داده و هوش مصنوعي مولد، عمليات نفوذ را در سه حوزه به‌هم‌پيوسته بسيار نيرومندتر كرده است: شناسايي هدف، ساخت «پرسونا» (هويت‌هاي جعلي/نمايشي) و توليد محتواي اختصاصي متناسب با هر فرد. پيش‌تر، دشمناني كه مي‌خواستند تبليغات هدفمند به‌كار بگيرند معمولا فقط مي‌توانستند افراد را براساس ويژگي‌هاي مشابه در قالب خوشه‌هايي دسته‌بندي كنند؛ اما با هوش مصنوعي مدرن مي‌توانند اين فرآيند را خودكار و با كمك علم داده، افراد را در مقياسي عظيم و در سطح تك‌تك اشخاص هدف‌گيري كنند.با اين ابزارها، هوش مصنوعي مي‌تواند پيش‌بيني كند كه افرادِ هدف تا چه اندازه در برابر روايت‌هاي مشخص يا در برابر پروفايل‌هاي جعلي شبكه‌هاي اجتماعي-كه براي جلب‌توجه آنها طراحي شده‌اند-آسيب‌پذير هستند. در گذشته بات‌ها دست‌وپاگير و به ‌راحتي قابل شناسايي بودند، اما امروز هوش مصنوعي مولد مي‌تواند «پرسوناهاي مصنوعي» بسازد كه واقعي به نظر مي‌رسند و به‌ سادگي شناسايي نمي‌شوند. اين پروفايل‌هاي جعلي مي‌توانند به مرور زمان طوري پرورش داده شوند كه از كاربران واقعي قابل تمايز نباشند؛ با الگوهاي انتشار واقع‌گرايانه، علايق باورپذير و حتي ريزه‌كاري‌ها و عادت‌هاي زباني. علاوه بر اين، اكنون مي‌توان حساب‌هاي جعلي را در مقياسي بسيار بزرگ ساخت و اداره كرد و همين موضوع تشخيص آنها را دشوارتر مي‌كند. چنين تحولاتي به اين پرسوناها اجازه مي‌دهد محتواي ساختگي را به درون جوامع هدف تزريق كنند؛ وقتي در چندين پلتفرم شبكه اجتماعي «كاشت» شوند، مي‌توانند مسير بحث‌ها را هدايت كنند و شكاف‌ها را شعله‌ور سازند. براي نمونه، براي تضعيف عزم عمومي در ايالات‌متحده، اين پرسوناهاي جعلي ممكن است ادعاهايي را پخش كنند مبني بر اينكه ارتش امريكا بيش از حد درگير و فرسوده شده، متحدان از امنيتِ تامين ‌شده توسط امريكا مجاني‌سواري مي‌كنند يا برخي اهداف بين‌المللي ارزش جنگيدن ندارند. تقويت و تكرار پيام‌ها در پلتفرم‌هاي متعدد مي‌تواند اطلاعات دروغ را «واقعي» جلوه دهد يا دست‌كم آن‌قدر سردرگمي ايجاد كند كه اجماع عمومي درباره يك موضوع را از بين ببرد.

جنگ‌شناختي
​​با استفاده از هزاران حساب جعلي منحصربه‌فرد، ابزارهاي هوش مصنوعي ممكن است به زودي بتوانند براي كل يك جمعيت، محتواي اختصاصي متناسب با هر فرد را به ‌صورت لحظه‌اي منتشر كنند. اين «جنگ‌شناختي» است و پيامدهاي آن براي بازدارندگي روشن است، چون بخش مهمي از اعتبار بازدارنده يك دموكراسي به فشارهاي سياسي داخلي گره خورده، عمليات‌هايي كه احساسات و نگرش عمومي را دستكاري مي‌كنند، مي‌توانند پيام‌هاي عزم و اراده آن دولت را تضعيف كنند. دستكاري‌هاي مبتني بر هوش مصنوعي ممكن است باعث شود مخاطب داخلي يك كشور كمتر حاضر باشد از واكنش نظامي قاطع به يك اقدام تجاوزكارانه خارجي-به‌ويژه اگر عليه يك متحد باشد-حمايت كند و در نتيجه داده‌هاي نظرسنجي و ديگر نشانه‌هاي به‌ ظاهر تجربي افكار عمومي را كه رهبران دموكراتيك به آن توجه مي‌كنند، منحرف سازد. اين وضعيت مي‌تواند رهبران را نسبت به ميزان حمايت واقعي‌اي كه دراختيار دارند و مقدار واكنش منفي‌اي كه در صورت كوتاه آمدن ممكن است با آن روبه‌رو شوند، دچار ترديد كند. چنين عدم‌ قطعيتي مي‌تواند به دودلي بينجامد، عزم رهبران را سست كند و تصميم‌گيري آنها را تيره و مبهم سازد و همه اينها باعث مي‌شود تهديدهاي بازدارنده يك كشور كمتر قانع‌كننده به نظر برسد.گروه‌هاي همسو با دولت‌ها همين حالا هم در حال آزمودن راه‌هايي هستند تا از طريق عمليات نفوذِ مجهز به هوش مصنوعي، امنيت اطلاعات را تضعيف كنند. يكي از نمونه‌ها «گو‌لكسي» (GoLaxy) است؛ شركتي چيني كه از ابزارهاي هوش مصنوعي مولد و مجموعه‌داده‌هاي عظيمِ متن‌باز استفاده مي‌كند تا براي افرادِ تحت رصد، پرونده‌هاي روان‌شناختي دقيق بسازد و در مقياسي گسترده «پرسوناهاي مصنوعي» به كار بگيرد؛ پرسوناهايي كه رفتار كاربران واقعي را تقليد مي‌كنند. اين شركت معمولا در كارزارهايش اطلاعات دقيق درباره چهره‌هاي اثرگذار را جمع‌آوري مي‌كند، سپس با تكيه بر همان اطلاعات پيام‌هايي توليد مي‌كند كه احتمالا براي مخاطبان هدف قانع‌كننده‌تر است و بعد اين پيام‌ها را از طريق هويت‌هاي شبكه ‌اجتماعي حساب‌ شده و از پيش طراحي ‌شده منتشر مي‌كند. با رسيدن به سطح بالايي از دقت و با تقويت روايت‌هاي گمراه‌كننده در چندين پلتفرم، چنين عمليات‌هايي مي‌تواند سردرگمي ايجاد كند، گفت‌وگوي عمومي را فرسوده و مسموم سازد و پايگاه داخلي‌اي را كه باعث مي‌شود پيام‌هاي بازدارنده در خارج از كشور باورپذير به نظر برسد، تضعيف كند. همسويي گو‌لكسي با اولويت‌هاي دولت چين و ارتباطش با نهادهاي پژوهشي وابسته به دولت و شركت‌هاي فعال در حوزه ابررساناها، آن را به يك ماشين تبليغاتي پيشرفته تبديل مي‌كند.اسنادي كه در موسسه امنيت ملي دانشگاه وندربيلت بررسي شده‌اند، نشان مي‌دهد گو‌لكسي پيش‌تر در هنگ‌كنگ و تايوان عمليات انجام داده و همچنين در حال گردآوري پرونده‌هايي درباره اعضاي كنگره امريكا و نيز چهره‌هاي عمومي در سراسر جهان بوده است. دشمنان مي‌توانند براي مقاصد راهبردي، درباره سياستمداران، فرماندهان نظامي و سربازان پرونده‌هاي جامع و مفصلي تهيه كنند. عمليات‌هاي «پرسونا» كه با دقت بسيار هدف‌گيري مي‌شوند، سپس مي‌توانند از اين اطلاعات استفاده كنند. براي مثال، براي كسب پيروزي‌هاي تاكتيكي، دشمنان ممكن است سربازان را با پيام‌هاي ديپ‌فيك هدف بگيرند؛ پيام‌هايي كه برداشت‌هاي نادرست از وضعيت ميدان نبرد يا شرايط داخل كشور القا مي‌كند و اگر اين جعل‌ها با جزييات شخصي درست از زندگي آن سربازان همراه شود، مي‌تواند آن‌قدر واقعي به نظر برسد كه حواسشان را پرت كند يا انسجام يگان را مختل سازد. در عرصه سياسي نيز دشمنان مي‌توانند عكس‌هاي واقعي سياستمداران را با صداي كلون‌ شده يا چهره‌هاي دستكاري ‌شده تركيب كنند. حتي اگر اين مواد هرگز منتشر نشوند، صرفِ تهديدِ افشاي آنها مي‌تواند لحن و مواضع هدف‌ها را محتاط‌تر كند، روندهاي قانونگذاري را متوقف يا كند سازد يا اراده رهبران را تضعيف كند. از منظر راهبردي هم طرف‌هاي متخاصم مي‌توانند صحنه‌هايي را شبيه‌سازي كنند كه در آن مقام‌هاي مسوول دستورهاي دروغين براي «عقب‌نشيني/توقف عمليات» صادر مي‌كنند يا نيروها را به كانال‌هاي ارتباطي جايگزين منحرف مي‌سازند؛ وضعيتي كه مي‌تواند يك پنجره زماني ايجاد كند تا دشمن در آن پيشروي كند. حاصلِ چنين وضعي، «مهِ شناختي جنگ» است.

مسموم‌ كردن چاه اطلاعات
 مسير ديگري كه دشمنان مي‌توانند از آن براي ايجاد عدم قطعيت براي مدافعان استفاده كنند، «مسموم‌سازي مدل» است؛ يعني دستكاري راهبردي سامانه‌هاي هوش مصنوعي‌اي كه دولت‌ها براي پشتيباني اطلاعاتي و كمك به تصميم‌گيري به آنها تكيه مي‌كنند. با آلوده كردن داده‌هاي آموزشي اين سامانه‌ها يا به خطر انداختن مسيرهاي تحليلي آنها، دشمنان مي‌توانند درك مدافع را از ميزان قدرت نسبي‌اش و از فوريتِ تهديد، منحرف كنند. سامانه‌اي كه توان دشمن را كمتر از واقع برآورد كند، مي‌تواند در مدافع اعتمادبه‌نفسِ بي‌جا ايجاد كند و سامانه‌اي كه ماهيت تهديد را بزرگ‌نمايي كند ممكن است ترديد و دودلي به وجود آورد. در هر دو حالت، دستكاري موثرِ چنين سامانه‌هاي هوش مصنوعي مي‌تواند فراتر از پيچيده‌تر كردن مديريت بحران براي مدافع عمل كند، مي‌تواند اعتبار پيام‌هاي بازدارنده او را تضعيف كند و درنتيجه خطرهاي جدي و خطرناكي به وجود آورد.
در اصل، مسموم‌سازي با دستكاري خط لوله داده‌اي (data pipeline) بسان يك مدل عمل مي‌كند، به‌طوري‌ كه مدل برخي اطلاعات مهم را ناديده بگيرد و ورودي‌هاي نادرست را جذب كند. اين روند مي‌تواند سامانه را به سمت ارزيابي‌هاي گمراه‌كننده يا تضعيف‌شده سوق دهد. يكي از روش‌ها اين است كه اطلاعات جعلي را در مجموعه‌داده‌هايي «بكارند» كه يك سامانه هوش مصنوعي براي يادگيري آنها را مي‌بلعد. اين اطلاعات پنهان ممكن است براي بازبين‌هاي انساني بي‌ضرر به نظر برسد، اما با اين حال مي‌تواند توان استدلالِ مدل را تضعيف يا منحرف كند مثلا با فريب دادن مدل براي اينكه برخي انواع بدافزار را «بي‌خطر» علامت‌گذاري كند تا دشمن بتواند از پشت يك ديوار آتشِ مبتني بر هوش مصنوعي عبور كند. هرچند تاكنون هيچ نمونه ثبت ‌شده‌اي از چنين رويكردي گزارش نشده، پژوهش‌هاي فعلي هوش مصنوعي نشان داده‌اند كه مجموعه‌داده‌هاي موجود در برابر اين نوع حمله مسموم‌سازي داده آسيب‌پذيرند. چيزي كه زماني صرفا نظري بود، اكنون در عمل امكان‌پذير شده است.مدل‌ها همچنين مي‌توانند با ساختن وب‌صفحه‌هاي آلوده «مسموم» شوند. سامانه هوش مصنوعي ممكن است دايما براي يافتن اطلاعات تازه، جست‌وجوهاي زنده در اينترنت انجام دهد؛ اين وب‌سايت‌ها قادرند دستورالعمل‌هاي پنهان را به اين سيستم تزريق كرده و ارزيابي مدل را منحرف سازند. اگر فيلترهايي كه داده‌هاي ورودي را غربال مي‌كنند ضعيف باشند، حتي تعداد كمي سايتِ آلوده هم مي‌تواند پاسخ‌هاي نادرست ايجاد كند.مسموم‌سازي مدل شكلي پنهانكارانه از جنگ اطلاعاتي است، اين كنش به دشمن اجازه مي‌دهد برداشت‌هاي يك مدافع را درباره توانمندي‌ها و عزم-چه توان و عزم خودش و چه ديگران-تحريف كند؛ آن هم با تغيير دادن سازوكار همان ابزارهايي كه قرار بوده وضوح و شفافيت ايجاد كنند. در يك بحران، اين مسموم‌سازي مي‌تواند رهبر را به ترديد بكشاند يا-بدتر از آن-به محاسبه غلط وادار كند؛ درنتيجه بازدارندگي تضعيف و راه براي تشديد تنش باز مي‌شود.

​ميدان وقتي پيش دستي هموار مي‌شود!
 انتظار مي‌رفت با ظهور سامانه‌هاي هوش مصنوعي، بازدارندگي تقويت شود؛ چون اين سامانه‌ها پيام‌هايي روشن‌تر درباره توانمندي‌ها و عزمِ يك مدافع به دشمنان مي‌فرستند، اما گسترش جنگ اطلاعاتي كه با تكيه بر همين سامانه‌ها پيش مي‌رود، تهديد مي‌كند نتيجه‌اي كاملا معكوس رقم بزند. حتي در مراحل ابتدايي، اين نوع تازه از جنگ اطلاعاتي نشان داده كه فناوري‌هاي هوش مصنوعي مي‌توانند بر شيوه تفسير اطلاعات اثر بگذارند، در فرآيندهاي قضاوت عدم‌ قطعيت ايجاد كنند و داده‌هايي را كه تصميم‌گيري بر آنها بنا مي‌شود، تحريف كنند. اين تهديدها با پيشرفت هوش مصنوعي، فقط نيرومندتر خواهند شد.حتي كشور قدرتمندي مانند ايالات‌متحده نيز ممكن است اگر در معرض جنگ اطلاعاتي پيشرفته و مجهز به هوش مصنوعي قرار بگيرد، در ارسال پيام‌هاي معتبرِ بازدارنده با مشكل مواجه شود. براي سياستگذاران و شهروندان، چالش اصلي اين است كه چگونه مي‌توان از مزاياي هوش مصنوعي بهره برد و در عين حال جلوي تبديل شدن آن به سلاح را گرفت. راهبردهاي مقابله با اين تهديد تازه بايد به همان سرعتي توسعه پيدا كند كه فناوري‌هاي زيربنايي آن در حال پيشرفت هستند.مقابله با اين چالش مستلزم آن است كه دولت‌ها و پژوهشگران اقدام‌هايي انجام دهند تا سامانه‌هاي تحليلي را در برابر مسموم‌سازي مدل مقاوم‌تر كنند و هر زمان كه عمليات نفوذِ مجهز به هوش مصنوعي شناسايي شد، به‌طور فعال با آن مقابله كنند. براي نمونه، براي خنثي كردن فعاليت شركت‌هايي مانند گو‌لكسي، ايالات‌متحده و متحدانش بايد بتوانند شبكه‌هاي مصنوعي را با سرعت تشخيص دهند و مختل كنند، آن‌هم با ابزارهايي كه قادرند «پرسوناهاي» مبتني بر هوش مصنوعي را پيش از آنكه جا بيفتند، شناسايي و بي‌اثر كنند. كارزارهاي آموزشي درباره رسانه‌هاي مصنوعي و شيوه‌هاي شناسايي آن نيز مي‌تواند آگاهي عمومي نسبت به اين تهديد را افزايش دهد. دولت‌هاي دموكراتيك، پلتفرم‌هاي شبكه‌هاي اجتماعي و هوش مصنوعي و پژوهشگران ميان‌رشته‌اي بايد با همكاري يكديگر چنين راه‌حل‌هايي را توسعه دهند.در سطح راهبردي، ايالات‌متحده بايد در فناوري‌هايي سرمايه‌گذاري كند كه بتوانند پيام‌هاي مصنوعي را به سرعت شناسايي كنند. دولت، دانشگاه و بخش خصوصي بايد سازوكارهاي تازه‌اي براي ايمن‌سازي تصميم‌گيري و سامانه‌هاي پالايش داده طراحي كنند كه در برابر ورودي‌هاي آلوده تاب بياورند و همزمان با متحدان امريكا همكاري كنند تا عاملان كارزارهاي اطلاعاتي گسترده را افشا كرده و مجازات كنند. افزون بر اين، اين ائتلاف بايد مدل‌هاي جديد را به‌ صورت نظام‌مند آزمايش كند تا كاستي‌ها را از ريشه بيرون بكشد-از‌جمله انواعي از مسموم‌سازي داده كه ممكن است در استفاده روزمره آشكار نباشد-و اين كار را با شفافيتي سخت‌گيرانه انجام دهد تا امكان داوري و بازبيني همتايان فراهم شود. وجود تدابير حفاظتي تاب‌آور و آزمون‌هاي دقيق لازم است تا اطمينان حاصل شود سامانه‌هاي هوش مصنوعي در لحظات فشار يا بحرانِ فوق‌العاده، به شكلي قابل اتكا عمل مي‌كنند.در عصر هوش مصنوعي، بازدارندگي ديگر نمي‌تواند صرفا بر توانمندي‌ها و اراده استوار باشد، بلكه مستلزم آن است كه رهبران، راهبردپردازان دفاعي و ديگر تصميم‌گيران بتوانند قابليت اتكاي محيط اطلاعاتي خود را حفظ كنند حتي در ميانه تحريف ديجيتالِ گسترده.
ترجمه:  نوشين محجوب
٭ دانشيار علوم سياسي و مطالعات آسيايي در دانشگاه وندربيلت 
 ٭٭ مشاور ويژه رييس دانشگاه در امور امنيت ملي و ابتكارهاي راهبردي و نيز استاد پژوهشي در دانشكده مهندسي دانشگاه وندربيلت

 

 

ارسال دیدگاه شما

ورود به حساب کاربری
ایجاد حساب کاربری
عنوان صفحه‌ها