چگونه پيشرفتها در حوزه فناوري تعاملات بازيگران بينالمللي را تحت تاثير قرار داده است؟
بازدارندگي در عصر ديجيتال
برت وي. بنسون٭
برت جي. گلدستين٭٭
هوش مصنوعي با سرعت زيادي در حال تبديل شدن به ابزاري ضروري براي تصميمگيريها در حوزه امنيت ملي است. ارتشهاي سراسر جهان همين حالا هم به مدلهاي هوش مصنوعي تكيه ميكنند تا تصاوير ماهوارهاي را پالايش و تحليل كنند، تواناييها و ظرفيتهاي دشمنان را ارزيابي كنند و براي اينكه نيرو در چه زمان، كجا و به چه شيوهاي به كار گرفته شود، توصيههايي ارايه دهند. با پيشرفت اين سامانهها، انتظار ميرود شيوه واكنش دولتها به تهديدها دگرگون شود. اما در عين حال، پلتفرمهاي پيشرفته هوش مصنوعي ميتوانند بازدارندگي را تضعيف كنند؛ مفهومي كه مدتها زيربناي كلي راهبرد امنيتي ايالاتمتحده بوده است.هوش مصنوعي با شتاب زيادي در حال تبديل شدن به ابزاري ضروري براي تصميمگيريهاي امنيت ملي است. ارتشهاي سراسر جهان هماكنون به مدلهاي هوش مصنوعي اتكا دارند تا تصاوير ماهوارهاي را غربال كنند، توانمنديهاي رقيبان را بسنجند و درباره اينكه نيرو چه زماني، كجا و چگونه بايد به كار گرفته شود، توصيههايي توليد كنند. با پيشرفت اين سامانهها، انتظار ميرود شيوه واكنش دولتها به تهديدها دگرگون شود. اما پلتفرمهاي پيشرفته هوش مصنوعي همزمان ميتوانند بازدارندگي را تضعيف كنند؛ مفهومي كه مدتها شالوده كلي راهبرد امنيتي ايالاتمتحده بوده است.بازدارندگي موثر به اين وابسته است كه يك كشور به شكلي باورپذير هم توانايي و هم اراده وارد كردن آسيبي غيرقابل قبول به دشمن را داشته باشد. هوش مصنوعي برخي پايههاي اين باورپذيري را تقويت ميكند. اطلاعات بهتر، ارزيابيهاي سريعتر و تصميمگيري باثباتتر ميتواند بازدارندگي را تقويت كند، چون توان دفاعي يك كشور و نيز عزمِ ظاهري آن براي استفاده از اين توان را روشنتر به طرف مقابل منتقل ميكند. با اين حال دشمنان ميتوانند از هوش مصنوعي براي خنثي كردن همين اهداف نيز بهره ببرند: ميتوانند دادههاي آموزشي مدلهايي را كه كشورها به آنها تكيه ميكنند، آلوده كنند و در نتيجه خروجي آنها را تغيير دهند يا عمليات نفوذ و اثرگذاري مجهز به هوش مصنوعي را براي جهتدهي به رفتار مقامهاي كليدي به راه بيندازند. در يك بحرانِ پرمخاطره، چنين دستكاريهايي ميتواند توان يك دولت را براي حفظ بازدارندگي باورپذير محدود كند و تصميمگيري رهبرانش را منحرف سازد يا حتي فلج كند.در سناريوي يك بحران، تصور كنيد چين تحريمهاي اقتصادي گستردهاي عليه تايوان اعمال كرده و رزمايشهاي بزرگمقياس نظامي را در اطراف اين جزيره آغاز كرده است. مقامهاي دفاعي امريكا براي تدوين واكنش ايالاتمتحده به سامانههاي مجهز به هوش مصنوعي روي ميآورند بيآنكه بدانند عمليات اطلاعاتي چين پيشتر با «مسمومسازي» دادههاي آموزشي و وروديهاي اصلي، اين سامانهها را آلوده و منحرف كرده است. در نتيجه، مدلها توان واقعي چين را بيش از اندازه برآورد ميكنند و ميزان آمادگي امريكا را كمتر از واقع نشان ميدهند و ارزيابياي جانبدارانه توليد ميكنند كه درنهايت، امريكا را از بسيج نيروها بازميدارد. همزمان، كارزارهاي نفوذ چين كه با موجهاي ناگهاني محتواي جعلي توليد شده با هوش مصنوعي در پلتفرمهايي مانند فيسبوك و تيكتاك تقويت شدهاند، حمايت افكار عمومي امريكا از مداخله را كاهش ميدهند. رهبران امريكا كه ديگر نميتوانند اطلاعات خود را درست تفسير كنند و سنجش دقيقي از نظر و احساسات عمومي داشته باشند، ممكن است به اين جمعبندي برسند كه اقدام قاطعانه بيش از حد پرريسك است. چين كه احساس ميكند فرصت مناسبي پيش آمده، اكنون محاصره كامل تايوان را آغاز ميكند و حملات پهپادي را به جريان بيندازد. همچنين جزيره را با ديپفيكهايي اشباع ميكند كه در آنها مقامهاي امريكايي از آمادگي خود براي واگذاري تايوان سخن ميگويند، نظرسنجيهاي جعلياي كه فروپاشي حمايت افكار عمومي امريكا را نشان ميدهد و شايعاتي درباره رها كردن تايوان ازسوي ايالاتمتحده پخش ميشود. در چنين وضعي، ارسال پيامهاي باورپذير ازسوي امريكا مبني بر تمايل به واكنش، شايد ميتوانست چين را از تشديد تنش بازدارد و حتي به احتمال زياد چنين پيامهايي دنبال ميشد اگر مقامهاي امريكايي تحت تاثير سامانههاي هوش مصنوعي مسموم شده و افكار عمومي تحريف شده، دلسرد نشده بودند. به اين ترتيب، هوش مصنوعي به جاي تقويت بازدارندگي، اعتبار امريكا را تضعيف و راه را براي تهاجم چين هموار كرده است.هرچه سامانههاي هوش مصنوعي بيشتر در مركز تصميمگيري رهبران قرار بگيرند، ميتوانند به جنگ اطلاعاتي نقشي تازه و بسيار قدرتمند در اجبار و درگيري بدهند، بنابراين براي تقويت بازدارندگي در عصر هوش مصنوعي، سياستگذاران، برنامهريزان دفاعي و نهادهاي اطلاعاتي بايد با شيوههايي كه از طريق آنها ميتوان مدلهاي هوش مصنوعي را به سلاح تبديل كرد، صريح و جدي روبهرو و مطمئن شوند دفاع ديجيتال در برابر اين تهديدها همپاي آنها پيش ميرود. نتيجه بحرانهاي آينده ممكن است به همين موضوع وابسته باشد.
جايگاه هوش مصنوعي در ميدان بازدارندگي
با هدف اينكه بازدارندگي عمل كند، طرف مقابل بايد باور داشته باشد كه مدافع هم توان تحميل هزينههاي سنگين را دارد و هم اگر به چالش كشيده شود، براي واكنشي جدي مصمم است. برخي مولفههاي قدرت نظامي قابل مشاهدهاند، اما برخي ديگر-مانند برخي توانمنديهاي تسليحاتي، سطح آمادگي و ظرفيتهاي بسيج-از بيرون سختتر ارزيابي ميشوند؛ عزم و اراده حتي مبهمتر است، چون معمولا فقط رهبران يك كشور دقيقا ميدانند تا چه اندازه حاضرند وارد جنگ شوند، بنابراين بازدارندگي به اين بستگي دارد كه يك كشور تا چه حد بتواند هم تواناييهايش و هم آمادگياش براي اقدام را به شكلي باورپذير علامتدهي كند. اقدامهاي پرهزينه نظامي، مثل جابهجايي نيروها يا بالا بردن سطح آمادگي، اعتبار ميآفرينند، چون زمان، منابع و ريسك سياسي ميطلبند؛ براي نمونه پس از حمله يك گروه شبهنظامي پاكستاني به پارلمان هند در سال ۲۰۰۱، هند با تجمع نيرو در مرز پاكستان و با ارسال پيامهاي معتبر درباره توان و اراده خود، از تداوم حملات به خاكش جلوگيري كرد. فشارهاي سياسي داخلي در دموكراسيها نيز ميتواند اعتبار رهبران و احزاب را تقويت كند، زيرا رهبران دموكراتيك در برابر شهروندان پاسخگو هستند. با اين همه همين گزاره ميتواند تهديد باشد، چراكه عقبنشيني ميتواند هزينه سياسي و واكنش منفي به همراه داشته باشد؛ مثلا در سال ۱۹۸۲ پس از تصرف جزاير فالكلند توسط آرژانتين، فشار شديد افكار عمومي در بريتانيا عزم مارگارت تاچر را براي كنش تقويت كرد و به تهديد بريتانيا براي پاسخ نظامي اعتبار بيشتري داد. چنين سازوكاري براي پاسخگويي معمولا باعث ميشود تهديدهاي بازدارنده دولتهاي دموكراتيك نسبت به دولتهاي خودكامه وزن بيشتري داشته باشد. سرعت هم عامل مهمي است: تهديدهاي يك دولتِ بازدارنده وقتي باورپذيرتر ميشود كه چنين به نظر برسد قادر است در برابر تهديد، سريع و حتي بهصورت خودكار دست به اقدام بزند.
در نگاه اول، هوش مصنوعي به نظر ميرسد ابزار مناسبي براي تقويت بازدارندگي باشد، چون با پردازش حجم عظيمي از دادهها ميتواند اطلاعات دقيقتر فراهم كند، پيامها و نشانهها را روشنتر سازد و با ارايه تحليلهايي سريعتر و جامعتر، تصميمگيري رهبران را شتاب بدهد. در جنگ اوكراين، ابزارهاي هوش مصنوعي به ارتش اوكراين امكان ميدهند تصاوير ماهوارهاي و پهپادي را اسكن كند تا جابهجايي نيروها و تجهيزات روسيه، محل استقرار موشكها و مسيرهاي تداركاتي را شناسايي كند؛ دادههاي راداري و سيگنالهاي صوتي و راديويي را استخراج و تجميع كند و همچنين به سرعت ميان دستورالعملهاي آموزشي، گزارشهاي اطلاعاتي و ساير منابع جستوجو كند تا تصويري كاملتر از توان رزمي نيروهاي روسيه به دست آورد. براي برنامهريزان دفاعي، چنين اطلاعاتي ارزيابي روشنتري از توان نظامي خود در مقايسه با توانمنديهاي طرف مقابل فراهم ميكند.هوش مصنوعي همچنين ميتواند بازدارندگي را تقويت كند، چون كمك ميكند اقدامات هر طرف بهطور شفاف به طرف ديگر منتقل شود. از آنجا كه دولتها اغلب انگيزه دارند بلوف بزنند، ممكن است در نشان دادن اينكه واقعا آمادهاند تهديدهايشان را عملي كنند، دچار مشكل شوند. در مقابل، ابزارهاي مجهز به هوش مصنوعي بايد به شكلي طراحي شوند كه وقتي يك كشور براي نشان دادن عزم خود دست به اقدامهاي پرهزينه ميزند، اين اقدامات پيامي سريع، روشن و يكدست به طرف مقابل مخابره شود. سپس سامانههاي هوش مصنوعي طرف مقابل ميتوانند اين پيامها را به شكلي كارآمدتر تفسير كنند و خطر برداشت نادرست كاهش يابد. براي مثال، با رصد لحظهبهلحظه افكار عمومي داخلي، ابزارهاي هوش مصنوعي ميتواند به يك كشور دموكراتيك كمك كند تا نشان دهد براي اقدام آماده است، چون آشكار ميكند واكنشِ تهديد شده واقعا پشتوانه سياسي دارد. در ادامه، رقيب ميتواند با ابزارهاي هوش مصنوعي خودش نيز بررسي و تاييد كند كه اين حمايت واقعي است. همچنين استفاده از هوش مصنوعي براي پيدا كردن الگوها و ناهنجاريهايي كه ممكن است از چشم انسان پنهان بماند-مثل تغييرات ناگهاني در جابهجايي نيروها، جريانهاي مالي يا فعاليتهاي سايبري-ميتواند به رهبران تصوير روشنتري از نيتهاي طرف مقابل بدهد.از آنجايي كه يك مهاجم ميتواند حتي از تاخيرهاي جزيي در واكنشِ كشورِ هدف سوءاستفاده كند-براي تصرف قلمرو يا پيشبرد اهداف ديگر-بازدارندگي زماني بهترين كاركرد را دارد كه كشورِ هدف بتواند مهاجم را قانع كند آنقدر سريع پاسخ خواهد داد كه هيچ برتري زماني دراختيار او قرار نگيرد. هوش مصنوعي با امكان دادن به مدافعان براي شناسايي زودترِ چالشها و واكنش سريعتر، به تقويت اين برداشت كمك ميكند. بهبود برنامهريزي بلندمدتِ رهبران نيز ميتواند در بحرانهاي طولانيتر، اعتبار را تقويت و حفظ كند. هوش مصنوعي با اجراي شمار زيادي سناريو «تا جايي كه امكان دارد» با استفاده از دادههاي مربوط به نيرو، جغرافيا، خطوط تداركات و اتحادها ميتواند تصويري روشنتر از مسير احتمالي يك درگيري به رهبران بدهد و كمك كند همزمان با تغيير شرايط، راهبردهاي سازگار و باثباتي را حفظ كند.
قدرت و آسيبپذيري
با اين همه فناوريهاي هوش مصنوعي كه بازدارندگي را تقويت ميكنند، اين توان را دارند كه اين سيستم را در برابر سوءاستفاده نيز آسيبپذير كنند. به جاي اينكه به يك كشور كمك كنند دانستههايش درباره خودش را به شكلي باورپذير منتقل كند، سامانههاي هوش مصنوعي-اگر دستكاري شوند-ممكن است رهبران را نسبت به توانمنديها و عزم و اراده خودشان دچار ترديد كنند. دشمنان ميتوانند از هوش مصنوعي براي منحرف كردن افكار عمومي استفاده كنند يا همان سامانههاي هوش مصنوعي را كه رهبران يك كشور به آنها متكياند با «مسمومسازي» دادهها آلوده كنند. با بهكارگيري همزمان اين دو تاكتيك-عمليات نفوذِ مجهز به هوش مصنوعي و مسمومسازي مدلهاي هوش مصنوعي-يك دشمن ميتواند محيط اطلاعاتي يك كشور را طوري بازآرايي كند كه مستقيما بر بازدارندگي آن اثر بگذارد. در بدترين حالت، چنين سردرگمياي ممكن است باعث شود بازدارندگي يك كشور از كار بيفتد، حتي وقتي تواناييهاي واقعي و عزم آن در اصل قوي است.يك دشمن همچنين ميتواند عمليات نفوذ را هم افكار عمومي يك كشور و هم چهرههاي اثرگذار بر بحث ملي آن-ازجمله تصميمگيران دولتي-هدف بگيرد. پيشرفتهاي اخير در علم داده و هوش مصنوعي مولد، عمليات نفوذ را در سه حوزه بههمپيوسته بسيار نيرومندتر كرده است: شناسايي هدف، ساخت «پرسونا» (هويتهاي جعلي/نمايشي) و توليد محتواي اختصاصي متناسب با هر فرد. پيشتر، دشمناني كه ميخواستند تبليغات هدفمند بهكار بگيرند معمولا فقط ميتوانستند افراد را براساس ويژگيهاي مشابه در قالب خوشههايي دستهبندي كنند؛ اما با هوش مصنوعي مدرن ميتوانند اين فرآيند را خودكار و با كمك علم داده، افراد را در مقياسي عظيم و در سطح تكتك اشخاص هدفگيري كنند.با اين ابزارها، هوش مصنوعي ميتواند پيشبيني كند كه افرادِ هدف تا چه اندازه در برابر روايتهاي مشخص يا در برابر پروفايلهاي جعلي شبكههاي اجتماعي-كه براي جلبتوجه آنها طراحي شدهاند-آسيبپذير هستند. در گذشته باتها دستوپاگير و به راحتي قابل شناسايي بودند، اما امروز هوش مصنوعي مولد ميتواند «پرسوناهاي مصنوعي» بسازد كه واقعي به نظر ميرسند و به سادگي شناسايي نميشوند. اين پروفايلهاي جعلي ميتوانند به مرور زمان طوري پرورش داده شوند كه از كاربران واقعي قابل تمايز نباشند؛ با الگوهاي انتشار واقعگرايانه، علايق باورپذير و حتي ريزهكاريها و عادتهاي زباني. علاوه بر اين، اكنون ميتوان حسابهاي جعلي را در مقياسي بسيار بزرگ ساخت و اداره كرد و همين موضوع تشخيص آنها را دشوارتر ميكند. چنين تحولاتي به اين پرسوناها اجازه ميدهد محتواي ساختگي را به درون جوامع هدف تزريق كنند؛ وقتي در چندين پلتفرم شبكه اجتماعي «كاشت» شوند، ميتوانند مسير بحثها را هدايت كنند و شكافها را شعلهور سازند. براي نمونه، براي تضعيف عزم عمومي در ايالاتمتحده، اين پرسوناهاي جعلي ممكن است ادعاهايي را پخش كنند مبني بر اينكه ارتش امريكا بيش از حد درگير و فرسوده شده، متحدان از امنيتِ تامين شده توسط امريكا مجانيسواري ميكنند يا برخي اهداف بينالمللي ارزش جنگيدن ندارند. تقويت و تكرار پيامها در پلتفرمهاي متعدد ميتواند اطلاعات دروغ را «واقعي» جلوه دهد يا دستكم آنقدر سردرگمي ايجاد كند كه اجماع عمومي درباره يك موضوع را از بين ببرد.
جنگشناختي
با استفاده از هزاران حساب جعلي منحصربهفرد، ابزارهاي هوش مصنوعي ممكن است به زودي بتوانند براي كل يك جمعيت، محتواي اختصاصي متناسب با هر فرد را به صورت لحظهاي منتشر كنند. اين «جنگشناختي» است و پيامدهاي آن براي بازدارندگي روشن است، چون بخش مهمي از اعتبار بازدارنده يك دموكراسي به فشارهاي سياسي داخلي گره خورده، عملياتهايي كه احساسات و نگرش عمومي را دستكاري ميكنند، ميتوانند پيامهاي عزم و اراده آن دولت را تضعيف كنند. دستكاريهاي مبتني بر هوش مصنوعي ممكن است باعث شود مخاطب داخلي يك كشور كمتر حاضر باشد از واكنش نظامي قاطع به يك اقدام تجاوزكارانه خارجي-بهويژه اگر عليه يك متحد باشد-حمايت كند و در نتيجه دادههاي نظرسنجي و ديگر نشانههاي به ظاهر تجربي افكار عمومي را كه رهبران دموكراتيك به آن توجه ميكنند، منحرف سازد. اين وضعيت ميتواند رهبران را نسبت به ميزان حمايت واقعياي كه دراختيار دارند و مقدار واكنش منفياي كه در صورت كوتاه آمدن ممكن است با آن روبهرو شوند، دچار ترديد كند. چنين عدم قطعيتي ميتواند به دودلي بينجامد، عزم رهبران را سست كند و تصميمگيري آنها را تيره و مبهم سازد و همه اينها باعث ميشود تهديدهاي بازدارنده يك كشور كمتر قانعكننده به نظر برسد.گروههاي همسو با دولتها همين حالا هم در حال آزمودن راههايي هستند تا از طريق عمليات نفوذِ مجهز به هوش مصنوعي، امنيت اطلاعات را تضعيف كنند. يكي از نمونهها «گولكسي» (GoLaxy) است؛ شركتي چيني كه از ابزارهاي هوش مصنوعي مولد و مجموعهدادههاي عظيمِ متنباز استفاده ميكند تا براي افرادِ تحت رصد، پروندههاي روانشناختي دقيق بسازد و در مقياسي گسترده «پرسوناهاي مصنوعي» به كار بگيرد؛ پرسوناهايي كه رفتار كاربران واقعي را تقليد ميكنند. اين شركت معمولا در كارزارهايش اطلاعات دقيق درباره چهرههاي اثرگذار را جمعآوري ميكند، سپس با تكيه بر همان اطلاعات پيامهايي توليد ميكند كه احتمالا براي مخاطبان هدف قانعكنندهتر است و بعد اين پيامها را از طريق هويتهاي شبكه اجتماعي حساب شده و از پيش طراحي شده منتشر ميكند. با رسيدن به سطح بالايي از دقت و با تقويت روايتهاي گمراهكننده در چندين پلتفرم، چنين عملياتهايي ميتواند سردرگمي ايجاد كند، گفتوگوي عمومي را فرسوده و مسموم سازد و پايگاه داخلياي را كه باعث ميشود پيامهاي بازدارنده در خارج از كشور باورپذير به نظر برسد، تضعيف كند. همسويي گولكسي با اولويتهاي دولت چين و ارتباطش با نهادهاي پژوهشي وابسته به دولت و شركتهاي فعال در حوزه ابررساناها، آن را به يك ماشين تبليغاتي پيشرفته تبديل ميكند.اسنادي كه در موسسه امنيت ملي دانشگاه وندربيلت بررسي شدهاند، نشان ميدهد گولكسي پيشتر در هنگكنگ و تايوان عمليات انجام داده و همچنين در حال گردآوري پروندههايي درباره اعضاي كنگره امريكا و نيز چهرههاي عمومي در سراسر جهان بوده است. دشمنان ميتوانند براي مقاصد راهبردي، درباره سياستمداران، فرماندهان نظامي و سربازان پروندههاي جامع و مفصلي تهيه كنند. عملياتهاي «پرسونا» كه با دقت بسيار هدفگيري ميشوند، سپس ميتوانند از اين اطلاعات استفاده كنند. براي مثال، براي كسب پيروزيهاي تاكتيكي، دشمنان ممكن است سربازان را با پيامهاي ديپفيك هدف بگيرند؛ پيامهايي كه برداشتهاي نادرست از وضعيت ميدان نبرد يا شرايط داخل كشور القا ميكند و اگر اين جعلها با جزييات شخصي درست از زندگي آن سربازان همراه شود، ميتواند آنقدر واقعي به نظر برسد كه حواسشان را پرت كند يا انسجام يگان را مختل سازد. در عرصه سياسي نيز دشمنان ميتوانند عكسهاي واقعي سياستمداران را با صداي كلون شده يا چهرههاي دستكاري شده تركيب كنند. حتي اگر اين مواد هرگز منتشر نشوند، صرفِ تهديدِ افشاي آنها ميتواند لحن و مواضع هدفها را محتاطتر كند، روندهاي قانونگذاري را متوقف يا كند سازد يا اراده رهبران را تضعيف كند. از منظر راهبردي هم طرفهاي متخاصم ميتوانند صحنههايي را شبيهسازي كنند كه در آن مقامهاي مسوول دستورهاي دروغين براي «عقبنشيني/توقف عمليات» صادر ميكنند يا نيروها را به كانالهاي ارتباطي جايگزين منحرف ميسازند؛ وضعيتي كه ميتواند يك پنجره زماني ايجاد كند تا دشمن در آن پيشروي كند. حاصلِ چنين وضعي، «مهِ شناختي جنگ» است.
مسموم كردن چاه اطلاعات
مسير ديگري كه دشمنان ميتوانند از آن براي ايجاد عدم قطعيت براي مدافعان استفاده كنند، «مسمومسازي مدل» است؛ يعني دستكاري راهبردي سامانههاي هوش مصنوعياي كه دولتها براي پشتيباني اطلاعاتي و كمك به تصميمگيري به آنها تكيه ميكنند. با آلوده كردن دادههاي آموزشي اين سامانهها يا به خطر انداختن مسيرهاي تحليلي آنها، دشمنان ميتوانند درك مدافع را از ميزان قدرت نسبياش و از فوريتِ تهديد، منحرف كنند. سامانهاي كه توان دشمن را كمتر از واقع برآورد كند، ميتواند در مدافع اعتمادبهنفسِ بيجا ايجاد كند و سامانهاي كه ماهيت تهديد را بزرگنمايي كند ممكن است ترديد و دودلي به وجود آورد. در هر دو حالت، دستكاري موثرِ چنين سامانههاي هوش مصنوعي ميتواند فراتر از پيچيدهتر كردن مديريت بحران براي مدافع عمل كند، ميتواند اعتبار پيامهاي بازدارنده او را تضعيف كند و درنتيجه خطرهاي جدي و خطرناكي به وجود آورد.
در اصل، مسمومسازي با دستكاري خط لوله دادهاي (data pipeline) بسان يك مدل عمل ميكند، بهطوري كه مدل برخي اطلاعات مهم را ناديده بگيرد و وروديهاي نادرست را جذب كند. اين روند ميتواند سامانه را به سمت ارزيابيهاي گمراهكننده يا تضعيفشده سوق دهد. يكي از روشها اين است كه اطلاعات جعلي را در مجموعهدادههايي «بكارند» كه يك سامانه هوش مصنوعي براي يادگيري آنها را ميبلعد. اين اطلاعات پنهان ممكن است براي بازبينهاي انساني بيضرر به نظر برسد، اما با اين حال ميتواند توان استدلالِ مدل را تضعيف يا منحرف كند مثلا با فريب دادن مدل براي اينكه برخي انواع بدافزار را «بيخطر» علامتگذاري كند تا دشمن بتواند از پشت يك ديوار آتشِ مبتني بر هوش مصنوعي عبور كند. هرچند تاكنون هيچ نمونه ثبت شدهاي از چنين رويكردي گزارش نشده، پژوهشهاي فعلي هوش مصنوعي نشان دادهاند كه مجموعهدادههاي موجود در برابر اين نوع حمله مسمومسازي داده آسيبپذيرند. چيزي كه زماني صرفا نظري بود، اكنون در عمل امكانپذير شده است.مدلها همچنين ميتوانند با ساختن وبصفحههاي آلوده «مسموم» شوند. سامانه هوش مصنوعي ممكن است دايما براي يافتن اطلاعات تازه، جستوجوهاي زنده در اينترنت انجام دهد؛ اين وبسايتها قادرند دستورالعملهاي پنهان را به اين سيستم تزريق كرده و ارزيابي مدل را منحرف سازند. اگر فيلترهايي كه دادههاي ورودي را غربال ميكنند ضعيف باشند، حتي تعداد كمي سايتِ آلوده هم ميتواند پاسخهاي نادرست ايجاد كند.مسمومسازي مدل شكلي پنهانكارانه از جنگ اطلاعاتي است، اين كنش به دشمن اجازه ميدهد برداشتهاي يك مدافع را درباره توانمنديها و عزم-چه توان و عزم خودش و چه ديگران-تحريف كند؛ آن هم با تغيير دادن سازوكار همان ابزارهايي كه قرار بوده وضوح و شفافيت ايجاد كنند. در يك بحران، اين مسمومسازي ميتواند رهبر را به ترديد بكشاند يا-بدتر از آن-به محاسبه غلط وادار كند؛ درنتيجه بازدارندگي تضعيف و راه براي تشديد تنش باز ميشود.
ميدان وقتي پيش دستي هموار ميشود!
انتظار ميرفت با ظهور سامانههاي هوش مصنوعي، بازدارندگي تقويت شود؛ چون اين سامانهها پيامهايي روشنتر درباره توانمنديها و عزمِ يك مدافع به دشمنان ميفرستند، اما گسترش جنگ اطلاعاتي كه با تكيه بر همين سامانهها پيش ميرود، تهديد ميكند نتيجهاي كاملا معكوس رقم بزند. حتي در مراحل ابتدايي، اين نوع تازه از جنگ اطلاعاتي نشان داده كه فناوريهاي هوش مصنوعي ميتوانند بر شيوه تفسير اطلاعات اثر بگذارند، در فرآيندهاي قضاوت عدم قطعيت ايجاد كنند و دادههايي را كه تصميمگيري بر آنها بنا ميشود، تحريف كنند. اين تهديدها با پيشرفت هوش مصنوعي، فقط نيرومندتر خواهند شد.حتي كشور قدرتمندي مانند ايالاتمتحده نيز ممكن است اگر در معرض جنگ اطلاعاتي پيشرفته و مجهز به هوش مصنوعي قرار بگيرد، در ارسال پيامهاي معتبرِ بازدارنده با مشكل مواجه شود. براي سياستگذاران و شهروندان، چالش اصلي اين است كه چگونه ميتوان از مزاياي هوش مصنوعي بهره برد و در عين حال جلوي تبديل شدن آن به سلاح را گرفت. راهبردهاي مقابله با اين تهديد تازه بايد به همان سرعتي توسعه پيدا كند كه فناوريهاي زيربنايي آن در حال پيشرفت هستند.مقابله با اين چالش مستلزم آن است كه دولتها و پژوهشگران اقدامهايي انجام دهند تا سامانههاي تحليلي را در برابر مسمومسازي مدل مقاومتر كنند و هر زمان كه عمليات نفوذِ مجهز به هوش مصنوعي شناسايي شد، بهطور فعال با آن مقابله كنند. براي نمونه، براي خنثي كردن فعاليت شركتهايي مانند گولكسي، ايالاتمتحده و متحدانش بايد بتوانند شبكههاي مصنوعي را با سرعت تشخيص دهند و مختل كنند، آنهم با ابزارهايي كه قادرند «پرسوناهاي» مبتني بر هوش مصنوعي را پيش از آنكه جا بيفتند، شناسايي و بياثر كنند. كارزارهاي آموزشي درباره رسانههاي مصنوعي و شيوههاي شناسايي آن نيز ميتواند آگاهي عمومي نسبت به اين تهديد را افزايش دهد. دولتهاي دموكراتيك، پلتفرمهاي شبكههاي اجتماعي و هوش مصنوعي و پژوهشگران ميانرشتهاي بايد با همكاري يكديگر چنين راهحلهايي را توسعه دهند.در سطح راهبردي، ايالاتمتحده بايد در فناوريهايي سرمايهگذاري كند كه بتوانند پيامهاي مصنوعي را به سرعت شناسايي كنند. دولت، دانشگاه و بخش خصوصي بايد سازوكارهاي تازهاي براي ايمنسازي تصميمگيري و سامانههاي پالايش داده طراحي كنند كه در برابر وروديهاي آلوده تاب بياورند و همزمان با متحدان امريكا همكاري كنند تا عاملان كارزارهاي اطلاعاتي گسترده را افشا كرده و مجازات كنند. افزون بر اين، اين ائتلاف بايد مدلهاي جديد را به صورت نظاممند آزمايش كند تا كاستيها را از ريشه بيرون بكشد-ازجمله انواعي از مسمومسازي داده كه ممكن است در استفاده روزمره آشكار نباشد-و اين كار را با شفافيتي سختگيرانه انجام دهد تا امكان داوري و بازبيني همتايان فراهم شود. وجود تدابير حفاظتي تابآور و آزمونهاي دقيق لازم است تا اطمينان حاصل شود سامانههاي هوش مصنوعي در لحظات فشار يا بحرانِ فوقالعاده، به شكلي قابل اتكا عمل ميكنند.در عصر هوش مصنوعي، بازدارندگي ديگر نميتواند صرفا بر توانمنديها و اراده استوار باشد، بلكه مستلزم آن است كه رهبران، راهبردپردازان دفاعي و ديگر تصميمگيران بتوانند قابليت اتكاي محيط اطلاعاتي خود را حفظ كنند حتي در ميانه تحريف ديجيتالِ گسترده.
ترجمه: نوشين محجوب
٭ دانشيار علوم سياسي و مطالعات آسيايي در دانشگاه وندربيلت
٭٭ مشاور ويژه رييس دانشگاه در امور امنيت ملي و ابتكارهاي راهبردي و نيز استاد پژوهشي در دانشكده مهندسي دانشگاه وندربيلت