هراس اجتماعي از هوش مصنوعي
علي ميرزامحمدي
در كنار هيجان كاربردهاي شگفتانگيز و خيرهكننده تكنولوژي جديد هوش مصنوعي، هراس اجتماعي از كاربردهاي منفي و پيامدهاي آسيبزاي آن نيز در ميان نظريهپردازان، نخبهها و عامه مردم افزايش يافته است. اين هراس و نگراني اجتماعي را ميتوان در سه چالش مهم خلاصه نمود.
چالش تمايز بين محتواي اصيل و جعلي: هوش مصنوعي اين توانايي را فراهم ميكند كه محتوايي ساختگي و جعلي با حضور مجازي افراد ساخته شود. به عبارت ديگر اين محتواي جعلي، بازتاب عيني فضاي واقعي نيست بلكه با اقتباس از ويژگيهاي افراد، آنها را در موقعيتي كه در آن حضور ندارند به تصوير ميكشد. در اين حالت ممكن است رفتارها، گفتارها و انديشههايي باورپذير به دروغ به فرد منتسب شود كه تشخيص جعلي و واقعي بودن آن كار چندان سادهاي نباشد. اين چالش قبل از رشد تكنولوژي هوش مصنوعي در نظريههاي پستمدرن همانند نظريه بودريار نيز مطرح شده است. او در اين باب از كليدواژه فراواقعيت يا واقعيت حاد يا ابرواقعيت (hyperreality) بهره ميگيرد تا عدم توانايي انسان را در افتراق واقعيت از خيال به ويژه در فرهنگهاي پستمدرن با تكنولوژيهاي در سطح پيشرفته توضيح دهد.
چالش كنترل و نظارت: از هماكنون نيز بهرهگيري از تكنولوژي هوش مصنوعي در كار شناسايي افراد و گروههاي مخالف توسط برخي دولتها به نگرانيهاي عميقي دامن زده است كه آينده مردمسالاري را در حال تهديد و تضعيف به تصوير ميكشد. در اين باب نيز بهرهگيري از نظريه فوكو درباره نظارت (مراقبت) و آنچه او سراسربيني مينامد ميتواند روشنگر باشد. از نظر فوكو، اشكال جديد دانش به اشكال جديد قدرت و كنترل منتهي ميشود. با الهام از نظريه فوكو هوش مصنوعي ميتواند به ابزار مراقبت و كنترل دايمي تبديل شود. به عبارت ديگر هوش مصنوعي همانند زندان و ديگر نهادهاي قدرتمند اجتماعي، كاركرد سراسربيني دارد.
اين تكنولوژي هم ميتواند منتقداني را كه در شبكههاي اجتماعي نميخواهند هويت خود را فاش كنند شناسايي كند و هم اين توانايي را دارد كه محتواهايي منتسب به گروهها و افراد منتقد در فضاي مجازي جعل و بازنشر كند كه براي عامه مخاطبان باورپذير باشد.
چالش انسانزدايي: چالش سوم كاربرد هوش مصنوعي از دو چالش ديگر هراسبرانگيزتر است. اين چالش بيان ميكند كه هوش مصنوعي شرايطي را فراهم ميكند كه در آن بسياري از مشاغلي كه نيازمند بهكارگيري انديشه و ذوق است و هر تخصصي كه براي كسب آن تلاش و سختي سالها كشيده شده را بلااستفاده ميكند. اين انسانزدايي آيندهاي وحشتناك و چالشبرانگيز را نشان ميدهد كه انتقادها از كاربرد هوش مصنوعي را به اوج ميكشاند.
از ديدگاه نويسنده تكميل تدريجي سناريوهاي كاربردهاي مثبت و آسيبزاي هوش مصنوعي به ما كمك ميكند تا درباره كنترل كاربرد اين تكنولوژي آمادگي بيشتري داشته باشيم. به نظر ميرسد به تدريج حقوق كاربرد اين تكنولوژي در سطوح فردي، گروهي، ملي و بينالمللي توسعه پيدا كند؛ چراكه كاربردهاي منفي اين تكنولوژي جرايم نوپديدي را شكل خواهد داد. از طرف ديگر چالش كنترل و نظارت به توسعه مباحث جديد سياسي و جامعه شناختي خواهد انجاميد و گروههاي مدافع حقوق بشر و نهادهاي بينالمللي مدافع آزادي بيان و فعاليتهاي سياسي را برخواهد داشت تا عليه اين نظارت تكنولوژيكي فعال شوند.
از ديدگاه نويسنده چالش تمايز بين محتواي اصيل و جعلي موجب خواهد شد تا در آينده تكنولوژيهايي كه در كار اين تمايز به كاربران كمك ميكنند توسعه پيدا كنند. اين مساله هم در نهادهاي پليسي و قضايي به يكي از دغدغههاي مهم تبديل خواهد شد. اما چالش انسانزدايي هم در سطح نظري و هم عملي حساسيتهاي اجتماعي را عليه تكنولوژي هوش اجتماعي افزايش خواهد داد. اين چالش از نظر رواني و جسمي، منشأ و عامل بيماريهاي مختلفي خواهد بود. همچنين گروهها و اتحاديههاي شغلي و صنفي نگراني عميقي درباره آينده اين تكنولوژي پيدا خواهند كرد.
با وجود اين هراسها و چالشهاي مهم، به اذعان متخصان، كاربرد هوش مصنوعي فرصتهاي جديدي را به روي ما گشوده است كه به اين راحتي نميتوان آنها را ناديده گرفت. با اينهمه لذت اين فرصتهاي جديد نبايد با كاربردهاي منفي تلخ شود.