كتاب مهم دوران حضور پرفروغ و پررنگ هوش مصنوعي در جوامع بشري، اثري است از هرمان كاپلن (Herman Cappelen) و جاش دور (Josh Dever) با عنوان «فهمپذير كردنِ هوش مصنوعي: بنيادهاي فلسفي» (Making AI Intelligible: Philosophical Foundations) سوال اينجاست كه آيا در پس اين عنوان، دغدغه نويسندگان اين است كه چگونه ميتوان هوش مصنوعي را به درجهاي از درك و فهم رساند؟ يا اينكه چگونه ميتوان هوش مصنوعي را براي انسانها قابل فهم كرد؟ در واقع همين تمايز، قلب معنايي عنوان كتاب «فهمپذير كردنِ هوش مصنوعي» را شكل ميدهد. كاپلن و دور فيلسوفان زبان هستند، نه مهندسان هوش مصنوعي. دغدغه آنها توليد فهم در خودِ ماشين نيست، بلكه توضيح نحوه درك انسان از زبان و كنشهاي هوش مصنوعي است. نويسندگان منظورشان اين نيست كه «چگونه ميتوان هوش مصنوعي را به درجهاي از درك و فهم رساند»، بلكه ميخواهند بدانند چگونه ميتوان هوش مصنوعي را براي انسانها فهمپذير و معنادار كرد. در سنت فلسفه زبان و معرفتشناسي، واژه «فهمپذير» يا «قابل فهم» (intelligible) هميشه از ديد ناظر انساني معنا دارد يعني چيزي كه ميتوان آن را فهميد، تفسير كرد يا معنادار دانست. فهمپذير كردنِ هوش مصنوعي يعني «ايجاد شرايطي كه در آن، هوش مصنوعي براي انسان قابل فهم و معنا شود.»
مولفان در مقدمه كتاب صراحتا ميگويند: «چالش اين نيست كه هوش مصنوعي را هوشمند كنيم، بلكه اين است كه آن را فهمپذير كنيم؛ بفهميم چه ميكند، چه ميگويد و آيا سخنانش معنايي دارند يا نه.»
كتاب ميپرسد: ما چگونه ميتوانيم از منظر فلسفي بفهميم وقتي هوش مصنوعي (AI) چيزي ميگويد يا تصميمي ميگيرد، دقيقا چه چيزي فهميده ميشود؟ هدف كتاب اين است كه نشان دهد براي به دست آوردن فهم واقعي روابط انسان-ماشين، نياز به بازانديشي مفاهيم بنيادي فلسفه زبان و متا-معناشناسي داريم و بهويژه، بايد نظريههايي تدوين شوند كه صرفا انسانمحور (anthropocentric) نباشند.
قدم اول: فقط انسان را محور معنا و فكر نبينيد
نويسندگان ابتدا سراغ بحث نظريههاي «انسانمحوري زدوده شده» (de-anthropocentrized) به معناي «دور شدن از انسانمحوري» ميروند.آنها ايده «دور شدن از انسانمحوري» را به عنوان نقطه شروع فلسفي خود مطرح ميكنند، اما نه صرفا به عنوان يك نظريه مستقل، بلكه به عنوان پايه روششناختي كل پروژه خود در كتاب. ايشان معتقدند اگر قرار است هوش مصنوعي را بفهميم، بايد نخست يك خطاي اساسي را كنار بگذاريم: خطاي انسانمحوري (anthropocentrism) در نظريههاي معنا و ذهن. اما «دور شدن از انسانمحوري» يعني چه؟ پيشوند «de-» به معناي «زدودن» يا «دور كردن» است. پس «انسانمحوري زدوده»يعني «دور شدن از انسانمحوري» يا به زبان سادهتر: «فقط انسان را محور معنا و فكر نديدن.»
كاپلن و دور در كتاب خود بر اين باورند كه نظريهاي كه ميخواهد هوش مصنوعي را فهمپذير كند، نبايد چنان طراحي شود كه تنها انسانها بتوانند معنا داشته باشند. يعني اگر در فلسفه زبان يا معنا بگوييم فقط انسانها ميتوانند فكر كنند، باور داشته باشند يا چيزي را نمايندگي كنند (represent)، آنگاه هيچ راهي براي نسبت دادن «معنا» يا «محتوا» به هوش مصنوعي باقي نميماند. اما اگر بخواهيم بفهميم آيا «هوش مصنوعي» (AI) هم ميتواند چيزي را «بداند»، «باور كند» يا «نمايش دهد»، بايد نظريههايمان را چنان تنظيم كنيم كه شامل موجودات غيرانساني نيز بشود. يعني بايد بپذيريم كه سيستمهاي هوش مصنوعي هم «نوعي» درك، محتوا يا بازنمايي دارند؛ گرچه اين درك الزاما شبيه درك انساني نيست.
براي مثال، وقتي يك مدل زباني مانند «جيپيتي» (GPT) درباره مفهومي سخن ميگويد، شايد نوعي «نمايندگي مفهومي» در دادهها و ساختارش شكل گرفته باشد. اين نمايندگي شايد با آنچه در مغز انسان رخ ميدهد متفاوت باشد، اما همچنان ميتواند نوعي معنا باشد، آنهم از جنس خودش، چون هدف نويسندگان اين است كه نشان دهند چگونه ميتوان درباره معناي خروجيهاي هوش مصنوعي از ديد فلسفي سخن گفت، از اينرو، اگر نظريه معنا فقط مخصوص انسانها باشد، آنگاه هوش مصنوعي هميشه بيرون از قلمرو فلسفه ميماند. مانند ماشيني بيجان كه صرفا الگو توليد ميكند، نه معنا.
اما كاپلن و دور معتقدند اگر نظريه را از انسانمحوري جدا كنيم، ميتوانيم بررسي كنيم كه آيا «هوش مصنوعي» (AI) هم نوعي فهم، بازنمايي يا محتوا دارد، حتي اگر شيوهاش با ما متفاوت باشد.
قدم دوم: كاركرد مهم نيست، معناي هوش مصنوعي مهم است
نويسندگان اين اثر معتقدند ما معمولا گمان ميكنيم اگر بفهميم يك مدل هوش مصنوعي چگونه كار ميكند، پس آن را «فهميدهايم»، اما اين درست نيست؛ زيرا دانستن چگونگي كاركرد فني مدل با فهميدن معناي كارش براي انسان فرق دارد. مثلا مهندسان ميخواهند بفهمند «سيستم از درون چگونه كار ميكند؟» در حالي كه فيلسوفان ميخواهند بفهمند «خروجي اين سيستم در جهان انساني چه معنايي دارد؟»
توضيحپذيري (Explainability) يعني چه؟
در دنياي مهندسي وقتي ميگويند يك مدل «قابل توضيح» است، يعني ميتوان نشان داد كدام بخش از دادهها بر تصميم اثر گذاشته، وزنها، الگوريتمها يا مسير تصميمگيري مدل چه بوده و چرا مدل مثلا گفت: «اين وام را پرداخت نكن» يا «اين تصوير گربه است.» اين توضيحات براي مهندسان، قانونگذاران يا سرمايهگذاران مفيد است، چون ميفهمند مدل چگونه تصميم ميگيرد.
فهمپذيري (Intelligibility) يعني چه؟
نويسندگان معتقدند توضيح فني كافي نيست، زيرا فهم واقعي يعني اينكه خروجي مدل در چارچوب مفاهيم انساني معنا داشته باشد. بايد بتوان پرسيد: آيا وقتي مدل گفت «اين فرد «پرخطر» (High Risk) است»، واقعا اين مفهوم در دنياي اجتماعي يا اخلاقي همان معنايي را دارد كه انسانها از عبارت «خطر بالا» ميفهمند؟
آيا خروجي مدل را ميتوان بهطور معنادار تفسير كرد؟ آيا ميشود براساس آن تصميم گرفت، قضاوت كرد يا مسووليت پذيرفت؟ پس فهمپذيري يعني قابل فهم بودن از نظر مفهومي و انساني نه فقط از نظر فني.
چرا اين تفاوت مهم است؟
نويسندگان هشدار ميدهند كه تمركز بيش از حد بر «توضيحپذيري» ما را گمراه ميكند، زيرا ممكن است از لحاظ فني بفهميم مدل چگونه كار ميكند، اما هنوز ندانيم خروجيهايش از نظر معنا، اخلاق يا عدالت اجتماعي چه دلالتي دارند.مثلا فرض كنيد سيستم هوش مصنوعي دادگاه ميگويد: «اين فرد مجرم است.» ما ميتوانيم بفهميم الگوريتم هوش مصنوعي چگونه به اين نتيجه رسيده (توضيحپذيري)، اما هنوز نميفهميم آيا «مجرم بودن» در مدل همان مفهومي است كه در جامعه، قانون يا اخلاق ما وجود دارد (فهمپذيري). بنابراين دانستن چگونگي تصميم كافي نيست؛ بايد بدانيم تصميم چه معنايي دارد.
هدف نويسندگان از طرح اين موضوع اين است كه ميخواهند بحث را از پرسش فني «چگونه مدل را توضيح دهيم؟» به پرسش فلسفيتر ببرند: «چگونه خروجيهاي مدل براي ما معنايي دارند؟» و اين دقيقا همان چيزي است كه عنوان كتاب يعني فهمپذير كردن هوش مصنوعي براي انسانها ميگويد.
چرا اين بحث اخلاقي مهم است؟
از ديد كاپلن و دور فهمپذيري فقط براي درك نظري نيست، بلكه براي اعتماد، قضاوت اخلاقي و مسووليتپذيري ضروري است. اگر ما فقط توضيح فني داشته باشيم ولي معناي انساني را نفهميم، نميتوانيم تصميم بگيريم كه آيا مدل عادلانه عمل كرده است يا نه يا بفهميم آيا خروجي آن تبعيضآميز است يا خير. همچنين در اين صورت نميتوانيم مسووليت نتايج را به كسي نسبت دهيم.پس فهمپذيري شرط لازم براي «اخلاقي بودنِ هوش مصنوعي» است.
قدم سوم: معنا به بيرون از ذهن انسان تسري يافته است
نويسندگان كتاب پرسشي بنيادي مطرح ميكنند: وقتي هوش مصنوعي (مثلا يك مدل زباني) چيزي ميگويد يا تصميمي ميگيرد، آيا آن خروجي معنا دارد؟ و اگر دارد، آن معنا از كجا ميآيد؟ براي مثال وقتي «جيپيتي» ميگويد: «گربه روي فرش است»، آيا اين جمله واقعا درباره يك گربه و فرش است؟ يا فقط الگويي آماري از كلمات مشابه در متون پيشين است؟ اينجاست كه پاي فلسفه معنا به ميان ميآيد، به ويژه مكتب معروفي در معناشناسي به نام «برونگرايي» (externalism).
در فلسفه زبان، «برونگرايي» ميگويد: معناي واژهها فقط در ذهن گوينده نيست، بلكه به دنياي بيرون و زمينه اجتماعي هم وابسته است. مثلا واژه «آب» فقط به خاطر تصويري در ذهن من معنا ندارد، بلكه چون در دنياي واقعي به مادهاي خاص (H₂O) اشاره ميكند، معنايش تثبيت ميشود. اين ايده را فيلسوفاني چون هيلاري پاتنم (Hilary Putnam) و سول كريپكي (Saul Kripke) مطرح كردند.
كاپلن و دور ميگويند اگر معنا هميشه وابسته به زمينه بيروني است، پس وقتي هوش مصنوعي چيزي ميگويد، زمينه بيروني آن چيست؟ به بيان ديگر: انسانها در جامعهاي زباني زندگي ميكنند و معنا در تعامل اجتماعي ساخته ميشود. اما هوش مصنوعي در جامعه زباني واقعي زندگي نميكند؛ تعاملاتش شبيهسازي شدهاند، نه واقعي. پس پرسش جدي پيش ميآيد: آيا خروجيهاي هوش مصنوعي اصلا ميتوانند معنا داشته باشند؟ يا فقط شبيهسازي آماري معنا هستند؟
موضعگيري متا-معناشناختي يعني چه؟
«متا-معناشناسي» يا «فرامعناشناسي» يعني بررسي خودِ مفهومِ معنا در سطحي بالاتر. در اينجا نويسندگان نميخواهند معناي جملهاي خاص را تحليل كنند، بلكه ميخواهند بپرسند اصولا «داشتنِ معنا» يعني چه و آيا هوش مصنوعي ميتواند چيزي را به معناي واقعي كلمه معنا كند؟
براي پاسخ به اين پرسش، آنها نظريههاي سنتي معناشناسي مانند «برونگرايي» (externalism) را بازبيني ميكنند تا ببينند آيا آن نظريهها فقط براي انسانها كاربرد دارند يا ميتوانند به ماشينها هم تعميم يابند.
هدف نويسندگان از طرح اين بحث، روشن كردن جايگاه فلسفي هوش مصنوعي در نسبت با نظريههاي زبان و معناست. آنها ميخواهند بفهمند وقتي «هوش مصنوعي» (AI) جملهاي ميسازد، آيا ما حق داريم بگوييم كه اين جمله معنايي واقعي دارد يا فقط يك خروجي آماري است كه ظاهرا معنا دارد.
براي اين كار بايد تعيين كنيم كه آيا معنا چيزي است كه آنطور كه «درونگرايي» (internalism) ميگويد، از «درون» مدل ميآيد يا از «رابطه مدل با جهان و انسانها» ناشي ميشود، چنانكه «برونگرايي» معتقد است. نويسندگان درنهايت ميگويند: «نظريههاي سنتي برونگرايي معنا براي فهم زبان انساني مفيدند، اما براي هوش مصنوعي كافي نيستند، چون «هوش مصنوعي» (AI) در جهان ما زندگي نميكند، در جامعه ما نيست و تجربه ندارد.»
پس بايد نسخهاي تازه از برونگرايي تعريف كنيم كه بتواند شامل رابطه بين انسان و ماشين نيز بشود؛ يعني نوعي «برونگرايي انسان-هوش مصنوعي» (human–AI externalism). اين تعبير به آن معناست كه معناي خروجيهاي «هوش مصنوعي» (AI) از تعامل با انسانها و كاربردشان در جهان انساني پديد ميآيد، نه از دنياي دروني ماشين.
قدم چهارم: هوش مصنوعي، ادامه گسترش ذهن بشري است
در فلسفه ذهن، نظريهاي معروف به نام «فرضيه ذهنِ گسترده»
(The Extended Mind Hypothesis) وجود دارد. اين نظريه ميگويد: ذهن فقط در مغز ما نيست، بلكه ميتواند تا بيرون از بدن، در ابزارها و محيط نيز گسترش يابد.
براي مثال، وقتي از دفترچه يادداشت استفاده ميكني تا چيزي را به خاطر بسپاري، آن دفترچه در واقع بخشي از فرآيند ذهني تو شده است يا وقتي از ماشينحساب براي محاسبه استفاده ميكني، ابزار بيروني دارد كار ذهني تو را گسترش ميدهد. به بيان ديگر ذهن ميتواند توزيع شده و گسترده باشد، نه فقط محدود به مغز.
كاپلن و دور ميخواهند از اين نظريه استفاده كنند تا پرسشي كليدي مطرح كنند: آيا ممكن است هوش مصنوعي در واقع بخشي از ذهن انسان باشد؟ يعني بخشي از فرآيند شناختي ما كه از بدن و مغز فراتر رفته است؟ آنان توضيح ميدهند كه اگر ذهن انسان ميتواند با دفترچه يا كامپيوتر گسترش پيدا كند، پس سيستمهاي هوش مصنوعي نيز ميتوانند در اين زنجيره قرار بگيرند؛ يعني در برخي شرايط، نه فقط ابزار، بلكه بخشي از فرآيند فكري و معنايي ما شوند.
ارتباط فرضيه ذهنِ گسترده با بحث معنا (Intelligibility)
گفتيم مساله اصلي كتاب اين است كه چگونه ميتوان خروجيهاي هوش مصنوعي را فهميد و داراي معنا دانست. نويسندگان با طرح ايده «ذهن گسترده» ميخواهند بگويند شايد لازم نباشد بپرسيم «آيا «هوش مصنوعي» (AI) خود مغز يا احساس دارد؟»، بلكه بايد بپرسيم: «آيا در تعامل با ما، بخشي از فرآيند فهم انساني شده است يا نه؟»
به عبارت ديگر، در اينجا معنا و فهم در مرز ميان انسان و ماشين شكل ميگيرد، نه فقط در يكي از آنها.
يعني وقتي ما با يك مدل زباني كار ميكنيم، فهمي مشترك توليد ميشود كه نه كاملا انساني است و نه كاملا ماشيني، بلكه درهمتنيده و گسترده است.هدف نويسندگان از طرح اين موضوع اين است كه نظريههاي معناشناسي را از محدوديتِ «زيستي بودن» بيرون بياورند.
در نظريههاي سنتي فلسفه ذهن، معنا و آگاهي معمولا فقط براي موجودات زنده و مغزدار تعريف ميشد.
اما نويسندگان ميگويند اگر بپذيريم ذهن ميتواند گسترده باشد، بايد بپذيريم معنا نيز ميتواند در سيستمهاي مشترك انسان-ماشين شكل بگيرد. درواقع، شايد هوش مصنوعي خود «ذهن» نداشته باشد، اما وقتي با انسانها همكاري ميكند، با ذهن انساني پيوند ميخورد و بخشي از فرآيند فهم ميشود. نويسندگان اشاره ميكنند: «هر نظريهاي از محتوا كه معنا را فقط به ساختارهاي زيستي يا ذهني انسان محدود كند، نميتواند فهمپذيري سيستمهاي مصنوعياي را توضيح دهد كه در فعاليتهاي شناختي ما مشاركت دارند.»
اگر معنا را فقط به مغز انسان گره بزنيم، ديگر نميتوانيم توضيح دهيم چرا هوش مصنوعي دركپذير است.پس بايد نظريهاي منعطفتر بسازيم كه ذهن و معنا را گستردهتر ببيند.فرض كنيد از يك برنامه هوش مصنوعي براي ترجمه متن استفاده ميكنيد. شما واژهها را انتخاب ميكنيد، مدل ترجمه ميكند و شما اصلاحش ميكنيد. در اين فرآيند، معنا نه فقط در ذهن شما، نه فقط در مدل، بلكه در تعامل بين شما و مدل شكل ميگيرد.در واقع، هوش مصنوعي در اين موقعيت بخشي از ذهن گسترده شما شده است و همينجاست كه فهم و معنا به صورت ميانجيوار ساخته ميشود.
اهميت كتاب
كتاب «فهمپذير كردن هوش مصنوعي: بنيادهاي فلسفي» گامي مهم در پيوند ميان فلسفه معنا و هوش مصنوعي است. اين كتاب نشان ميدهد كه مباحث فلسفي قديمي و مفاهيمي مثل معنا، نمايندگي، فرامعناشناسي و برونگرايي نه براي فلسفه نظري صرف، بلكه براي درك واقعي چيستي فهم و معناي ماشينها اهميت دارند.
اين اثر ايدهاي مهم مطرح ميكند: بايد نظريههاي محتوا را بازتعريف كنيم تا شامل سيستمهايي شوند كه نه مانند انسانها تجربه دارند و نه همان تاريخچههاي زباني يا اجتماعي را دارند. اين كتاب تنها يك پروژه نظري نيست، بلكه پيامدهاي عملي نيز دارد از سياستگذاري و قانونگذاري گرفته تا عدالت در تصميمات خودكار، مسووليتپذيري در سيستمهاي هوش مصنوعي و طراحي سامانههايي كه مردم بتوانند آنها را بفهمند و به آنها اعتماد كنند.