دروغسنج ارزان، دقيق سريع و بيخطر
عباس عبدي
هر كنشگر يا سياستگذاري ميكوشد كه مهمترين عاملهاي خود را وارد ميدان تعاملات كند. كسي كه پولدار است پولش را، كسي كه قوي است، زورش را، كسي كه زيباست، قيافهاش را، كسي كه سخنور است، موعظهاش را، كسي كه عاقل و دانشمند است، دانشش را به ميدان بیاورد تا خود را پيروز رقابتها يا ستيزهها کند. در اين ميان حكومتها ميكوشند كه براي اعمال اقتدار خود، نه تنها مولفههاي قدرت خود را تنوع بخشند بلكه به جاي عوامل سختافزاري به سوي استفاده از عوامل نرمافزاري حركت كنند. يكي از تفاوتهاي مهم نظامهاي سياسي اولويت دادن آنها بر عوامل مهاركننده و اِعمال اقتدار است. در جامعه ما تنبيه و مجازات و نظارت فردي و جرممحور حرف اول را ميزنند. هر مسالهاي را كه نميپسندند ابتدا جرمانگاري كرده، سپس ميخواهند با مجازات و تشديد نظارت بيروني آن مساله را حل كنند، و در اين ميان يكي از ايدههاي رايج دفاع از افزايش شدت مجازاتها و گسترش حدود رفتارهاي مجرمانه است. در حالي كه اگر با مجازات مسالهاي حل يا رفتارها مطابق ميل قدرت ميشد تاكنون همه مسائل دنيا حل شده بود. لايحه مقابله با انتشار اخبار خلاف در فضاي مجازي مصداق فاجعهباري از اين رويكرد است كه جز اتلاف وقت و هزينه و عصباني كردن مردم هيچ نتيجه ديگري نداشت. تاكنون مطالب زيادي در مذمت و نقد اين لايحه نوشته شده است. اكنون يكي از خوانندگان محترم يادداشتهاي من كه در حوزه هوش مصنوعي آشنايي دارد با پايه قرار دادن نكات اصلي يادداشتهاي بنده، متن زير را در چگونگي استفاده از اين هوش براي مقابله با اخبار خلاف فرستاده كه رويكردي ايجابي براي دستاندركاران است تا جلوي دروغ و خلافگويي را با استفاده از اين ابزار بگيرند. هوش مصنوعي (AI) نقش مهمي در راستيآزمايي اطلاعات، بهويژه در فضاي مجازي ايفا ميكند و ميتواند به عنوان ابزاري دقيق و زيرساختي براي مقابله با دروغ و اطلاعات نادرست عمل كند. با توجه به ضرورت التزام به حقيقتمحوري و شفافيت، درباره نقش AI، كاربردها و محدوديتهاي آن در ايران، پيشنهادهايي براي استفاده ارايه ميشود. نقش و كاربردهاي هوش مصنوعی در راستيآزمايي متنوع است.
- تشخيص خودكار اخبار جعلي؛ كه با تكيه بر مدلهاي يادگيري الگوهاي زباني از سوي هوش مصنوعی ميتواند منابع غيرمعتبر، يا تناقضات در اخبار را شناسايي كنند. هماكنون پلتفرمهايي مانند Full Fact در بريتانيا يا پروژههاي AI مثل Grok (توسعهيافته توسط xAI) براي تحليل محتوا و شناسايي ادعاهاي مشكوك استفاده ميشوند. اين شيوه به دليل سرعت بالا در پردازش حجم عظيم دادهها، بهويژه در شبكههاي اجتماعي مزيت بالايي دارند.
- تحليل تصاوير و ويدئوها؛ الگوريتمهاي بينايي كامپيوتري ميتوانند تصاوير يا ويدئوهاي دستكاريشده (Deepfake) را شناسايي كنند. ابزارهايي مثل Google Fact Check Explorer يا InVID تصاوير را با منابع معتبر مقايسه ميكنند. براي مثال؛ شناسايي ويدئوهاي جعلي در انتخابات يا بحرانها (مثل جنگ ١٢ روزه با اسراييل) را به راحتي انجام ميدهند. مزيت آن نيز كاهش تأثير محتواهاي بصري گمراهكنندهاي است كه به سرعت بازنشر ميشود.
- راستيآزمايي ادعاها با دادههاي باز؛ هوش مصنوعی ميتواند ادعاهاي مطرحشده در رسانهها را با پايگاههاي داده عمومي (مثل آمار دولتي، گزارشهاي سازمانهاي بينالمللي) مقايسه كند و صحت آنها را ارزيابي كند و موجب كاهش سوگيري انساني در فرآيند راستيآزمايي شود.
- مديريت شايعات در زمان كوتاه؛ هوش مصنوعی ميتواند روند انتشار شايعات را در پلتفرمهايي مثل X يا تلگرام يا شبكههاي ايراني رصد كرده و با هشدار به موقع به كاربران يا پلتفرمها، گسترش آنها را محدود كند و واكنش سريع به اطلاعات نادرست در بحرانها بروز دهد.
- آموزش و توانمندسازي كاربران؛ چتباتهاي مبتني بر AI ميتوانند به كاربران كمك كنند تا منابع خبري را تحليل كنند يا صحت يك ادعا را بررسي كنند. مثل چتباتهايي كه در واتساپ يا تلگرام به كاربران پاسخ ميدهند و منابع معتبر را پيشنهاد ميكنند و سواد رسانهاي بهصورت تعاملي و در دسترس را افزايش دهند.
البته هوش مصنوعي در راستيآزمايي اخبار محدوديتهایي هم دارد از جمله؛
- وابستگي به دادههاي باكيفيت؛ هوش مصنوعی براي عملكرد موثر نيازمند دسترسي به دادههاي معتبر و گسترده است. در كشورهايي مثل ايران كه دسترسي به دادههاي شفاف محدود است، دقت آن كاهش مييابد و اگر پايگاههاي داده ناقص يا مغرضانه باشند، ممكن است نتايج گمراهكننده توليد كند.
- سوگيري الگوريتمي؛ الگوريتمهاي هوش مصنوعی ممكن است به دليل طراحي يا دادههاي آموزشي، سوگيريهاي فرهنگي، سياسي يا زباني داشته باشند. اين مشكل در جوامع قطبيشده مثل ايران ميتواند اعتماد به آن را كاهش دهد و بدون نظارت انساني، ممكن است بهطور ناخواسته برخي گروهها را سانسور يا بدنام كند. البته با گذشت زمان و با انجام اصلاحات لازم، ميتوان كارايي آنها را ارتقا داد.
- ناتواني در درك زمينه محتوا؛ هوش مصنوعی در تحليل طنز، كنايه يا محتواي فرهنگي خاص ممكن است اشتباه كند و يك ادعاي غيرجدي را به عنوان دروغ شناسايي كند. اين محدوديت ميتواند به برچسبگذاري نادرست محتوا منجر شود.
- خطر سانسور و سوءاستفاده؛ دولتها يا شركتهاي بزرگ ممكن است از هوش مصنوعی براي سركوب محتواي مخالف تحت عنوان «راستيآزمايي» استفاده كنند، كه با هشدارهاي موجود درباره جرمانگاري همراستاست و در نبود نهادهاي مستقل، ميتواند به ابزاري براي كنترل اطلاعات تبديل شود.
- محدوديتهاي فني در محتواهاي غيرمتني؛ هوش مصنوعی در شناسايي Deepfakeهاي پيشرفته يا محتواهاي دستكاريشده صوتي، هنوز چالشبرانگيز است و نياز به فناوريهاي پيشرفتهتر دارد. اين مشكل در كشورهايي با زيرساختهاي ضعيفتر پررنگتر است.
براي استفاده از AI در راستيآزمايي و مقابله با خلافگويي در ايران و با توجه به لزوم غلبه رويكرد حقيقتمحوري و اجتناب حداكثري از رويكرد كيفري، اقدامات زير پيشنهاد ميشود:
- ايجاد پلتفرمهاي راستيآزمايي مبتني بر هوش مصنوعی با همكاري دانشگاهها و سازمانهاي غيردولتي مستقل. اين ابزارها بايد متنباز (Open-Source) باشند تا از سوءاستفاده جلوگيري شود. براي نمونه ابزاري باشد كه محتواي پربازديد در تلگرام يا X و از همه مهمتر در شبكههاي داخلي ايتا و بله را تحليل و با دادههاي عمومي (مثل آمار رسمي مركز آمار و بانك مركزي) مقايسه كند.
- براي كاهش سوگيري و خطا، AI بايد با تيمهاي راستيآزمايي انساني (شامل روزنامهنگاران و محققان مستقل) تركيب شود. اين تيمها ميتوانند زمينه فرهنگي و سياسي را بهتر تحليل كنند.
- توسعه چتباتهاي آموزشي به زبان فارسي و با توجه به فرهنگ محلي، كاربران را در تحليل اخبار راهنمايي ميكنند. اين چتباتها ميتوانند در پيامرسانهاي با كاربر بالا مثل تلگرام يا واتساپ و ايتا فعال شوند، و به كاربر كمك كنند منبع يك خبر را بررسي يا ادعايي را با دادههاي رسمي مقايسه كند.
- براي تقويت دقت AI، دولت بايد دادههاي عمومي (مثل آمار اقتصادي، سياسي، قضايي يا سلامت) را بهصورت شفاف منتشر كند. اين كار همراستا با تأكيد بر شفافيت است.
- به جاي تأكيد بر استفاده از AI براي شناسايي و مجازات منتشركنندگان اخبار جعلي يا خلاف، بايد از آن براي اطلاعرساني و آموزش استفاده شود. اين رويكرد از خطر سانسور جلوگيري ميكند. مثل برچسبگذاري محتواي مشكوك در پلتفرمها بهجاي سانسور يا جرمانگاري. اتفاقا وجود خبر دروغ با برچسب دروغ نيز آموزندهتر از حذف آن است.
- همكاري با شركتهايي مثل xAI يا گوگل براي استفاده از ابزارهاي راستيآزمايي پيشرفته، با شرط حفظ استقلال و حريم خصوصي كاربران ايراني، به ويژه براي تحليل محتواهاي فارسي.
پيشنهادهاي اين خواننده محترم منطقي و روشن است ولي به نظرم بعيد است از سوي قانونگذاران ايراني مورد توجه قرارگيرد چون اگر چنين شود آنگاه خواهند ديد كه كاربران تندروي داخلي و براندازان خارج از كشور در شبكههاي اجتماعي، بارها و بارها بيش از ديگران دروغ منتشر ميكنند. با گروه اول كه قصد مقابله نيست و به گروه دوم هم دسترسي قضايي ندارند. نتيجه ايجاد مشكل براي كاربران منطقي و مستقل و مسوول است.