• 1404 دوشنبه 13 مرداد
روزنامه در یک نگاه
امکانات
روزنامه در یک نگاه دریافت همه صفحات
تبلیغات
fhk; whnvhj ایرانول بانک ملی بیمه ملت

30 شماره آخر

  • شماره 6108 -
  • 1404 دوشنبه 13 مرداد

دروغ‌سنج ارزان، دقيق سريع و بي‌خطر

عباس عبدي

هر كنشگر يا سياست‌گذاري مي‌كوشد كه مهم‌ترين عامل‌هاي خود را وارد ميدان تعاملات كند. كسي كه پولدار است پولش را، كسي كه قوي است، زورش را، كسي كه زيباست، قيافه‌اش را، كسي كه سخنور است، موعظه‌اش را، كسي كه عاقل و دانشمند است، دانشش را به ميدان بیاورد تا خود را پيروز رقابت‌ها يا ستيزه‌ها کند. در اين ميان حكومت‌ها مي‌كوشند كه براي اعمال اقتدار خود، نه تنها مولفه‌هاي قدرت خود را تنوع بخشند بلكه به جاي عوامل سخت‌افزاري به سوي استفاده از عوامل نرم‌افزاري حركت كنند. يكي از تفاوت‌هاي مهم نظام‌هاي سياسي اولويت دادن آنها بر عوامل مهاركننده و اِعمال اقتدار است. در جامعه ما تنبيه و مجازات و نظارت فردي و جرم‌محور حرف اول را مي‌زنند. هر مساله‌اي را كه نمي‌پسندند ابتدا جرم‌انگاري كرده، سپس مي‌خواهند با مجازات و تشديد نظارت بيروني آن مساله را حل كنند، و در اين ميان يكي از ايده‌هاي رايج دفاع از افزايش شدت مجازات‌ها و گسترش حدود رفتارهاي مجرمانه است. در حالي كه اگر با مجازات مساله‌اي حل يا رفتارها مطابق ميل قدرت مي‌شد تاكنون همه مسائل دنيا حل شده بود. لايحه مقابله با انتشار اخبار خلاف در فضاي مجازي مصداق فاجعه‌باري از اين رويكرد است كه جز اتلاف وقت و هزينه و عصباني كردن مردم هيچ نتيجه‌ ديگري نداشت. تاكنون مطالب زيادي در مذمت و نقد اين لايحه نوشته شده است.  اكنون يكي از خوانندگان محترم يادداشت‌هاي من كه در حوزه هوش مصنوعي آشنايي دارد با پايه قرار دادن نكات اصلي يادداشت‌هاي بنده، متن زير را در چگونگي استفاده از اين هوش براي مقابله با اخبار خلاف فرستاده كه رويكردي ايجابي براي دست‌اندركاران است تا جلوي دروغ‌ و خلاف‌گويي را با استفاده از اين ابزار بگيرند. هوش مصنوعي (AI) نقش مهمي در راستي‌آزمايي اطلاعات، به‌ويژه در فضاي مجازي ايفا مي‌كند و مي‌تواند به عنوان ابزاري دقيق و زيرساختي براي مقابله با دروغ و اطلاعات نادرست عمل كند. با توجه به ضرورت التزام به حقيقت‌محوري و شفافيت، درباره نقش AI، كاربردها و محدوديت‌هاي آن در ايران، پيشنهادهايي براي استفاده ارايه مي‌شود. نقش و كاربردهاي هوش مصنوعی در راستي‌آزمايي متنوع است.  

- تشخيص خودكار اخبار جعلي؛ كه با تكيه بر مدل‌هاي يادگيري الگوهاي زباني از سوي هوش مصنوعی مي‌تواند منابع غيرمعتبر، يا تناقضات در اخبار را شناسايي كنند. هم‌اكنون پلتفرم‌هايي مانند Full Fact در بريتانيا يا پروژه‌هاي AI مثل Grok (توسعه‌يافته توسط xAI) براي تحليل محتوا و شناسايي ادعاهاي مشكوك استفاده مي‌شوند. اين شيوه به دليل سرعت بالا در پردازش حجم عظيم داده‌ها، به‌ويژه در شبكه‌هاي اجتماعي مزيت بالايي دارند.
- تحليل تصاوير و ويدئوها؛ الگوريتم‌هاي بينايي كامپيوتري مي‌توانند تصاوير يا ويدئوهاي دستكاري‌شده (Deepfake) را شناسايي كنند. ابزارهايي مثل Google Fact Check Explorer يا InVID تصاوير را با منابع معتبر مقايسه مي‌كنند. براي مثال؛ شناسايي ويدئوهاي جعلي در انتخابات يا بحران‌ها (مثل جنگ ١٢ روزه با اسراييل) را به راحتي انجام مي‌دهند. مزيت آن نيز كاهش تأثير محتواهاي بصري گمراه‌كننده‌اي است كه به سرعت بازنشر مي‌شود.
- راستي‌آزمايي ادعاها با داده‌هاي باز؛ هوش مصنوعی مي‌تواند ادعاهاي مطرح‌شده در رسانه‌ها را با پايگاه‌هاي داده عمومي (مثل آمار دولتي، گزارش‌هاي سازمان‌هاي بين‌المللي) مقايسه كند و صحت آنها را ارزيابي كند و موجب كاهش سوگيري انساني در فرآيند راستي‌آزمايي شود.
- مديريت شايعات در زمان كوتاه؛ هوش مصنوعی مي‌تواند روند انتشار شايعات را در پلتفرم‌هايي مثل X يا تلگرام يا شبكه‌هاي ايراني رصد كرده و با هشدار به موقع به كاربران يا پلتفرم‌ها، گسترش آنها را محدود كند و واكنش سريع به اطلاعات نادرست در بحران‌ها بروز دهد.
- آموزش و توانمندسازي كاربران؛ چت‌بات‌هاي مبتني بر AI مي‌توانند به كاربران كمك كنند تا منابع خبري را تحليل كنند يا صحت يك ادعا را بررسي كنند. مثل چت‌بات‌هايي كه در واتس‌اپ يا تلگرام به كاربران پاسخ مي‌دهند و منابع معتبر را پيشنهاد مي‌كنند و سواد رسانه‌اي به‌صورت تعاملي و در دسترس را افزايش دهند. 
البته هوش مصنوعي در راستي‌آزمايي اخبار محدوديت‌هایي هم دارد از جمله؛ 
- وابستگي به داده‌هاي باكيفيت؛ هوش مصنوعی براي عملكرد موثر نيازمند دسترسي به داده‌هاي معتبر و گسترده است. در كشورهايي مثل ايران كه دسترسي به داده‌هاي شفاف محدود است، دقت آن كاهش مي‌يابد و اگر پايگاه‌هاي داده ناقص يا مغرضانه باشند، ممكن است نتايج گمراه‌كننده توليد كند.
- سوگيري الگوريتمي؛ الگوريتم‌هاي هوش مصنوعی ممكن است به دليل طراحي يا داده‌هاي آموزشي، سوگيري‌هاي فرهنگي، سياسي يا زباني داشته باشند. اين مشكل در جوامع قطبي‌شده مثل ايران مي‌تواند اعتماد به آن را كاهش دهد و بدون نظارت انساني، ممكن است به‌طور ناخواسته برخي گروه‌ها را سانسور يا بدنام كند. البته با گذشت زمان و با انجام اصلاحات لازم، مي‌توان كارايي آنها را ارتقا داد.
- ناتواني در  درك زمينه محتوا؛ هوش مصنوعی در تحليل طنز، كنايه يا محتواي فرهنگي خاص ممكن است اشتباه كند و يك ادعاي غيرجدي را به عنوان دروغ شناسايي كند. اين محدوديت مي‌تواند به برچسب‌گذاري نادرست محتوا منجر شود.
- خطر سانسور و سوءاستفاده؛ دولت‌ها يا شركت‌هاي بزرگ ممكن است از هوش مصنوعی براي سركوب محتواي مخالف تحت عنوان «راستي‌آزمايي» استفاده كنند، كه با هشدارهاي موجود درباره جرم‌انگاري هم‌راستاست و در نبود نهادهاي مستقل، مي‌تواند به ابزاري براي كنترل اطلاعات تبديل شود.
- محدوديت‌هاي فني در محتواهاي غيرمتني؛ هوش مصنوعی در شناسايي Deepfake‌هاي پيشرفته يا محتواهاي دستكاري‌شده صوتي، هنوز چالش‌برانگيز است و نياز به فناوري‌هاي پيشرفته‌تر دارد. اين مشكل در كشورهايي با زيرساخت‌هاي ضعيف‌تر پررنگ‌تر است.
براي استفاده از AI در راستي‌آزمايي و مقابله با خلاف‌گويي در ايران و با توجه به لزوم غلبه رويكرد حقيقت‌محوري و اجتناب حداكثري از رويكرد كيفري، اقدامات زير پيشنهاد مي‌شود: 
- ايجاد پلتفرم‌هاي راستي‌آزمايي مبتني بر هوش مصنوعی با همكاري دانشگاه‌ها و سازمان‌هاي غيردولتي مستقل. اين ابزارها بايد متن‌باز (Open-Source) باشند تا از سوءاستفاده جلوگيري شود. براي نمونه ابزاري باشد كه محتواي پربازديد در تلگرام يا X و از همه مهم‌تر در شبكه‌هاي داخلي ايتا و بله را تحليل و با داده‌هاي عمومي (مثل آمار رسمي مركز آمار و بانك مركزي) مقايسه كند.
- براي كاهش سوگيري و خطا، AI بايد با تيم‌هاي راستي‌آزمايي انساني (شامل روزنامه‌نگاران و محققان مستقل) تركيب شود. اين تيم‌ها مي‌توانند زمينه فرهنگي و سياسي را بهتر تحليل كنند.
- توسعه چت‌بات‌هاي آموزشي به زبان فارسي و با توجه به فرهنگ محلي، كاربران را در تحليل اخبار راهنمايي مي‌كنند. اين چت‌بات‌ها مي‌توانند در پيام‌رسان‌هاي با كاربر بالا مثل تلگرام يا واتس‌اپ و ايتا فعال شوند، و به كاربر كمك كنند منبع يك خبر را بررسي يا ادعايي را با داده‌هاي رسمي مقايسه كند.
-  براي تقويت دقت AI، دولت بايد داده‌هاي عمومي (مثل آمار اقتصادي، سياسي، قضايي يا سلامت) را به‌صورت شفاف منتشر كند. اين كار هم‌راستا با تأكيد بر شفافيت است.
- به جاي تأكيد بر استفاده از AI براي شناسايي و مجازات منتشركنندگان اخبار جعلي يا خلاف، بايد از آن براي اطلاع‌رساني و آموزش استفاده شود. اين رويكرد از خطر سانسور جلوگيري مي‌كند. مثل برچسب‌گذاري محتواي مشكوك در پلتفرم‌ها به‌جاي سانسور يا جرم‌انگاري. اتفاقا وجود خبر دروغ با برچسب دروغ نيز آموزنده‌تر از حذف آن است.
- همكاري با شركت‌هايي مثل xAI يا گوگل براي استفاده از ابزارهاي راستي‌آزمايي پيشرفته، با شرط حفظ استقلال و حريم خصوصي كاربران ايراني، به ويژه براي تحليل محتواهاي فارسي.
پيشنهادهاي اين خواننده محترم منطقي و روشن است ولي به نظرم بعيد است از سوي قانونگذاران ايراني مورد توجه قرارگيرد چون اگر چنين شود آنگاه خواهند ديد كه كاربران تندروي داخلي و براندازان خارج از كشور در شبكه‌هاي اجتماعي، بارها و بارها بيش از ديگران دروغ منتشر مي‌كنند. با گروه اول كه قصد مقابله نيست و به گروه دوم هم دسترسي قضايي ندارند. نتيجه ايجاد مشكل براي كاربران منطقي و مستقل و مسوول است.

ارسال دیدگاه شما

ورود به حساب کاربری
ایجاد حساب کاربری
عنوان صفحه‌ها
کارتون
کارتون