• 1404 دوشنبه 13 مرداد
روزنامه در یک نگاه
امکانات
روزنامه در یک نگاه دریافت همه صفحات
تبلیغات
fhk; whnvhj ایرانول بانک ملی بیمه ملت

30 شماره آخر

  • شماره 6108 -
  • 1404 دوشنبه 13 مرداد

دروغ‌سنج ارزان، دقيق، سريع و بي‌خطر

- تشخيص خودكار اخبار جعلي؛ كه با تكيه بر مدل‌هاي يادگيري الگوهاي زباني از سوي هوش مصنوعی مي‌تواند منابع غيرمعتبر، يا تناقضات در اخبار را شناسايي كنند. هم‌اكنون پلتفرم‌هايي مانند Full Fact در بريتانيا يا پروژه‌هاي AI مثل Grok (توسعه‌يافته توسط xAI) براي تحليل محتوا و شناسايي ادعاهاي مشكوك استفاده مي‌شوند. اين شيوه به دليل سرعت بالا در پردازش حجم عظيم داده‌ها، به‌ويژه در شبكه‌هاي اجتماعي مزيت بالايي دارند.
- تحليل تصاوير و ويدئوها؛ الگوريتم‌هاي بينايي كامپيوتري مي‌توانند تصاوير يا ويدئوهاي دستكاري‌شده (Deepfake) را شناسايي كنند. ابزارهايي مثل Google Fact Check Explorer يا InVID تصاوير را با منابع معتبر مقايسه مي‌كنند. براي مثال؛ شناسايي ويدئوهاي جعلي در انتخابات يا بحران‌ها (مثل جنگ ١٢ روزه با اسراييل) را به راحتي انجام مي‌دهند. مزيت آن نيز كاهش تأثير محتواهاي بصري گمراه‌كننده‌اي است كه به سرعت بازنشر مي‌شود.
- راستي‌آزمايي ادعاها با داده‌هاي باز؛ هوش مصنوعی مي‌تواند ادعاهاي مطرح‌شده در رسانه‌ها را با پايگاه‌هاي داده عمومي (مثل آمار دولتي، گزارش‌هاي سازمان‌هاي بين‌المللي) مقايسه كند و صحت آنها را ارزيابي كند و موجب كاهش سوگيري انساني در فرآيند راستي‌آزمايي شود.
- مديريت شايعات در زمان كوتاه؛ هوش مصنوعی مي‌تواند روند انتشار شايعات را در پلتفرم‌هايي مثل X يا تلگرام يا شبكه‌هاي ايراني رصد كرده و با هشدار به موقع به كاربران يا پلتفرم‌ها، گسترش آنها را محدود كند و واكنش سريع به اطلاعات نادرست در بحران‌ها بروز دهد.
- آموزش و توانمندسازي كاربران؛ چت‌بات‌هاي مبتني بر AI مي‌توانند به كاربران كمك كنند تا منابع خبري را تحليل كنند يا صحت يك ادعا را بررسي كنند. مثل چت‌بات‌هايي كه در واتس‌اپ يا تلگرام به كاربران پاسخ مي‌دهند و منابع معتبر را پيشنهاد مي‌كنند و سواد رسانه‌اي به‌صورت تعاملي و در دسترس را افزايش دهند. 
البته هوش مصنوعي در راستي‌آزمايي اخبار محدوديت‌هایي هم دارد از جمله؛ 
- وابستگي به داده‌هاي باكيفيت؛ هوش مصنوعی براي عملكرد موثر نيازمند دسترسي به داده‌هاي معتبر و گسترده است. در كشورهايي مثل ايران كه دسترسي به داده‌هاي شفاف محدود است، دقت آن كاهش مي‌يابد و اگر پايگاه‌هاي داده ناقص يا مغرضانه باشند، ممكن است نتايج گمراه‌كننده توليد كند.
- سوگيري الگوريتمي؛ الگوريتم‌هاي هوش مصنوعی ممكن است به دليل طراحي يا داده‌هاي آموزشي، سوگيري‌هاي فرهنگي، سياسي يا زباني داشته باشند. اين مشكل در جوامع قطبي‌شده مثل ايران مي‌تواند اعتماد به آن را كاهش دهد و بدون نظارت انساني، ممكن است به‌طور ناخواسته برخي گروه‌ها را سانسور يا بدنام كند. البته با گذشت زمان و با انجام اصلاحات لازم، مي‌توان كارايي آنها را ارتقا داد.
- ناتواني در  درك زمينه محتوا؛ هوش مصنوعی در تحليل طنز، كنايه يا محتواي فرهنگي خاص ممكن است اشتباه كند و يك ادعاي غيرجدي را به عنوان دروغ شناسايي كند. اين محدوديت مي‌تواند به برچسب‌گذاري نادرست محتوا منجر شود.
- خطر سانسور و سوءاستفاده؛ دولت‌ها يا شركت‌هاي بزرگ ممكن است از هوش مصنوعی براي سركوب محتواي مخالف تحت عنوان «راستي‌آزمايي» استفاده كنند، كه با هشدارهاي موجود درباره جرم‌انگاري هم‌راستاست و در نبود نهادهاي مستقل، مي‌تواند به ابزاري براي كنترل اطلاعات تبديل شود.
- محدوديت‌هاي فني در محتواهاي غيرمتني؛ هوش مصنوعی در شناسايي Deepfake‌هاي پيشرفته يا محتواهاي دستكاري‌شده صوتي، هنوز چالش‌برانگيز است و نياز به فناوري‌هاي پيشرفته‌تر دارد. اين مشكل در كشورهايي با زيرساخت‌هاي ضعيف‌تر پررنگ‌تر است.
براي استفاده از AI در راستي‌آزمايي و مقابله با خلاف‌گويي در ايران و با توجه به لزوم غلبه رويكرد حقيقت‌محوري و اجتناب حداكثري از رويكرد كيفري، اقدامات زير پيشنهاد مي‌شود: 
- ايجاد پلتفرم‌هاي راستي‌آزمايي مبتني بر هوش مصنوعی با همكاري دانشگاه‌ها و سازمان‌هاي غيردولتي مستقل. اين ابزارها بايد متن‌باز (Open-Source) باشند تا از سوءاستفاده جلوگيري شود. براي نمونه ابزاري باشد كه محتواي پربازديد در تلگرام يا X و از همه مهم‌تر در شبكه‌هاي داخلي ايتا و بله را تحليل و با داده‌هاي عمومي (مثل آمار رسمي مركز آمار و بانك مركزي) مقايسه كند.
- براي كاهش سوگيري و خطا، AI بايد با تيم‌هاي راستي‌آزمايي انساني (شامل روزنامه‌نگاران و محققان مستقل) تركيب شود. اين تيم‌ها مي‌توانند زمينه فرهنگي و سياسي را بهتر تحليل كنند.
- توسعه چت‌بات‌هاي آموزشي به زبان فارسي و با توجه به فرهنگ محلي، كاربران را در تحليل اخبار راهنمايي مي‌كنند. اين چت‌بات‌ها مي‌توانند در پيام‌رسان‌هاي با كاربر بالا مثل تلگرام يا واتس‌اپ و ايتا فعال شوند، و به كاربر كمك كنند منبع يك خبر را بررسي يا ادعايي را با داده‌هاي رسمي مقايسه كند.
-  براي تقويت دقت AI، دولت بايد داده‌هاي عمومي (مثل آمار اقتصادي، سياسي، قضايي يا سلامت) را به‌صورت شفاف منتشر كند. اين كار هم‌راستا با تأكيد بر شفافيت است.
- به جاي تأكيد بر استفاده از AI براي شناسايي و مجازات منتشركنندگان اخبار جعلي يا خلاف، بايد از آن براي اطلاع‌رساني و آموزش استفاده شود. اين رويكرد از خطر سانسور جلوگيري مي‌كند. مثل برچسب‌گذاري محتواي مشكوك در پلتفرم‌ها به‌جاي سانسور يا جرم‌انگاري. اتفاقا وجود خبر دروغ با برچسب دروغ نيز آموزنده‌تر از حذف آن است.
- همكاري با شركت‌هايي مثل xAI يا گوگل براي استفاده از ابزارهاي راستي‌آزمايي پيشرفته، با شرط حفظ استقلال و حريم خصوصي كاربران ايراني، به ويژه براي تحليل محتواهاي فارسي.
پيشنهادهاي اين خواننده محترم منطقي و روشن است ولي به نظرم بعيد است از سوي قانونگذاران ايراني مورد توجه قرارگيرد چون اگر چنين شود آنگاه خواهند ديد كه كاربران تندروي داخلي و براندازان خارج از كشور در شبكه‌هاي اجتماعي، بارها و بارها بيش از ديگران دروغ منتشر مي‌كنند. با گروه اول كه قصد مقابله نيست و به گروه دوم هم دسترسي قضايي ندارند. نتيجه ايجاد مشكل براي كاربران منطقي و مستقل و مسوول است.

ارسال دیدگاه شما

ورود به حساب کاربری
ایجاد حساب کاربری
عنوان صفحه‌ها
کارتون
کارتون