در دنیای امروزی که اطلاعات نادرست سایبری در هر گوشهای از فضای آنلاین حضور دارد، چهگونه میتوانیم از خود و جامعهمان محافظت کنیم؟ اطلاعات غلط سایبری به عنوان یک تهدید جدی برای ارزشهای دموکراتیک شناخته میشود. با افزایش حجم اطلاعات نادرست، نقش فناوریهای پیشرفته مانند هوش مصنوعی و زبانشناسی در تشخیص و مقابله با آنها اهمیت بیشتری پیدا میکند.
حقیقت در محاصره: راهنمای جامع بقا در جنگ اطلاعاتی آنلاین
ما در عصری زندگی میکنیم که مرز بین واقعیت و خیال، به باریکی یک پیکسل شده است. هر روز صبح که چشمان خود را باز میکنیم و وارد زیستبوم دیجیتال میشویم، ناخواسته به یک میدان نبرد تمامعیار قدم میگذاریم: جنگ اطلاعاتی آنلاین. این دیگر یک مفهوم تئوریک یا سناریویی برای فیلمهای علمی-تخیلی نیست؛ بلکه یک واقعیت ملموس و روزمره است که دموکراسیها، کسبوکارها و سلامت روانی تکتک ما را هدف قرار داده است.

از دیپفیکهایی که میتوانند اعتبار رهبران جهان را در چند ثانیه نابود کنند گرفته تا الگوریتمهای سوگیرانهای که ما را در «حبابهای فیلتر» و «تالارهای پژواک» خودساخته حبس میکنند؛ پدیدههایی هستند که قواعد بازی را برای همیشه تغییر دادهاند. اما در این چشمانداز پیچیده و گاه ترسناک، چه کاری از دست ما ساخته است؟ چهگونه میتوانیم خود را، سازمانهایمان را و جوامعمان را در برابر این سونامی اطلاعات نادرست مسلح کنیم؟
این مقاله تنها یک هشدار نیست، بلکه یک نقشهی راه است. یک تحلیل عمیق از ابزارها و تاکتیکهای مورد استفاده در این جنگ نامتقارن و مجموعهای از استراتژیهای دفاعی که با کمک پیشرفتهترین تحقیقات علمی و فناوریهای نوظهور تدوین شدهاند. در این مطلب خواهید داد که چهگونه هوش مصنوعی، که خود یکی از عوامل اصلی این تهدید است، میتواند به قدرتمندترین سلاح ما برای مقابله با آن نیز تبدیل شود.
اطلاعات نادرست سایبری: چالشی جهانی
در این دنیای پرتلاطم دیجیتال، مقابله با اطلاعات نادرست سایبری به یک ضرورت حیاتی تبدیل شده است. با گسترش سریع فناوریهای هوش مصنوعی مانند دیپفیکها و الگوریتمهای دارای سوگیری؛ اطلاعات غلط نه تنها در شبکههای اجتماعی بلکه در موتورهای جستوجو و تارنماها نیز در حال افزایش هستند. این پدیده میتواند منجر به جرایم نفرتزا، خشونت و حتا تهدید ارزشهای دموکراتیک شود.
بر اساس گزارشهای اخیر، بیش از ۷۵ درصد کاربران شبکههای اجتماعی با محتوای دستکاریشده مواجه شدهاند و این مساله به ویژه در سال ۲۰۲۵، با افزایش حملات سایبری ترکیبی، شدت یافته است. اما امیدهایی وجود دارد: تحقیقات اتحادیهی اروپا در چندین پروژه ابزارهای پیشرفتهای برای تشخیص و مقابله ارایه میدهند که میتوانند پلیس و افراد عادی را یاری کنند. تاثیر اطلاعات نادرست سایبری بر جامعه فراتر از حوزهی دیجیتال است. این پدیده میتواند جرایم نفرتزا را افزایش دهد، زیرا محتوای دستکاریشده اغلب گروههای اقلیت را هدف قرار میدهد.
گزارشهای جهانی نشان میدهند که اطلاعات غلط منجر به خشونت واقعی شده است، مانند موارد دیده شده در برخی از انتخابات اخیر اروپا که دیپفیکها برای بدنام کردن کاندیداها استفاده شدند و پلیس اروپا که اغلب فاقد ابزارهای تخصصی است، با چالشهای جدی در این مورد روبهرو بوده است. بسیاری از مقامات پلیس دسترسی به فناوریهای پیشرفته برای ردیابی این تهدیدها ندارند که این مساله نیاز به همکاری بینالمللی را برجسته میکند. پروژهی VIGILANT۱، که توسط اتحادیهی اروپا تامین مالی شده، پلتفرمی یکپارچه برای شناسایی و تحلیل اطلاعات غلط ارایه میدهد و به پلیس کمک میکند تا محتوای مرتبط با فعالیتهای جنایی را تشخیص دهد.
هرچند اطلاعات غلط سایبری تهدیدی مستقیم برای ارزشهای دموکراتیک به حساب میآیند؛ اما افراد عادی نیز در معرض دستکاری هستند. ما روزانه از طریق فیدهای شبکههای اجتماعی یا موتورهای جستوجو با اطلاعات غلط مواجه میشویم. این محتوا میتواند به صورت منفعل، مانند پیشنهادهای الگوریتمی یا فعال، مانند جستوجوهای هدایتشده به صفحات دارای سوگیری، ظاهر شود.
دادهها در یک نگاه: مقیاس چالش
برای درک بهتر ابعاد این بحران، بررسی آمار و ارقام ضروری است. دادههای زیر که از منابع معتبر تحقیقاتی و گزارشهای صنعتی استخراج شدهاند، تصویری واضحتر از وضعیت فعلی ارایه میدهند.
شاخص | آمار و ارقام | منبع/توضیح |
رشد حوادث مرتبط با دیپفیک | افزایش بیش از ۹۰۰% در تعداد ویدیوهای دیپفیک آنلاین بین سالهای ۲۰۱۹ تا ۲۰۲۳ | گزارشهای شرکتهای امنیت سایبری مانند Sumsub. این رشد شامل استفادههای مخرب در سیاست، کلاهبرداری مالی و تولید محتوای غیرقانونی است. |
اعتماد به اخبار در رسانههای اجتماعی | تنها ۲۷% از بزرگسالان در سطح جهان به اخباری که در رسانههای اجتماعی میبینند بسیار یا تا حدی اعتماد دارند. | گزارش سال ۲۰۲۴ موسسهی رویترز برای مطالعه روزنامهنگاری. این آمار نشاندهندهی بحران اعتماد عمیق به پلتفرمهاست. |
هزینه اقتصادی اطلاعات نادرست | تخمین زده میشود که اطلاعات نادرست سالانه ۷۸ میلیارد دلار برای اقتصاد جهانی هزینه دارد. | این هزینه شامل تاثیر بر بازارهای مالی، آسیب به برندها، هزینههای امنیت سایبری و هزینههای بهداشت عمومی (مانند کمپینهای ضد واکسن) است. |
آسیبپذیری زبانهای کممنبع | بیش از ۹۵% از دادههای مورد استفاده برای آموزش مدلهای زبانی بزرگ، به تنها ۱۲ زبان تعلق دارد. | این شکاف باعث میشود بیش از ۶۰۰۰ زبان دیگر در جهان در برابر اطلاعات نادرست مبتنی بر هوش مصنوعی بسیار آسیبپذیرتر باشند (تحقیقات دانشگاه استنفورد). |
آمارهای کلیدی در مورد اطلاعات غلط سایبری را میتوان در جدول زیر مشاهده کرد:
شاخص | مقدار | منبع توضیحی |
---|---|---|
تعداد دیپفیکهای پیشبینیشده در ۲۰۲۵ | ۸ میلیون | دو برابر شدن هر شش ماه |
درصد کاربران مواجه با محتوای دستکاریشده | ۷۵% | گزارشهای شبکههای اجتماعی |
درصد محتوای سوگیرانه در واقعیتهای AI | تا ۳۸.۶% | تحقیقات دانشگاه USC |
رتبه اطلاعات غلط در ریسکهای جهانی کوتاهمدت | اول | گزارش ریسک جهانی ۲۰۲۵ |
افزایش حملات سایبری ترکیبی در ۲۰۲۵ | ۲۷% | گزارشهای اقتصادی جهانی |
حداقل لایکهای لازم برای فیلتر محتوای محبوب | ۱۰ | جستوجوهای پیشرفته X |
درصد کاهش سوگیری با ممیزی الگوریتمها | ۳۸.۶% | مطالعات الگوریتمی |
زرادخانهی فریب: تشریح سلاحهای جنگ اطلاعاتی
برای مقابله با دشمن، ابتدا باید سلاحهای او را شناخت. در جنگ اطلاعاتی آنلاین، این سلاحها نه از جنس فولاد، بلکه از جنس کُد و الگوریتم هستند و با هدف قرار دادن آسیبپذیریهای روانشناختی ما طراحی شدهاند.
دیپفیکها: توهمات واقعنما
دیپ فیک (Deepfake) یا جعل عمیق، شاید سینماییترین و در عین حال نگرانکنندهترین سلاح این زرادخانه باشد. این فناوری با استفاده از شبکههای متخاصم مولد (GANs)۲ قادر است ویدیوها و صداهایی تولید کند که تا حد زیادی از نمونهی واقعی غیرقابل تشخیص هستند. تصور کنید ویدیویی از یک سیاستمدار برجسته منتشر میشود که در آن به جنایتی اعتراف میکند یا اظهاراتی نژادپرستانه به زبان میآورد، آن هم درست چند روز قبل از یک انتخابات سرنوشتساز. حتا اگر پس از چند ساعت یا چند روز جعلی بودن آن اثبات شود، آسیب اولیه وارد شده است. اعتماد عمومی از بین رفته و بذر شک و دودلی در جامعه کاشته شده است.
این فناوری دیگر محدود به استودیوهای هالیوود یا آزمایشگاههای تحقیقاتی پیشرفته نیست. با ظهور ابزارهای کاربرپسند، هزینه و مهارت لازم برای ساخت دیپفیکهای متقاعدکننده به شدت کاهش یافته است. این «دموکراتیزه شدن» فناوری جعل، تهدیدی جدی برای امنیت فردی (از طریق پورنوگرافی انتقامجویانه) و امنیت ملی (از طریق ایجاد بحرانهای دیپلماتیک یا تحریک خشونتهای داخلی) محسوب میشود.
الگوریتمهای سوگیرانه: معماران نامرئی تفرقه
اگر دیپفیکها حملات مستقیم و آشکار در این جنگ هستند، الگوریتمهای سوگیرانه۳ حملاتی خاموش و فرسایشی را رهبری میکنند. موتورهای جستوجو و پلتفرمهای رسانههای اجتماعی، برای به حداکثر رساندن تعامل کاربر۴، محتوایی را به ما نشان میدهند که الگوریتم پیشبینی میکند از آن لذت خواهیم برد. این فرآیند به ظاهر بیخطر، به مرور زمان ما را در یک «حباب فیلتر۵» قرار میدهد؛ دنیایی که در آن تنها با نظرات و دیدگاههایی مواجه میشویم که باورهای قبلی ما را تایید میکنند.
نتیجهی این فرآیند، ایجاد «تالارهای پژواک۶» است؛ جوامع آنلاین بستهای که در آن یک روایت خاص به طور مداوم تکرار و تقویت میشود و هرگونه دیدگاه مخالف، به عنوان اطلاعات نادرست یا تبلیغات مغرضانه رد میشود. این الگوریتمها که توسط شرکتها برای اهداف تجاری طراحی شدهاند، ناخواسته به ابزاری قدرتمند برای بازیگران مخرب تبدیل شدهاند تا جوامع را دوقطبی کرده، بیاعتمادی را گسترش دهند و زمینه را برای پذیرش تئوریهای توطئه و اطلاعات به کلی نادرست فراهم کنند.
نقش غولهای فناوری: نگهبان یا توانمندساز؟
در مرکز این میدان نبرد، شرکتهای بزرگ فناوری قرار دارند. پلتفرمهای آنها زمین اصلی این درگیری است و الگوریتمهایشان قواعد بازی را تعیین میکنند. این شرکتها تلاشهای قابل توجهی برای مقابله با اطلاعات نادرست انجام دادهاند؛ از استخدام دهها هزار ناظر محتوا گرفته تا سرمایهگذاری میلیاردها دلار در توسعهی سیستمهای هوش مصنوعی برای شناسایی و حذف محتوای مخرب. با این حال، منتقدان معتقدند که مدل کسبوکار این شرکتها که مبتنی بر «اقتصاد توجه۷» است، در ذات خود با سلامت زیسببوم اطلاعاتی در تضاد قرار دارد.
محتوایی که احساسات شدیدی مانند خشم، ترس و نفرت را برمیانگیزد، به طور معمول بیشترین تعامل را دریافت میکند و در نتیجه توسط الگوریتمها بیشتر ترویج میشود. این بدان معناست که محتوای افراطی و تفرقهافکن، شانس بیشتری برای وایرال شدن نسبت به محتوای معتدل و مبتنی بر واقعیت دارد. این تنش ذاتی بین سودآوری و مسئولیت اجتماعی، بزرگترین چالش در مسیر تنظیمگری این پلتفرمهاست.

استراتژیهای پیشرفته برای دفاع در برابر جنگ شناختی دیجیتال
مقابله با چنین تهدید پیچیده و چندوجهی از سوی اطلاعات غلط سایبری؛ نیازمند یک رویکرد چندلایه است که ترکیبی از فناوری پیشرفته، تنظیمگری هوشمند، آموزش عمومی و توانمندسازی فردی باشد.
هوش مصنوعی: شمشیر دولبه
همان طور که هوش مصنوعی در قلب مشکل قرار دارد، در قلب راهحل نیز قرار گرفته است. امروزه، الگوریتمهای یادگیری ماشین۸ و پردازش زبان طبیعی۹ در خط مقدم شناسایی اطلاعات نادرست قرار دارند. این سیستمها میتوانند میلیونها پست، مقاله و ویدیو را در کسری از ثانیه تحلیل کرده و الگوهایی را شناسایی کنند که با کمپینهای انتشار اطلاعات نادرست مرتبط هستند. آنها میتوانند ناهماهنگیهای ظریف در ویدیوهای دیپ فیک و اخبار جعلی را تشخیص دهند یا تحلیل کنند که چه گونه یک روایت خاص به صورت هماهنگ در شبکهای از رباتها منتشر میشود.
اما این فناوری با چالشهای بزرگی نیز روبهروست. یکی از مهمترین این چالشها، که پروژهی DisAI با هدایت ماریان شیمکو۱۰ در موسسهی فناوریهای هوشمند کِمپِلِن۱۱ در اسلواکی به آن میپردازد، مشکل «زبانهای کممنبع۱۲» است. مدلهای زبانی بزرگ (LLMs) که اساس این سیستمهای شناسایی را تشکیل میدهند، اغلب بر روی حجم عظیمی از دادههای زبان انگلیسی آموزش دیدهاند. در نتیجه، کارایی آنها برای زبانهایی که حضور آنلاین کمتری دارند، به شدت کاهش مییابد. این شکاف دیجیتال، جوامع غیرانگلیسیزبان را به اهدافی آسیبپذیرتر برای کمپینهای اطلاعات نادرست تبدیل میکند. پروژه DisAI در تلاش است تا با توسعهی رویکردهای نوین، عملکرد این مدلها را برای زبانهای کممنبع بهبود بخشد و یک دفاع عادلانهتر را برای تمام جوامع فراهم کند.
توانمندسازی کاربر: ممیزی الگوریتمها و کنترل فردی
یک رویکرد کلیدی دیگر، تغییر تمرکز از حذف محتوا به توانمندسازی کاربر است. به جای این که کاربران دریافتکنندگان منفعل محتوای الگوریتمی باشند، باید ابزارهایی در اختیارشان قرار گیرد تا کنترل بیشتری بر روی آن چه میبینند داشته باشند. این دقیقا همان فلسفهای است که اوون کانلن۱۳، استاد کالج ترینیتی دوبلین۱۴، در پروژهی VIGILANT دنبال میکند. این پروژه به دنبال توسعهی سیستمهای مبتنی بر هوش مصنوعی است که به کاربران اجازه میدهند تا تنظیمات شخصیسازی الگوریتمها را خودشان کنترل و مدیریت کنند. این کار نه تنها به کاهش اثر حبابهای فیلتر کمک میکند، بلکه شفافیت و اعتماد را نیز افزایش میدهد.
جبههی تنظیمگری و حکومتی
دولتها و نهادهای بینالمللی نیز به طور فزایندهای در حال ورود به این عرصه هستند. اتحادیهی اروپا با تصویب «قانون خدمات دیجیتال۱۵»، گامی بلند در این زمینه برداشته است. این قانون، پلتفرمهای آنلاین بسیار بزرگ را ملزم میکند تا ارزیابیهای ریسک جامعی در مورد خطرات سیستمی ناشی از خدمات خود (از جمله انتشار اطلاعات نادرست) انجام دهند و اقدامات متناسبی برای کاهش این خطرات اتخاذ کنند. DSA همچنین بر شفافیت الگوریتمی تاکید دارد و به محققان معتبر اجازهی دسترسی به دادههای پلتفرمها را میدهد تا بتوانند تاثیرات آنها بر جامعه را به طور مستقل مطالعه کنند.

کیت دفاع شخصی: راهنمای تابآوری دیجیتال
در نهایت، موثرترین خط دفاعی، خود ما هستیم. ارتقای سواد رسانهای و تفکر انتقادی، حیاتیترین مهارت برای بقا در این زیستبوم اطلاعاتی پیچیده است. در این جا چند استراتژی عملی ارایه میشود:
- مکث و تامل کنید: قبل از به اشتراک گذاشتن هر محتوایی، به خصوص اگر احساسات شدیدی در شما برانگیخته است، چند لحظه صبر کنید. واکنشهای احساسی فوری، بهترین دوست منتشرکنندگان اطلاعات نادرست است.
- منبع را بررسی کنید: آیا منبع خبر را میشناسید؟ آیا یک رسانهی معتبر با سابقه روزنامهنگاری دقیق است یا یک وبسایت ناشناس با عنوانی جنجالی؟ آدرس URL را به دقت بررسی کنید.
- به دنبال پوشش متقاطع باشید: آیا رسانههای معتبر دیگر نیز همین خبر را گزارش کردهاند؟ اگر یک خبر مهم فقط در یک یا دو منبع نامعتبر دیده میشود، باید به آن شک کرد.
- از ابزارهای راستیآزمایی استفاده کنید: وبسایتهای معتبر راستیآزمایی۱۶ مانند Snopes ،PolitiFact و سرویسهای راستیآزمایی خبرگزاریهای بزرگ (مانند AFP Fact Check) منابعی عالی برای بررسی ادعاهای مشکوک هستند.
- مراقب سوگیریهای خود باشید: همهی ما تمایل داریم اطلاعاتی را باور کنیم که با دیدگاههای ما همخوانی دارد (سوگیری تاییدی). فعالانه به دنبال دیدگاههای مخالف و منابعی باشید که باورهای شما را به چالش میکشند.
جمعبندی و نتیجهگیری
ما روزانه از طریق فیدهای شبکههای اجتماعی یا موتورهای جستوجو با اطلاعات نادرست مواجه میشویم. در سال ۲۰۲۵، با افزایش استفاده از هوش مصنوعی در تشخیص، ابزارهایی مانند مدلهای یادگیری ماشین میتوانند به کاربران کمک کنند تا محتوای جعلی را شناسایی کنند اما از آن سو؛ تهدیدهای سایبری ترکیبی – ترکیب حملات سایبری با اطلاعات نادرست – افزایش یافته است.
برای مثال؛ در درگیریهای خاورمیانه، رسانهها هدف کمپینهای اطلاعات غلط و جاسوسی بودهاند. گزارشهای جهانی ریسک نشان میدهند که اطلاعات نادرست در صدر ریسکهای کوتاهمدت قرار دارند و میتوانند ناآرامی و عدم اعتماد به حکومت را افزایش دهند. هوش مصنوعی میتواند هم برای ایجاد دیپفیکها استفاده شود و هم برای مقابله با آنها. مدلهای تشخیص مبتنی بر AI، مانند پروژهی FARE_AUDIT روی بررسیهای انسانی و الگوریتمی تمرکز دارند و از اخبار جعلی به عنوان مدل استفاده میکنند.
شرکتها نیز تلاشهایی برای حذف سایتهای اخبار جعلی و کاهش گسترش اطلاعات غلط سایبری در شبکههای اجتماعی انجام دادهاند، اما موتورهای جستوجو چه طور؟ الگوریتمهای جستوجو اغلب به دلیل «data voids» یا شکاف اطلاعاتی، کاربران را به محتوای غلط هدایت میکنند. این جا نقش وبکراولر۱۷ها برجسته میشود. وبکراولرها، که رباتهایی برای اسکن وب هستند، میتوانند برای ممیزی فعالیت موتورهای جستوجو استفاده شوند. با تحلیل الگوهای جستوجو، سوگیریها را شناسایی و اصلاح کرد. تحقیقات نشان میدهد که ممیزی موتورهای جستوجو میتواند تا ۳۸.۶ درصد از محتوای سوگیرانه و دارای تعصب را کاهش دهد.

اطلاعات غلط سایبری تهدیدی مستقیم برای ارزشهای دموکراتیک است. با افزایش حجم اطلاعات غلط، هوش مصنوعی و فناوریهای زبانی نقش کلیدی در تشخیص ایفا میکنند. مدلهای بزرگ زبانی (LLMs) بر دادههای عظیم آموزش میبینند، اما زبانهای کممنبع – زبانهایی که حضور آنلاین کمتری دارند – چالشبرانگیز هستند. در این زبانها، تشخیص اطلاعات غلط دشوارتر است زیرا دادههای آموزشی کافی وجود ندارد. پروژهی DisAI بر توسعهی رویکردهای جدید برای پردازش زبان تمرکز دارد تا عملکرد مدلهای یادگیری را برای زبانهای کماستفاده بهبود بخشد.
جنگ اطلاعاتی آنلاین، یک چالش تعیینکننده برای نسل ماست. این نبردی است که در آن حقیقت، اعتماد و بنیانهای جوامع دموکراتیک در معرض خطر قرار دارند. همان طور که دیدیم؛ تهدیدها از دیپفیکهای پیچیده تا الگوریتمهای نامرئی که ادراک ما را شکل میدهند، گسترده و متنوع هستند. با این حال، ما بیدفاع نیستیم.
آیندهی این نبرد به یک مسابقهی تسلیحاتی مداوم بین فناوریهای تولید اطلاعات نادرست و فناوریهای شناسایی آن بستگی خواهد داشت. پروژههای تحقیقاتی پیشرو مانند VIGILANT، FARE_AUDIT و DisAI نشان میدهند که جامعهی علمی به طور جدی در حال توسعهی ابزارها و چارچوبهای لازم برای دفاع است. در عین حال، چارچوبهای قانونی مانند DSA در اروپا، گامی مهم به سوی مسئولیتپذیر کردن پلتفرمها و ایجاد شفافیت بیشتر هستند.
اما در نهایت، سرنوشت حقیقت در دستان شهروندان آگاه و مجهز به تفکرِ انتقادی قرار دارد. فناوری و قانونگذاری میتوانند ابزارهای قدرتمندی باشند، اما بدون وجود جامعهای که برای حقیقت ارزش قایل است و حاضر است برای آن تلاش کند؛ این ابزارها کارایی خود را از دست خواهند داد. پیروزی در جنگ اطلاعاتی آنلاین نیازمند یک اتحاد جهانی بین محققان، سیاستگذاران، شرکتهای فناوری و از همه مهمتر، تکتک شهروندان دیجیتال است. این نبردی است که نمیتوانیم در آن شکست بخوریم، زیرا بهای آن، از دست دادن خودِ واقعیت است.
- Vital IntelliGence to Investigate ILlegAl DisiNformaTion: یک پروژهی حمایت شده توسط اتحادیه اروپا در چارچوب برنامهی Horizon Europe است، با تمرکز بر حوزهی «امنیت مدنی برای جامعه» که هدف اصلی آن توسعهی پلتفرمی یکپارچه است که با استفاده از ابزارها و فناوریهای پیشرفته، به ویژه مبتنی بر هوش مصنوعی، به نیروهای پلیس کمک میکند تا اطلاعات غلط (disinformation) مرتبط با فعالیتهای مجرمانه را شناسایی، تحلیل و پیگیری کنند. ↩︎
- شبکههای متخاصم مولد یا GANs (Generative Adversarial Networks) یک نوع مدل یادگیری ماشین هستند که از دو شبکهی عصبی تشکیل شدهاند: یک مولد و یک متمایزکننده. وظیفهی مولد ایجاد دادههای جدید و ساختگی است، در حالی که متمایزکننده تلاش میکند این دادههای ساختگی را از دادههای واقعی تشخیص دهد. این دو شبکه در یک فرآیند رقابتی با هم کار میکنند و به تدریج دادههایی با کیفیت بالاتر و واقعیتر تولید میکنند. ↩︎
- Biased Algorithms ↩︎
- Engagement ↩︎
- Filter Bubble ↩︎
- Echo Chambers ↩︎
- Attention Economy: مفهومی در علوم اجتماعی، اقتصاد دیجیتال و رسانه است که میگوید: در عصر اطلاعات، منبع کمیاب، توجه انسان است نه اطلاعات. از آن جا که ما با انبوهی از دادهها، پیامها، تبلیغات و محتوای آنلاین مواجه هستیم، شرکتها و پلتفرمها برای جلب توجه کاربران رقابت میکنند. این رقابت شکلگیری بازاری را رقم زده است که در آن توجه، همانند یک «کالا» ارزشگذاری، خرید و فروش میشود. ↩︎
- Machine Learning ↩︎
- Natural Language Processing – NLP ↩︎
- Marián Šimko ↩︎
- Kempelen Institute of Intelligent Technologies ↩︎
- Low-Resource Languages ↩︎
- Owen Conlan ↩︎
- Trinity College Dublin ↩︎
- Digital Services Act – DSA ↩︎
- Fact-Checking ↩︎
- Web Crawler ↩︎