حقایق یا جعلی؟ربات های اجتماعی ، اخبار جعلی و رسانه های اجتماعی

  • 2021-09-21

Facts or fakes? Social bots, fake news and social media

طرف تاریک بیان عمومی عقاید - رباتهای اجتماعی ، اخبار جعلی و اطلاعات نادرست - موضوعی داغ در رسانه ها ، سیاست ها و گفتمان عمومی است. این احساس که از شبکه های اجتماعی برای دستکاری و تبلیغات استفاده می شود ، به طور فزاینده ای جنبه های مثبت آنها را تحت الشعاع قرار می دهد. در این مصاحبه ، پروفسور هایک تراوتمن و دکتر کریستین گریم از دانشگاه مونستر در مورد آخرین تحقیقات خود در مورد این موضوع صحبت می کنند.

دکتر گریم ، اگر دستکاری و اطلاعاتی در سیستم عامل های رسانه های اجتماعی پخش شود ، آیا باید از استفاده از رسانه های اجتماعی دست برداریم؟

کریستین گریم: نه ، رسانه های اجتماعی اغلب برای مصارف شخصی و حرفه ای بسیار مفید هستند. ما از آن برای ماندن در تماس با دوستان و همکاران و به اشتراک گذاشتن اطلاعات و همکاری در این کانال ها استفاده می کنیم. به این ترتیب ، رسانه های اجتماعی مردم را از سراسر جهان متصل می کنند و امکان همکاری کارآمد را فراهم می کنند. این امکان را به همه می دهد تا در بحث سیاسی کم و بیش باز شرکت کنند. همچنین از منظر خدمات حرفه ای مشتری مهم است - فقط به تعامل بین مشتریان و مشاغل فکر کنید. تعداد بیش از حد کاربران و ادغام کامل رسانه های اجتماعی در زندگی ما نشان می دهد که برای مردم بسیار مفید است.

ما اغلب می شنویم که ربات های اجتماعی ، اخبار جعلی ، اطلاعات نادرست و حتی تبلیغات در رسانه های اجتماعی وجود دارد. به نظر می رسد همه چیز بدتر می شود.

کریستین گریم: بله ، ممکن است اینگونه به نظر برسد. اما در مورد امکاناتی که برای افرادی که حق آزادی بیان ندارند باز می شود ، فکر کنید. برای آنها ، رسانه های اجتماعی یک بستر ارزشمند است که بر روی آنها وضعیت بشردوستانه یا نظر سیاسی خود را توصیف می کنند. رسانه های اجتماعی فقط به این دلیل که همه می توانند شرکت کنند - از جمله افرادی که نظرات آنها به اشتراک نمی گذارند ، در اصل بد نیست. آنچه ما باید از آن آگاه باشیم ، و احتمالاً نیاز به مبارزه با آن ، سوء استفاده از فناوری از انتهای ، به عنوان مثال استفاده از ربات های اجتماعی است.

پروفسور Trautmann ، آیا می توانید به طور خلاصه خلاصه کنید که یک ربات اجتماعی چیست و چه کاری انجام می دهد؟

Heike Trautmann: مفهوم یک ربات اجتماعی تاکنون به خوبی تعریف نشده است. با این حال ، چندی پیش ما سعی کردیم تعریفی را در یک مقاله ارائه دهیم: ما یک ربات اجتماعی را یک عامل یا برنامه در نظر می گیریم که می تواند با کاربران رسانه های اجتماعی تعامل داشته باشد. این در واقع یک روبات است که در پشت یک حساب رسانه های اجتماعی پنهان است. از آنجا که به طور تعریف ، پروفایل های رسانه های اجتماعی انتزاعی از شخصیت انسان است ، به راحتی می توان انسان را با یک همتای روباتیک جایگزین کرد بدون اینکه کسی متوجه شود.

ربات های اجتماعی اغلب برای تحریف درک واقعیت استفاده می شوند. یک سناریوی بسیار ساده محبوبیت یک موضوع خاص را افزایش می دهد. هنگامی که بسیاری از حساب ها مانند این موضوع به اشتراک می گذارند یا در مورد این موضوع به اشتراک می گذارند ، شبکه های اجتماعی آن را بسیار مهم می دانند و دید موضوع را برای سایر کاربران افزایش می دهند ، حتی اگر ماشین ها در ابتدا آن را تبلیغ کنند.

اما این تنها راهی نیست که ربات های اجتماعی بتوانند جوامع را دستکاری کنند. چگونه ربات های اجتماعی می توانند به عنوان مثال نتیجه انتخابات را تغییر دهند؟

کریستین گریم: ما مطمئن نیستیم که آیا این حتی ممکن است ، اگرچه برخی از محققان ادعا می کنند که در اینجا ارتباطات مشخصی وجود خواهد داشت. با این حال ، ما می توانیم برخی از سناریوهای استراتژیک را تصور کنیم که در آن ربات های اجتماعی نقش مهمی ایفا می کنند. در مورد حمله از طریق اطلاعات نادرست که به طور غیرمستقیم و احتمالاً به طور تصادفی توسط رسانه ها پخش می شود ، فکر کنید. روزنامه نگاران برای یافتن داستان به طور فزاینده ای به رسانه های اجتماعی اعتماد می کنند. اگرچه هنوز اصول اخلاقی در رابطه با نحوه نوشتن روزنامه نگاران و جمع آوری و تأیید منابع وجود دارد ، اما آنها به طور فزاینده ای به موضوعاتی متوسل می شوند که در رسانه های اجتماعی برجسته هستند. اگر اکنون بتوانیم روندها ، محتوا و واکنش ها را به یک موضوع خاص در رسانه های اجتماعی دستکاری کنیم ، احتمالاً می توانیم این موضوع را از طریق ضرب روزنامه نگاری به گفتمان عمومی برسانیم. در این حالت ، ما نه تنها به کاربران رسانه های اجتماعی بلکه کل جامعه پرداختیم. به ویژه ، افرادی که از رسانه های اجتماعی استفاده نمی کنند.

این یک سناریوی نگران کننده است ، اما آیا واقعاً این کار آسان است؟

کریستین گریم: نه، البته که نه. این یک سناریوی تخیلی است. اگرچه، ما اغلب شاهد قدرت اطلاعاتی بوده‌ایم که در رسانه‌های اجتماعی دست به دست می‌شوند. به مجله طنز آلمانی فکر کنید که اطلاعات نادرستی در مورد شکاف در حزب محافظه کار آلمان منتشر کرد. از آنجایی که این احتمالاً به معنای پایان دولت فعلی بود، برخی از خبرگزاری ها - از جمله رویترز - آن را به وضوح بدون تأیید بیشتر گزارش کردند. این امر موجب بروز برخی آشفتگی‌ها و واکنش‌های سیاسی در بازارهای سهام شد. من فکر می کنم که این پتانسیل را نشان می دهد. اما دستکاری جامعه کار آسانی نیست. این نیاز به آمادگی زیاد، کمی شانس و مهمتر از همه زمان دارد. با این حال، اگر زمان کافی داده شود، می توان از اطلاعات نادرست، اخبار جعلی و ربات های اجتماعی برای دستیابی به تغییر دیدگاه طولانی مدت استفاده کرد.

آیا این بدان معناست که دستکاری، اخبار جعلی و ربات‌های اجتماعی می‌توانند اثرات اقتصادی و تأثیراتی بر مدیریت ارتباط با مشتری داشته باشند؟

Heike Trautmann: محققان انجمن آلمان برای امنیت در صنعت و تجارت (ASW) در یک مطالعه چند بردار حمله بسیار جالب را شناسایی کرده اند. علاوه بر دستکاری بازار سهام از طریق اطلاعات یا احساسات نادرست در رسانه های اجتماعی که برای دستکاری الگوریتم های معاملاتی خودکار استفاده می شود، بردارهای بسیار خاصی نیز وجود دارد که برای حمله به مشاغل استفاده می شود. از دست دادن شهرت موضوع مهمی است. همراه با بررسی های جعلی محصول، می توانید شهرت یک تجارت را به عنوان یک کارفرما یا شریک تجاری قابل اعتماد نیز از بین ببرید. همانطور که می بینید، این عواقب جدی برای مدیریت ارتباط با مشتری در هر دو بخش B2B و B2C دارد. با این حال، مفاهیم اساسی که در پس این حملات نهفته است، همان مفاهیمی است که در یک زمینه اجتماعی وجود دارد: تحریف محتوا در شبکه های اجتماعی به این امید که توسط عموم مردم پخش و دیده شود.

در مورد ربات های اجتماعی، اخبار جعلی و اطلاعات غلط چه کنیم؟در حال حاضر برخی تحقیقات، از جمله شما، در مورد ربات های اجتماعی وجود دارد. چرا نمی توانیم آنها را از رسانه های اجتماعی منع کنیم؟

کریستین گریم: در واقع ، شناسایی ربات های اجتماعی آسان نیست. برای انجام این کار ، همکاران مکانیسم هایی را ارائه داده اند که از شاخص های بسیار ساده گرفته تا رویکردهایی که از یادگیری ماشین استفاده می کنند ، متغیر است. اما در تجربه ما این شاخص ها ، هرچند ممکن است پیچیده باشد ، کافی نیست تا به طور قابل اعتماد اتوماسیون را به تنهایی در حساب های رسانه های اجتماعی تشخیص دهند. می توانید تصور کنید که شمارش پست های ساخته شده توسط یک حساب واحد در شرایط شدید می تواند مفید باشد. اما تنظیم آستانه ثابت که رباتها را از مردم متمایز می کند ، منطقی نیست.

مشکلات بزرگی نیز با رویکردهای یادگیری ماشین ، مانند بوتومتر معروف که قبلاً با عنوان Botornot شناخته می شد ، بوجود می آید. به منظور آموزش یک ردیاب مانند این ، حساب های مورد بررسی به صورت دستی از افراد و ربات های اجتماعی برای شناسایی الگوهای مورد نیاز است. اگرچه این می تواند به یافتن برخی از الگوهای موجود در مجموعه داده های موجود کمک کند ، اما چگونگی توسعه حساب ها با گذشت زمان را نادیده می گیرد. در یک مطالعه ، ما متوجه شدیم که حسابهای BOT پس از چند ماه تغییر کرده است که ردیاب ها دیگر قادر به طبقه بندی داده های آموزش نیستند.

اگر برخورد با ربات های اجتماعی بسیار پیچیده است ، رویکرد شما چیست؟

کریستین گریم: صادقانه بگویم ، ما فکر می کنیم که تمرکز بر تشخیص ربات های اجتماعی نادرست است. چگونه می توان به دانستن اینکه آیا یک حساب کاربری خودکار ، نیمه اتوماتیک یا کنترل شده توسط شخص کمک می کند ، کمک می کند؟تا زمانی که ارسال روبات ها بخشی از یک استراتژی اطلاعات نادرست ، حمله یا حمله تبلیغاتی نیستند ، آنها اساساً مضر نیستند. برخی حتی مفید هستند ، داده های آب و هوا یا چیزهای جالب دیگر را ارسال می کنند. و آیا گروهی از افراد برای انجام حمله هماهنگ به افکار عمومی بهتر از تبلیغات خودکار پرداخت می شوند؟شماره

به همین دلیل ما فکر می کنیم که به جای عوامل فردی ، مراقب استراتژی های نادرست و دستکاری است. وقتی یک استراتژی مخرب پیدا می کنیم ، می توانیم هم ترول های اینترنتی و هم ربات های اجتماعی را از بالا به پایین شناسایی کنیم. بنابراین ما به یک شاخص واحد احتیاج نداریم ، بلکه چندین مورد که جنبه های مختلف یک کمپین و عوامل درگیر را برطرف می کنند. این مجموعه از شاخص ها همچنین می توانند شامل امکاناتی برای تشخیص اتوماسیون باشند ، اما این تمرکز نیست.

و آیا این بخشی از پروژه تحقیقاتی شما است؟

Heike Trautmann: بله ، ما در بسیاری از پروژه ها شرکت می کنیم که به روشی بین رشته ای به این موضوعات نزدیک می شوند. یک نمونه از این "propstop" است ، پروژه ای که در آن دانشمندان رایانه ، آماری ، دانشمندان علوم اجتماعی و روزنامه نگاران در زمینه شناسایی تبلیغات خودکار کار می کنند. این به طور خاص در مورد شناسایی تبلیغات دیجیتال ، و نه فقط رباتها است. علاوه بر این ، پروژه "Demoresil" ، که توسط یک همکار از روانشناسی و ارتباطات هدایت می شود ، بر مکانیسم های تشخیص اخبار جعلی و تقویت مقاومت در برابر اطلاعات نادرست متمرکز است.

پروژه آینده "Moderat" (متوسط) برای حمایت از مجریان گروه های خبری آنلاین ، مسئله گفتار نفرت را در سطح فنی حل خواهد کرد. و همکاری ما با مقامات امنیتی آلمان نشان می دهد که رسانه های اجتماعی به طور فزاینده ای در امنیت سایبر به عنوان زیرساخت های مهم در نظر گرفته می شوند.

از نظر شما ، چالش های آینده برای تحقیق چیست؟

کریستین گریم: کارهای زیادی برای انجام وجود دارد. ما فقط در ابتدای تحقیق هستیم. ما باید درک کنیم که چگونه تبلیغات در رسانه های آنلاین فعالیت می کند. این فقط جنبه های فنی را شامل نمی شود ، بلکه تأثیرات روانشناختی فعالیت در رسانه های اجتماعی و همچنین پیامدهای اقتصاد ، سیاست و جامعه است.

در مورد آن فکر کنید: سه سال پیش ، اطلاعات نادرست در رسانه های اجتماعی هنوز مسئله ای نبود ، حداقل در آلمان. چه کسی می داند در مدت سه سال چگونه خواهد بود. این بدان معناست که ما برای پیش بینی اشکال جدید دستکاری باید روندها و فناوری های آینده را درج کنیم. به عنوان مثال ، تحولات در هوش مصنوعی چه تاثیری خواهد داشت؟ما با ابتکار عمل AI اروپا کلر در این منطقه به طور جدی همکاری می کنیم. علاوه بر این ، مسئله رسانه های اجتماعی به عنوان زیرساخت های مهم ، محور تحقیق خواهد بود. بنابراین مهم است که کمی دیدگاه خود را در زمینه امنیت سایبری تغییر دهیم. ما با نهادهای دولتی و مقامات در این زمینه همکاری می کنیم.

سرانجام ، ما باید شبکه دانشمندان و پزشکان را از بخش های مختلف تقویت کنیم تا با همه چالش های جدید روبرو شویم. به همین دلیل ما در حال حاضر در حال توسعه یک موسسه پایدار به عنوان کانون همکاری و خانه ای برای همه تحقیقات خود هستیم: مرکز صلاحیت ERCIS برای تجزیه و تحلیل رسانه های اجتماعی. ما تمام فعالیت ها را در اینجا هماهنگ می کنیم و به همان اندازه مهم ، اطمینان حاصل می کنیم که پزشکان مانند کارستن کراوم درگیر هستند. او در Bertelsmann کار می کند و در چندین تخته مانند ERCIS و RISE SMA قرار دارد.

از شما به خاطر صرف وقت متشکریم.

پروفسور دکتر هایک تراوتمن

پروفسور دکتر هایک تراوتمن استاد سیستم های اطلاعاتی و آمار در انستیتوی سیستم های اطلاعاتی در دانشگاه Westphalian Wilhelms Münster و مدیر علمی ERCIS Omni-Channel-Labs که از Arvato استفاده می شود. او همچنین مدیر دانشگاهی مرکز صلاحیت ERCIS برای تجزیه و تحلیل رسانه های اجتماعی و مدیر شبکه ERCIS است.

PD Dr.-ing. مسیحی گریم

PD Dr.-ing. Christian Grimme یک مدرس خصوصی در رئیس سیستم های اطلاعاتی و آمار در Westfälische Wilhelms-Universität Münster و همکار علمی مرکز صلاحیت ERCIS برای تجزیه و تحلیل رسانه های اجتماعی است. وی همچنین هماهنگ کننده پروژه پروژه propstop ، رئیس مطالعه برای دفتر فدرال آلمان برای امنیت IT قبل از انتخابات بوندستاگ و آغازگر سمپوزیوم بین المللی چند رشته ای در مورد عدم اطلاعات در رسانه های آنلاین آزاد (سوء استفاده) 2019 است.

نویسنده: آینده تیم تحریریه. مشتری. تصویر: © SDECORET - ADOBESTOCK < SPAR> پروفسور دکتر هایک تراوتمن

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : ۰
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.