هوش مصنوعی و ابزارهای آن در دنیای امروز تکنولوژی نقشهایی بهظاهر ساده، امّا جدی و تاثیرگذار ایفا میکند. دیگر گستره اثرگذاری فضای مجازی در مدیریت و مهندسی افکارعمومی ، برانگیختن احساسات و عواطف و حتی تصمیمسازیهای سیاسی و اجتماعی بر کسی پوشیده نیست. ولی زمانی که بدانیم پشت بخش قابل توجهی از تولید و بازتولید محتوا در این فضاها، ربات است نه انسان؛ اینجاست که به درک عمیقتری از قدرت تکنولوژی در زندگی بشر میرسیم.
به گزارش گزارشگر یک، روزنامه «شهروند» نوشت: در گفتوگو با دکتر مسعود اسدپور، مدرس دانشگاه تهران و متخصص هوش مصنوعی، به موضوعات جالبتوجهی اشاره شدهاست؛ از کاربرد هوش مصنوعی در فضای مجازی و روشهای تحلیل محتوایی بواسطه این ابزار تا پشت پرده چهرههای مطرح در این حوزه، مثل ایلان ماسک و مارک زاکربرگ. این بخش از گفتوگو را در ادامه میتوانید بخوانید.
درباره کاربرد هوش مصنوعی در فضای مجازی و اینکه بهواسطه هوش مصنوعی چه اتفاقاتی در فضای مجازی در حال رخ دادن است، کمی توضیح میدهید؟
مسأله مهمی که در فضای مجازی باید مورد توجه قرار گیرد، بحث مدیریت افکار عمومی با استفاده از این رباتهاست. هرچند شاید هماکنون برای مدیریت افکار عمومی نیاز به رباتهای چندان هوشمندی نداریم. زیرا هنور افکار عمومی با این که فعالیتی بهصورت رباتی انجام میشود، خیلی آشنا نیست؛ ولی همانطور که جلوتر میرویم، مردم با این فعالیتها آشناتر میشوند. برخی رباتها برای جذب فالوور بهکار میروند؛ مثلا اکانت فرد به ربات داده میشود و این ربات به جای اکانت اینستاگرامی در فضای مجازی فعالیت میکند، مثلا کامنتهای ساده و با الگوی تکراری برای بقیه کاربران میگزارد و باعث میشود فالوورهای این اکانت بالا برود. این سادهترین کار است. در بسیاری از موارد میتوان فعالیت ربات را تشخیص داد، چون عبارتی ساده و عام را در قالب مشخصی تکرار میکند یا لایک و استیکر ساده میگذارد. وقتی یک اکانت همیشه از این گونه کامنتها میگذارد، مشخص میشود، ربات است. مگر اینکه بتواند متنی را در پاسخ به چیزی که در پست فرد مقابل گفته شده تولید کند.
با این حال با تکنولوژیهای جدید هوش مصنوعی مثل Chat GPT، قابلیت تعاملهای پیچیده امکان پذیر میشود؛ مثلا میتوان از این ربات هوش مصنوعی پرسید یک کاربر حرفی به من زده و من میخواهم یک پاسخ به او بدهم مبنی بر اینکه چرا حرف او اشتباه است. Chat GPT محتوایی برای پاسخ، تولید میکند و به درخواستکننده میدهد. به بیان دیگر میتوانیم از رباتها برای مباحثه استفاده کنیم. با این روش به یکباره میتوان چند هزار اکانت محتوایی را تولید یا حمایت کرد. زمانی که چند هزار اکانت را در مقابل چند اکانت محدود واقعی قرار میدهیم، راحت میشود افکار عمومی را مدیریت کرد.
در این صورت تحلیل فضای مجازی هم با خطا مواجه میشود؟
دقیقا. همین باعث میشود فضای تحلیل هم دچار اشتباه شود. مثلا در فضای تحلیل نظرسنجیای میشود و نتیجه نشان میدهد چند درصد از مردم به موضوعی معتقد هستند و چند درصد دیگر به سوژه دیگر. با این حال نمیتوان تفکیک کرد این اکانتها ربات است یا انسان. زیرا همانطور که شاهد هستیم پیشرفت به سمتی کشیده میشود که حتی متن هم توسط هوش مصنوعی تولید و تشخیص انسان از ربات سختتر میشود. در این شرایط نمیتوان دقیقا تحلیل افکار عمومی را بهدست آورد؛ اینکه مردم دارند به کدام سمت میروند.
در همین اتفاقات چند ماه گذشته پیرامون قضیه مهسا امینی، آمارها که با روشهای کاملا علمی و متقن استخراج شده نشان میدهد، حداقل به طور قطعی یکسوم اکانتهایی که دارای فعالیت بالایی در توئیتر بودهاند ربات هستند یا نشانههایی از سازماندهی شدن دارند. این نشان میدهد چقدر این تکنولوژی در دنیا توسط قدرتها و گروهها استفاده میشود.
چطورمتوجه این قضیه شدهاید؟
در این مورد خاص روش علمی ساده و مشخصی را استفاده کردیم؛ توزیع آماری فاصله زمانی بین یک پست تا پست بعدی اکانتهای پرکار توئیتری را بررسی کردیم. اکانتهای زیادی وجود دارند که فاصله زمانی یک توئیت تا توئیت بعدی شان زیر ٣٠ ثانیه است. خب کسی که در توئیتر فعالیت میکند میداند که توئیت کردن کار سادهای نیست که شما بتوانید به دفعات زیاد و با متنهای مختلف به فاصله زیر ٣٠ ثانیه مسلسل وار توئیت منتشر کنید. آماده سازی یک متن نیاز به پیدا کردن موضوع، فکر کردن درباره آن، جملهبندی کردی، تایپ کردن، اصلاح کردن و اضافه کردن هشتگ دارد. همه این کارها را نمیشود زیر چند دقیقه انجام داد. اگر یک اکانت پشت سر هم با فاصله کوتاهی این کار را انجام میدهد نشان میدهد یا پشت این اکانت ، رباتی قرار دارد که متن آن توسط یک گروه آماده شده است یا پشت این اکانت یک انسانی قرار گرفته که متن از قبل آماده شده ای را توئیت میکند که باز هم نشان میدهد سازماندهی شده است. در بسیاری مواقع خیلی راحت از روی متن توئیتها میتوان فهمید، که متن توسط ربات نوشته شده است. با این حال توئیتر جلوی آنها را نمیگیرد. یعنی ممنوعیتی در قوانین توئیتر برای فعالیت رباتها تعریف نشده است.
اکانتهای زیادی وجود دارند که هشتگ مهسا امینی را در کنار یک شمارنده منتشر کرده اند؛ یعنی یک عدد را که معمولا به حروف فارسی نوشته شده در متن توئیت گنجانیده و هر چند ثانیه یک بار این شمارنده را جلو میبرد و عدد بعدی را به هشتگ اضافه میکند. با اینحال نه توئیتر قابلیت پردازش زبان فارسی دارد و نه حساسیتی در این موضوعات دارد؛ فعالیت ربات در توئیتر ممنوع نیست. پس مدیریت افکار عمومی با استفاده از رباتها امکانپذیر است.
تحلیل محتواها با ابزار هوش مصنوعی به چه صورت است؟
بحث دیگری که در تحلیل فضای مجازی توسط هوش مصنوعی صورت میگیرد، پردازش متن و تصویر و استخراج اطلاعات برای تحلیل است که این تکنیکها به هوش مصنوعی نیاز دارد. برای مثال در روزنامه، رادیو یا تلویزیون، تصویر، صوت یا ویدیوئی منتشر میشود. متن این رسانهها با تکنیکهای هوش مصنوعی میتواند استخراج و قابل پردازش با ابزارهای تحلیل زبان طبیعی شود. اگر زبان محتوا متفاوت باشد باید ترجمه ماشینی شود و این هم نیاز به ابزار هوش مصنوعی دارد. بهطور کلی در فضای مجازی برای تحلیل محتواهای متفاوت تمام تکنیکهای هوش مصنوعی بهکار میآید و اطلاعات حاصل شده، پردازش و از آن دانش استخراج میشود.
لشکرهای سایبری، مفهومی است که در فضای مجازی، سیاسی و اجتماعی دارای قدرت شده و تواناییهای زیادی در دنیا ایفا میکند، درباره این مفهوم هم کمی صحبت میکنید؟
همه دنیا دارند در این موضوع کار میکنند؛ نخستین اتفاقی که باعث شد توجه دنیا به مدیریت افکار عمومی در ایران جلب شود، اتفاقات سال ٨٨ بود. در آن دوران، سه پلتفرم داشتیم که تاثیر زیادی در قضایای ٨٨ داشتند، اول فیسبوک، دوم توئیتر که در ابتدای راه، جنبش اجتماعی از طریق شبکههای مجازی را به گونهای مدیریت میکرد و سومین پلتفرم، سایت فارسی بنام بالاترین بود که در آن دوران تاثیر زیادی بر موضوعات سیاسی داشت؛ دنیا سایت بالاترین را نمیشناخت ولی توئیتر رامیشناخت؛ توئیتر از این موضوع استفاده رسانهای کرد و آپدیت خودش را برای حمایت از اتفاقات سال ٨٨ مدتی عقب انداخت.
بعد از آن دوران خیلیها فهمیدند از پلتفرمهای رسانههای اجتماعی میتوان استفادههای این چنینی کرد. کشورهای زیادی مفهوم استفاده از ظرفیت شبکههای اجتماعی مجازی یا همان لشکر سایبری را برای رسیدن به اهداف سیاسی بهکار بردهاند؛ مانند عربستان، رژیم صهیونیستی و آمریکا. حتی در کشورهای آفریقایی هم تیمهای فعالی در فضای مجازی ساخته شدهاند. در این میان کرهجنوبی تیمهای گروههای موسیقی کی پاپ را ساخته. این گروهها رباتهای زیادی در دنیا دارند که از آنها برای مهندسی فرهنگی استفاده میکنند. اصولا یکی از برنامههای تصویب شده کرهجنوبی در سطح ملی، مدیریت و مهندسی فرهنگ است.
این گروههای موسیقی در ایران هم مثل همه دنیا شبکهسازی کردهاند، بهخصوص در میان نوجوانان و نسل Z. تحلیلهای ما نشان میدهد درصد بسیار زیادی از رباتهایی که در قضیه مهسا امینی نقش داشتند، همان رباتهای گروههای پاپ کرهای بودهاند. این رباتها خود تولیدکننده محتوا نبودند، ولی توزیعکننده و حمایتکننده از محتوا بودند و مطالب را به اصطلاح داغ میکردند. گروههای پاپ کرهجنوبی مطرح شدنشان در دنیا برایشان خیلی مهم است. یکی از معیارهای رتبهبندی برای گروههای کرهجنوبی گستره محبوبیت و معروفیت رسانهای در بقیه کشورهاست بر همین اساس اینها یکسری مراکز طرفداری در توئیتر ایجاد کردهاند و در کشورهای مختلف تبلیغات میکنند، اکثر کارهایشان غیرسیاسی است ولی اکانتهایشان طوری است که در صورت نیاز برای کمک به اکانتهای کشورهای دیگر بسیج میشوند. بهطور کلی مدیریت و مهندسی در محتواهایشان وجود دارد. در قضیه مهسا امینی توزیع و حمایتکننده محتوا بودند و مشخص بود که جایی از بالا به آنها گفته بود یک سری اکانتها را حمایت کنند.
فرق انسان و ربات را در فضای مجازی چطور میتوان تشخیص داد؟
تا الان رباتها فعالیتشان خیلی ماشینی بوده (البته با ظهور تکنولوژی ChatGPT این تا حد قابل توجهی به چالش کشیده میشود). اگر دیدید اکانتی ٢٤ساعت آنلاین است، کامنت و توئیت میگذارد، یعنی این اکانت، ربات است چون انسان نمیتواند بیش از ٨-٧ساعت فعالیت کند. نکته دوم، متن است. متنی که خطا در آن نیست و شکل یکسانی دارد یا با رعایت استاندارد یا قالب خاصی نوشته شده؛ این یعنی از قبل برنامهریزی شده و ماشین آن را اجرا میکند. کار ربات چهارچوب و ساختار مشخصی دارد و یکسری جاهای خالی توسط ربات پر میشود. نکته دیگر برای تشخیص ربات از انسان فاصله زمانی یک فعالیت تا فعالیت بعدی اکانت است. وقتی اکانتی، بی وقفه و ٢٤ ساعته هر چند ثانیه یک بار یک چیزی را بازنشر میکند، پستی را لایک یا نقل قول میکند، این نشان میدهد پشت آن یک ربات قرار گرفته است نه انسان. از کنار هم گذاشتن یکسری شواهد مثل زمان فعالیت، گستره زمانی فعالیت، فاصله زمانی بین فعالیتها و چهارچوب فعالیتها که نظم تکرار شوندهای دارد، میتوان ربات را از انسان تشخیص داد. با این حال اگر قبلا امکان شناخت ربات از روی متن تولیدی وجود داشت، هماکنون با تکنولوژی تولید متون توسط Chat GPT که حتی به فارسی، متون روان و بدون اشتباه نگارشی مینویسد از این به بعد دیگر این امکان وجود ندارد یا بسیار سخت است. فارغ از بحث محتوایی، شما باید اعتبار اکانت را هم درنظر داشته باشید تا بتوانید تصمیم بگیرید که مثلا به خبر این اکانت اعتماد کنید یا نه.
ایلان ماسک در توئیتر دقیقا چه کاری میکند؟
برداشت شخصی بنده این است که پلتفرهای شبکههای اجتماعی بهدلیل قدرتی که در دست صاحبانشان قرار دادند، ترسی را بین سیاستمدارهای دنیا ایجاد کردهاند. بخصوص بعد از اتفاقی که برای اکانت ترامپ افتاد. اتفاق کمی نبود؛ رئیسجمهوری آمریکا که در حقیقت خودش را قدرتمندترین سیاستمدار دنیا میداند صدایش توسط یک پلتفرم خاموش میشود و این را نباید دستکم گرفت. پس این ترس ایجاد شد مبنی بر اینکه کسی که صاحب پلتفرم است، حتی میتواند از یک دولت هم قدرت بیشتری داشته باشد. در همین رابطه در کشور ما خیلی از اکانتها با فالوور بالا یا پلتفرمها هماکنون قدرتی دارند که خیلی از سیاستمدارها و حتی صدا و سیمای ما ندارد. اگر قصد انجام کاری را داشته باشند امکان دارد موفقیت آنها از تبلیغات صدا و سیمای ما هم بیشتر باشد. دنیای امروز تکنولوژی، قدرت را در دستان عدهای قرار میدهد که ممکن است حالا به هر علتی بخواهند از این قدرت سوءاستفاده کنند.
درست مانند انسان که تنها چندین هزار سال هست که بر روی زمین زندگی میکند اما به واسطه همین قدرت، زمین را به نابودی کشانده است چون با این قدرت تکامل پیدا نکرده است. انسان و قدرتی که توسط تکنولوژی در اختیارش گذاشته شده به تکامل و بلوغ نرسیده چون در حقیقت تنها چند ده سال است که این تکنولوژیها در اختیار انسان قرار گرفته بدون اینکه تکامل و بلوغی متناسب با این تکنولوژی ها داشته باشد. یعنی گستره زمانی که انسان در حال تکامل و استفاده از این تکنولوژی ها بوده است به او این اجازه را نداده که متوجه معایب آن شود.
برآورد من به این شکل است که در سالهای آینده فعالیتهایی توسط دولتها برای محدود کردن این شبکهها شکل بگیرد. شما ببینید در اروپا قانون GDPR به شکلی در حال محدودکردن و مسئولیت پذیر کردن فضای مجازی است؛ تا قبل از اینکه کشورهای اروپایی با مسائل اجتماعی نظیر اتفاقاتی که برای ما افتاد، روبهرو شوند برای محدود کردن این پلتفرمها از ما ایراد میگرفتند. ولی با روبهروشدن با مسائل اجتماعی مشابه ایران، دقیقا همان کاری را کردند که ما انجام دادیم.
در قضیه بلک بری در انگلیس که دقیقا چند سال بعد از قضایای ۸۸ ما اتفاق افتاد، همان کاری را انجام دادند که ایران انجام داد یا قضیه جنبش اشغال والاستریت اتفاقاتی که آن زمان رخ داد بعد از ماجرای ۸۸ بود و باز شبکهها توسط دولت محدود شد. یا اخیرا در فرانسه نیز همین اتفاق افتاد. این نشاندهنده این است که چون ما تجربه استفاده از شبکههای اجتماعی و تبعات بعد از آن را نداریم مسائل تازه در حال رخ دادن است.
ایلان ماسک به نظر میرسد خیلی برنامه خاصی برای توئیتر ندارد. این پلتفرم را با قیمت گزافی خریداری کرده با این حال به نظر میرسد انگار سرمایه گذاری اش برایش اهمیت چندانی ندارد و با رفتاری که در توئیتر داشته به نظر میرسد که در حال کمکردن قدرت توئیتر است. کسی مثل ایلان ماسک که مخ اقتصادی دنیاست تصمیماتی را برای توئیتر میگیرد که بنظر میرسد کاملا غیر اقتصادی و این شک برانگیز است. من فکر میکنم ایلان ماسک در حال کمک به قدرتهای اقتصادی و سیاسی آمریکا است تا قدرت این شبکهها را پایین بیاورد.
چند وقت پیش گزارشهایی از سی ان ان و موسسه گرافیکا در دانشگاه استنفورد منتشر شد که نشان میداد اکانتهای زیادی توسط دولت آمریکا علیه ایران و برخی کشورهای دیگردر توئیتر فعالیت کردهاند که برخی از آنها توسط توئیتر کشف و محدود شده اند. بعدها حتی ایلان ماسک فاش کرد توئیتر همکاری گسترده ای با دولت آمریکا داشته که از حد تصور ایلان ماسک خیلی فراتر بوده است. این گونه گزارشها در واقع اعتبار توئیتر را زیر سوال میبرد. منتشر کردن این نوع گزارشات برای بیاعتبار کردن توئیتر حکایت از پاتک قدرتهای سیاسی آمریکا از ترس قدرت گرفتن مجدد این شبکهها و تاثیرگذاری بر روی انتخابات آمریکا است؛ برایاینکه به مردم آمریکا ثابت کنند چنین پروپاگاندای مصنوعی قبلا با استفاده از رباتها انجام شده و مجددا ممکن است چنین کاری تکرار شود. حتی گرفتن تیک آبی از برخی اکانتهای معروف که اعتبار توئیتر از وجود آنهاست هم حداقل در ظاهر امر نشان میدهد ایلان ماسک علاقه ای به گسترش قدرت توئیتر ندارد.
درباره ماجرای متاورس و زاکربرگ با آن همه سروصدا چه توضیحی میتوان داد؟
متاورس چیز جدیدی نبود. مارک زاکربرگ که متاورس را مطرح کرد هدفش این بود که ترمینولوژی جدیدی در این فضا مطرح کند تا فیسبوک را از بی آبرویی و ورشکستگی نجات دهد که موفق هم نبود. چون در نهایت نه خودش فهمید متاورس چی بوده و نه چیستی آن برای دیگران مشخص شد. ما پیش از این هم واقعیت مجازی یا virtual reality را داشتیم و متاورس چیزی بر آن مفهوم افزون نکرد و چیزهایی را مطرح کرد که وجود داشت.
اگر به یاد بیاوریم در انتخابات ریاستجمهوری آمریکا که ترامپ برنده انتخابات شد، سروصدایی بلند شد که تیمی از فیسبوک در کنار کمپین تبلیغاتی ترامپ فعالیتهایی را روی آمریکاییهای فیسبوک انجام داده بودند که به نظر میرسید در رقم زدن نتیجه انتخابات موثر بود. شرکتی بنام کمبریج آنالیتیکا تستهای روانشناختی را بهواسطه دسترسیای که فیسبوک در اختیار آن شرکت قرار داده بود روی یک سری افراد اجرا کردند.
این تستها تیپ شخصیتی کاربران را با پرسیدن سوالات استاندارد شخصیت شناسی روانشناسی روی یک تعداد از کاربران مشخص کرد. سپس با استفاده از اطلاعاتی مانند اینکه این کاربر چه پستهایی با چه متنی منتشر کرده؟ چه پستهایی را لایک کرده؟ چه فعالیتهایی انجام داده؟ چه علایقی دارد؟ شبکه دوستان فرد چه ساختاری دارد؟ و پارامترهایی نظیر آن توانستند با روشهای یادگیری ماشینی ارتباط معنی داری بین تیپ شخصیتی و پارامترهای مربوط به فعالیت آن فرد در فیسبوک پیدا کنند. بعد از این مرحله هوش مصنوعی قادر است حتی برای کسانی که این تست شخصیت شناسی را انجام ندادهاند هم از روی فعالیتهای فیسبوکیشان بفهمد چه تیپ شخصیتی دارند. وقتی این اطلاعات در اختیار شما باشد میتوانید تبلیغاتی را طراحی کنید که وقتی به دست فرد مورد نظر میرسد مورد توجه او قرار گرفته و روی آن فرد تاثیر دلخواه شما را بگذارد. کمبریج آنالیتیکا با همه اغراقهایی که در عملکردش شد، کارهایی انجام داد که توانست بعضی از کمپینهای تبلیغاتی را بهصورت موفق روی کاربران اجرا کند. هر چند چنین کاری براساس قوانین آمریکا علی الظاهر ممنوع است؛ اینکه پلتفرمها کمپینهای اینچنینی را توسط رباتها اجرا کنند، روی آمریکاییها ممنوع است هرچند اجازه اینکه این کارها را در کشورهای دیگر اجرا کنند، دارند.
این اتفاق در حاشیه انتخابات ریاستجمهوری آمریکا باعث شد زاکربرگ به مجلس آمریکا فرا خوانده شود و سهام فیسبوک بهشدت پایین بیاید. زاکربرگ برای فرار از بدنامی اسم فیسبوک را به متا تغییر داد تا نجاتش دهد. اما متا هم عملا عایدی چندانی برای فیسبوک نداشت. حتی عدهای در این میان شروع به خریدن زمین مجازی با قیمتهای کلان در متاورس کردند ولی در نهایت ایده او ارزش چندانی در محیط تکنولوژیک نداشت.
درباره چهرههای مطرح در حوزه هوش مصنوعی
چهرههایی که در این حوزه مطرح هستند، اصولا چهرههای اقتصادی هستند که شرکتهای پولداری دارند و پروژههای جاهطلبانهای را بهواسطه اینکه پولهای کلانی در دست دارند، اجرا میکنند. مثلا بیل گیتس، ایلان ماسک و.. بیشتر از بُعد اقتصادی مطرح هستند و از نظر تحقیقاتی افراد مطرحی نیستند. پروژههایی که اجرا میکنند، طرحهایی است که برای رسیدن به هدف، تلاش تیمی بزرگ و بودجه زیادی میطلبد، ولی لزوما شاید پروژههایی نیست که جامعه بشری در کوتاهمدت به آنها احتیاج داشته باشد. مثلا پروژههای ایلان ماسک خیلی آینده نگرانه است اما از مسائل کلان حال حاضر بشریت مثلا موضوعات زیست محیطی غافل است، در مقابل اهداف بلندپروازانه مثل رفتن به مریخ را پیگیری میکند. در این میان شاید کار بیل گیتس مهمتر باشد، چون ثروتش را وقف مسائل مهم بشری کرده است. ولی بهطور کلی اینها افراد مطرحی در پژوهش و مطالعه نیستند و بهواسطه پول و ثروتشان در فضای تکنولوژی مطرح شدهاند. شما ببینید چند نفر در دنیا با اسم یکی از افرادی که ChatGPT را توسعه دادهاند آشنا هستند؟
انتهای پیام