شبکههای اجتماعی، ما را دچار تریپوفوبیا میکند (قسمت اول)
به گزارش کارگروه شبکه های اجتماعی سایبربان؛ بخشی از فناوری با نوعی فساد روبرو شده است؛ اما در بحبوحه تمام نگرانیهای ناشی از اخبار جعلی، دادوفریادهای برخاسته از طرحهای روسیه برای انتشار اطلاعات غلط که انتخابات امریکا را از رونق انداخت، درخواست سیاستمداران از غولهای فناوری برای استقرار وجدان اجتماعی، فهم پیچیدهتری در حال شکلگیری است.
اخبار جعلی و اطلاعات دروغ فقط چند نشانه از آن چیزی است که دچار اشکال و فساد شده است. مشکلی که با غولهای این حوزه وجود دارد، بسیار اساسیتر از این حرفها است.
مشکل این است که این موتورهای الگوریتمی بسیار قدرتمند، همانند جعبه سیاه هستند؛ و در مرحله عملیاتی، هر کاربر مستقل فقط آن چیزی را میبیند که یک کاربر مستقل میتواند ببیند.
دروغ بزرگ شبکههای اجتماعی این ادعا بوده است که جهان را در معرض دید ما میگذارد؛ و فریب بعدی آنها این بود: محصولات فناوری آنها، ما را به هم نزدیکتر میکند.
در حقیقت، شبکههای اجتماعی یک لنز تلسکوپی نیست- آنطور که تلفن بود- بلکه یک منشور نظرشکن است که با جایگزین کردن یک حوزه عمومی مشترک و گفتمان همپوشانی پویای آن با دیواری از حبابهای فیلتری که بهطور فزاینده متمرکز میشود، انسجام اجتماعی را بر هم میزند.
شبکههای اجتماعی یک بافت همبند (پیوندی) نیست بلکه نوعی تفکیک طراحیشده است که با هر جفت از کرههای چشم انسان همانند یک واحد گسسته رفتار میکند که قرار است از همتایان خود جدا شود.
خوب به این موضوع فکر کنید. به یک کابوس تریپوفوبیایی شبیه است. یا یک سراسرنمای وارونه است- هر کاربر در یک سلول منفرد زندانی شده است و کنترلکننده قادر است از برج شیشهای خود بر آنها نظارت کند.
جای تعجب نیست که دروغها به این سرعت از طریق محصولات منتشر و تکثیر میشوند؛ بهطوریکه نه تنها نرخ انتقال اطلاعات با سرعت بسیار افزایش مییابد بلکه انسانها را در آمیزهای از تعصبات خود آنها گرفتار میکند.
ابتدا به خواستهها و نیازهای آنها پاسخ مثبت میدهد، سپس دوقطبی ایجاد میکند و آنها را روبروی هم قرار میدهد و درنهایت، ما را از هم جدا میکند.
زمانی که وارد فیسبوک میشویم یا بهدقت به نتایج شخصیشده در گوگل مینگریم، انگار که عینکی تیرهوتار به چشم زده باشیم، هر یک جداگانه هدفونی سفارشی بر گوش مینهیم که دائماً یک فیلم سفارشی را پخش میکند – در سینمایی تاریک و تکصندلی بدون حتی یک پنجره یا در.
تا حالا احساس خفگی به شما دست داده است؟
فیلمی پخش میشود که موتور الگوریتمی فکر میکند شما آن را دوست دارید. به این خاطر که بازیگران مورد علاقه شما را شناسایی کرده است. میداند به چه ژانری علاقه دارید. کابوسهایی که شبها دست از سرتان برنمیدارد. اولین چیزی که صبحها به آن فکر میکنید.
تفکر سیاسی شما را میشناسد، دوستان شما را نیز همینطور و اینکه کجاها میروید. بیوقفه شما را زیر نظر دارد و این اطلاعات را به محصولی سفارشی، دائمالتکرار و احساسبرانگیز مختص خود شما تبدیل میکند.
دستورالعمل محرمانه آن، ترکیب بینهایت علایق و تنفرات شخصی شماست که از اینترنت به دست آمده است، یعنی همان جایی که شما ناخواسته آنها را منتشر میکنید (حتی عادات آفلاین شما نیز از ماشین دروی آن در امان نیست- به کارگزاران و دلالهای اطلاعات پول میدهد تا از این موارد نیز برایش خبر ببرند.)
هیچکس دیگری هرگز موفق به تماشای این فیلم نخواهد شد. حتی از وجود چنین فیلمی هم خبردار نخواهد شد. هیچ آنونسی برای تبلیغ آن پخش نمیشود. چرا برای فیلمی که فقط برای شما ساخته شده است، زحمت تهیه بیلبورد به خود بدهند؟ درهرحال، محتوای سفارشی و شخصیشده تقریباً همان چیزی است که میخکوب شدن شما روی صندلی را تضمین میکند.
اگر بسترهای شبکههای اجتماعی، کارخانه تولید سوسیس بود، میتوانستیم حداقل جلوی هر کامیون باری را هنگام خروج بگیریم تا درباره ترکیب ماده گوشتی رنگ داخل هر بسته کاوش کنیم- و ببینیم که آیا واقعاً به همان خوشمزگی که گفته میشود، هست یا خیر.
مطمئناً مجبوریم این کار را هزاران بار انجام دهیم تا درباره محتوای هر کیسه، به اطلاعات معقول دست پیدا کنیم؛ اما این کار شدنی است.
افسوس که در بسترهای شبکههای اجتماعی، اینگونه محصولات فیزیکی وجود ندارد و برای تحقیق و بررسی، هیچ ردپای فیزیکی در اختیار نداریم.
دود و آینه
درک فرآیندهای شکلدهنده اطلاعات در بسترهای شبکههای اجتماعی نیازمند دسترسی به جعبه سیاه الگوریتمی آنها است؛ اما این جعبههای سیاه، درون ساختمانهای مرکزی بسترها محافظت میشوند و روی آنها برچسبهای از این قبیل دیده میشود: «اختصاصی! غیرقابل بازدید! اطلاعات حساس تجاری!»
فقط مهندسان و مالکان میتوانند به آنجا سرک بکشند؛ و حتی آنها هم لزوماً همیشه از تصمیماتی که این دستگاهها و تجهیزات میگیرند سر در نمیآورند.
اما این عدم تقارن چقدر پایدار است؟ اگر ما بهعنوان جامعه کلان- که این بسترها از نظر از اطلاعات، کره چشم، محتوا و درآمد به آن وابسته هستند؛ ما مدل کسبوکار آنها هستیم- نتوانیم ببینیم که چگونه با آنچه به شیوه قطرهچکانی به تکتک ما میخورانند، از هم جدا میشویم، چگونه میتوانیم درباره کاری که فناوری با تکتک ما انجام میدهد، قضاوت کنیم؟ و چگونه میتوانیم تشخیص دهیم که این فناوری چگونه به جامعه نظم بخشیده و به آن شکل میدهد؟ چگونه میتوان به سنجش تأثیر آن امیدوار بود؟ مگر مواقعی که آسیبهای آنها را احساس کنیم. بدون دسترسی به اطلاعات منطقی چگونه میتوان بهدرستی گفت که آیا وقت سپری شده در اینجا و آنجا یا در هر یک از این بسترهای تبلیغاتی که در راستای تحقق خواستهها عمل میکنند، «زمانی بوده است که بهدرستی صرف شده است»؟
درباره قدرت جلب توجه که غولهای فناوری روی ما دارند - مثلاً زمانی که ایستگاه قطار ناگزیر است علائم هشداردهندهای نصب کند تا به والدین اخطار دهد که سر خود را از روی گوشی برداشته و به جای آن، مراقب کودکان خود باشند- چه میگوید؟
آیا نسیم احمقانه تازهای در شهر وزیدن گرفته است؟ یا توجه ما را به ناحق دزدیدهاند؟
زمانی که مدیران عرصه فناوری اعتراف میکنند که اصلاً علاقهای ندارند که فرزندان خود آنها دوروبر محصولاتی بروند که به خورد دیگران میدهند، چه باید گفت؟ گویی آنها اینطور فکر میکنند که این محصولات در حکم گونه جدیدی از نیکوتین است.
پژوهشگران بیرونی، در تلاش برای شناسایی تأثیرات اجتماعی غولهای فناوری، با تمام توان خود تلاش کردهاند که جریان افکار و تأثیر برخط را ترسیم و تجزیهوتحلیل کنند.
با وجود این، توییتر یکی از آن غولهایی است که با وسواس زیاد، از جایگاه دروازهبانی خود عملاً این تحقیقات را نادیده میگیرد و هر پژوهشی را که نتایج آن مطابق میلش نباشد، با این ادعا که تصویر ناقصی از حقیقت را ارائه میکند، مزخرف میخواند.
چرا؟ زیرا پژوهشگران بیرونی به تمام جریانهای اطلاعاتی آن دسترسی ندارند. چرا؟ زیرا آنها نمیتوانند ببینند که اطلاعات چگونه توسط الگوریتمهای توییتر شکل میگیرد، یا هر کاربر توییتر چگونه کلید پنهان کردن محتوا را فشرده است (یا نفشرده است) که همچنین میتواند – به گفته توییتر- سوسیس را قالببندی کرده و مشخص کند که چه کسی میتواند آن را مصرف کند.
چرا که نه؟ زیرا توییتر این دسترسی را به غریبهها نمیدهد. متأسفیم، علامت هشدار را ندیده بودید؟
و زمانی که سیاستمداران، شرکت را زیر فشار قرار میدهند تا تصویر کامل را ارائه دهد- بر مبنای دادههایی که فقط توییتر میتواند مشاهده کند- تنها چیزی که عایدشان میشود بخشهای گزینششدهای از اطلاعاتی است که در راستای منافع خود توییتر منتشر میشود.
(این بازی «طرح پرسشهای آزاردهنده» / «مخفی کردن خال بیریخت» ممکن است همینطور ادامه پیدا کند. با وجود این به نظر نمیرسد که در درازمدت، این بازی به لحاظ سیاسی چندان دوام بیاورد- درهرحال، بازیهای سینجیم کردن دیگری ممکن است بهطور ناگهانی به چرخه مد بازگردد.)
و زمانی که فیسبوک در حفظ استانداردهای فعلی خود ناکام مانده است، چگونه میتوانیم به این شرکت برای ایجاد سامانههای قوی و دقیق مقابله با افشای اطلاعات، اعتماد کنیم؟
مارک زاکربرگ از ما میخواهد باور کنیم که او میتواند کار درست را انجام دهد. درعینحال، او از مدیران قدرتمند فناوری است که نگرانیها درباره وجود اطلاعات دروغ و مخرب در بستر شرکت او را عمداً نادیده گرفت. او حتی هشدارها درباره اینکه اخبار جعلی میتواند دموکراسی را نیز تحتالشعاع قرار دهد، نادیده گرفت؛ هشدارهایی که از سوی خودیها و مشاوران سیاسی آگاه و زیرک صادر شده بود.
جعبههای سیاه جهتدار
قبل از آنکه اخبار جعلی به بحران جاری در کسبوکار فیسبوک بدل شود، خط استاندارد دفاعی زاکربرگ برای هرگونه محتوای مطرح شده، به انحراف کشاندن بحث بود- این ادعای معروف که «ما شرکت رسانهای نیستیم؛ ما شرکت فناوری هستیم».
چه بسا حرف زاکربرگ درست باشد؛ زیرا احتمالاً شرکتهای فناوری حقیقتاً به نوع جدیدی از مقررات سفارشی نیاز دارند. مقرراتی که منعکسکننده ماهیت بسیار هدفمند محصول شخصیشده ای باشد که کارخانه آنها در مقیاسی برابر با – مبتلایان به تریوپوفوبیا نگاه نکنند!- 4 میلیارد کره چشم، در حال تغییر دادن آن است.
در سالهای اخیر از قانونگذاران درخواست شده است تا به جعبه سیاه الگوریتمی دسترسی داشته باشند تا بتوانند بر موتورهایی که ما را تحت تأثیر قرار میدهد و ما (محصول) امکان مشاهده (و طبیعتاً نظارت) آن را نداریم، نظارت نمایند.
کاربرد فزاینده هوش مصنوعی، مسئله را جدیتر میکند و اگر تعصبات بهطور خام وارد جعبه سیاهی شود که از امتیاز تجاری برخوردار است؛ خطر این تعصبات، مطابق با سرعت و مقیاس بسترهای فناوری پیش خواهد رفت.
آیا به نظر ما خودکارسازی اشکالات، درست و عادلانه است؟ دستکم تا زمانی که شکایتها آنقدر برجسته و پررنگ شود که کسی در جایی به نحو مناسبی این شکایت را بشنود و بانگ اعتراض بلند کند؟
توجیه الگوریتمی نباید به این معنا باشد که برای معکوس کردن ناکامی فناورانه، توده عظیمی از انسانها باید رنج بکشند. ما حتماً باید به دنبال فرآیندهای مناسب و توجیه منطقی باشیم. هزینه آن هر چه میخواهد، باشد.
و اگر هر بار که از بسترهای قدرتمند درخواست میشود که به پرسشهایی پاسخ دهند که فراتر از منافع تجاری آنها است – پاسخهایی که فقط در اختیار خود آنهاست- این بسترها از پاسخگویی طفره رفته و رو به حقیقت سازی میآورند، آنگاه درخواست از آنها برای باز کردن جعبه سیاه خود، مطمئناً به جاروجنجال تبدیل خواهد شد چراکه از حمایت کامل جامعه برخوردارند.
قانونگذاران هماکنون نسبت به عبارت توجیه الگوریتمی، گوشبهزنگ هستند. این اصطلاح ورد زبان آنها شده است. خطرات گوشزد میشود. خطرات فعلی سبک و سنگین میشود. جعبههای سیاه الگوریتمی، درخشندگی عمومی خود را از دست میدهند.
اکنون کسی درباره تأثیر این بسترها بر گفتمان عمومی و شکل بخشیدن به آن شک ندارد؛ اما مسلماً در سالهای اخیر، همچنان که الگوریتمها به ترولها و تحریککنندگانی که نقشآفرینی بهتری در زمین بازی آنها داشتند، پاداش دادهاند، عرصه عمومی را نیز ناهنجارتر، عصبانیتر و مستعد خشونت ساخته و از بازدهی آن کاستهاند.
بنابراین تنها کاری که میماند این است که افراد کافی – کاربران کافی- نقاط را به هم وصل کرده و بفهمند که چه چیز آنها را در فضای مجازی اینگونه ناراحت و نگران کرده است – و این محصولات، مانند قبلیها بر سر تاک، پژمرده خواهد شد.
این مسئله، راهحل مهندسی هم ندارد. حتی اگر هوش مصنوعی مولد در زمینه تولید محتوا به چنان پیشرفتی برسد که بتواند بخش بزرگی از زحمات بشر را جایگزین کند، هرگز کرههای چشم زیستی لازم را برای چشمک زدن به دلارهای تبلیغاتی که حیات غولهای فناوری به آن وابسته است، نخواهد داشت. (عبارت «بستر محتوای تولید شده توسط کاربر» باید حقیقتاً با عبارت «و مصرف شده توسط کاربر» همنشین شود.)
نخستوزیر انگلیس، ترزا مه بهتازگی در سخنرانی خود در مجمع جهانی اقتصاد داووس به شدت از ناکامی بسترهای شبکههای اجتماعی در عملیاتی کردن وجدان اجتماعی انتقاد کرد.
ترزا می، پس از حمله کردن به لایکهای فیسبوک، توییتر و گوگل – چراکه به گفته او، سوءاستفاده از کودکان، بردگی نوین و انتشار محتوای افراطی و تروریستی را تسهیل میکند- به نظرسنجی موسسه ادلمن اشاره کرد که حاکی از افول جهانی اعتماد در شبکههای اجتماعی (و جهش همزمان اعتماد به روزنامهنگاری) است.
معنای نهفته در سخنان ترزا می، آشکار بود: در رابطه با غولهای فناوری، رهبران جهان اکنون هم مشتاقند و هم قادرند که چاقوهای خود را تیز کنند. ترزا می تنها سخنرانی نبود که در مجمع داووس حسابی از شبکههای اجتماعی انتقاد کرد.
جورج سوروس، میلیاردر امریکایی اظهار داشت: «فیسبوک و گوگل به قدرتهای انحصاری قویتری بدل شدهاند و مانعی بر سر راه نوآوری محسوب میشوند. این قدرتها مشکلات مختلفی پدید آوردهاند که کمکم داریم از آنها آگاه میشویم.» سوروس خواهان اقدام قانونی است تا تسلط بسترها بر ما از بین برود.
و درحالیکه سیاستمداران (و روزنامهنگاران- و بهاحتمالزیاد خود سوروس) معمولاً به شدت منفور هستند، شرکتهای فناوری بهاحتمالقوی اینگونه نیستند. این شرکتها در هالهای قرار دارند که سالها با کلمه «نوآوری» عجین بوده است. «پس زدن جریان اصلی» در فرهنگ واژگان آنها وجود ندارد. درست مثل عبارت «مسئولیت اجتماعی» که تا همین اواخر هم در واژگان آنها دیده نمیشد.
برای فهمیدن اینکه شاهزادههای دره سیلیکون تا چه اندازه در برخورد با خشم پرسروصدای عمومی، ناآماده هستند، فقط کافی است به چینهای پیشانی زاکربرگ نگاه کنید که در اثر نگرانی پدید آمده است.
حدس زدن بازی
ابهام و پیچیدگی بسترهای بزرگ فناوری یک اثر زیانآور و غیرانسانی دیگر هم دارد- این تأثیر علاوه بر کاربران دادهکاوی، برای تولیدکنندگان محتوا نیز قابل تصور است.
با وجود این، بستری مانند یوتیوب که برای استمرار جریان محتوا در صفحههای نمایش متعدد که بازدیدهای آن به میلیونها بار میرسد (و میلیونها دلار روانه صندوق گوگل میکند)، به ارتش داوطلبی از تولیدکنندگان نیاز دارد، در عمل، پردهای مبهم بین خود و خالقان خود کشیده است.
یوتیوب یک مجموعه سیاست محتوایی دارد که میگوید بارگذاری کنندگان محتوا در این بستر باید از آنها تبعیت کنند؛ اما گوگل این سیاستها را به نحو یکپارچهای به کار نگرفته است؛ و یک رسوایی رسانهای یا تحریم یک آگهیدهنده میتواند اقدامات ناگهانی در پی داشته باشد بهطوریکه خالقان به تقلا بیفتند که نکند کسی آنها را از صحنه اخراج کند.
امی داویسون (Aimee Davison) اظهار داشت: «اکثر مشکلات من با یوتیوب ناشی از رتبه دهی خودکار، پرچمهای ناشناس (که مورد سوءاستفاده قرارگرفتهاند) و کمک ناشناس و مبهم از پشتیبانی ایمیلی ناشناس است که قدرت اصلاحی اندکی دارد. بهبود رابطه با کاربران در یوتیوب به تعامل و مذاکره مستقیم انسانی و به اطلاعرسانی صریح دستورالعمل یکپارچه نیاز دارد.»
داویسون اضافه کرد: «یوتیوب باید محتوای خود را به نحو مناسبی بدون آنکه سانسور هنری بیش از حد اعمال کند، رتبهبندی کند- و باید مدیریت حسابهای کاربری ما را نیز به انسانها بسپارند.»
یوتیوب حتی برای مدیریت برجستهترین خالقان محتوای خود مانند «ستارگان یوتیوب/YouTube stars» نیز گام مثبتی برنداشته است.
اما زمانی که سازنده star در یوتیوب، لوگان پل (Logan Paul) – از شرکای اصلی سابق بستر تبلیغاتی گوگل – ویدئویی از خود را بارگذاری میکند که در آن، کنار جسد فردی که خودکشی کرده ایستاده و دلقکبازی درمیآورد؛ چه کسی را باید سرزنش کرد؟
پل باید به وجدان خود رجوع کند؛ اما سرزنش همچنین باید تکتک کسانی را نشانه بگیرد که بهطور الگوریتمی در این بستر در حال مدیریت شدن (بخوانید آلت دست) هستند تا محتوایی را تولید کنند که به معنای واقعی کلمه گوگل را ثروتمند میکند زیرا مردم طبق نظام پاداش گوگل است که هدایت میشوند.
در قضیه پل، کارکنان یوتیوب نیز بهطور دستی ویدئوی ارسالی او را بررسی و تأیید کردند؛ بنابراین حتی زمانی که یوتیوب ادعا میکند که ناظران انسانی برای بررسی محتوا پیشبینی کرده است، ظاهراً این ناظران انسانی زمان و ابزار کافی برای انجام کار در اختیار ندارند. گوگل اعلام کرده است که تعداد کارکنان نظارت و اصلاح را در سال جاری به 10 هزار نفر افزایش خواهد داد.
بااینهمه، این رقم در مقابل میزان محتوایی که در یوتیوب بارگذاری میشود، اصلاً به چشم نمیآید (طبق آمار موسسه استاتیستا، در جولای 2015، هر دقیقه 400 ساعت ویدئو در یوتیوب بارگذاری شد؛ این رقم تا حالا بهراحتی به 600 یا 700 ساعت در دقیقه رسیده است).
این اندازه بستر محتوایی بارگذاری رایگان یوتیوب، اداره منطقی آن را عملاً ناممکن میسازد. و زمانی که اندازه عظیم بستر، ردیابی فراگیر و فناوری سفارشیشده هدفگیری، قدرت اثرگذاری بر جامعه و شکلدهی آن را در سطح کلان ممکن میسازد، ابعاد مشکل گستردهتر میشود. طبق اعلام خود یوتیوب، 1 میلیارد کاربر این شبکه، یکسوم کل اینترنت را به خود اختصاص داده است.
نگاهی به بخش مدیریت الگوریتمی تنظیمات عدممداخله (بخوانید هزینه پایین) گوگل نشان میدهد که برخی تصمیمات این ابزارها، اگر بخواهیم محترمانه بگوییم، مورد تردید است. درواقع، الگوریتمهای یوتیوب طبق اعلام کارکنان خود این شرکت، گرایشهای افراطگرایانه دارد.
یوتیوب همچنین با این اتهام روبروست که اساساً افراطگرایی را در فضای مجازی خودکارسازی میکند- از طریق هل دادن بازدیدکنندگان به سمت بازدیدهای افراطی و نفرتآمیز. کافی است روی ویدئویی درباره یک اندیشمند جناح راستی مردمگرا – از طریق پیشنهاد الگوریتمی- کلیک کنید تا از گروه نفرت پراکنی نئونازیها سر درآورید.
و آیا شرکت یوتیوب برای اصلاح این مشکل افراطی هوش مصنوعی تدبیری اندیشیده است؟ خیر؛ بلکه هوشهای مصنوعی بیشتری هم در راه است...
و بسترهای دیگری هم در این شرکت هم شناسایی شده است که تحت هوش مصنوعی اخبار جعلی منتشر میکند، نفرت پراکنی را تشدید میکند و اقدامات ضداجتماعی را تحریک میکند.
و سامانههای مدیریت آنکه تحت هوش مصنوعی قرار دارد، نادانتر از آن است که موقعیت را تشخیص دهد و مانند انسان، ظرایف را تشخیص دهد. (یا دستکم زمانی که وقت کافی به آنها برای تفکر داده شده است.)
خود زاکربرگ حدود یک سال پیش اینطور نوشت که بحرانی که شرکت او با آن روبروست، رفتهرفته واضحتر میشود: «ذکر این نکته لازم است که درک متن، تصویر و ویدئو مستلزم پیشرفتهای بزرگ در حوزه هوش مصنوعی است تا بتوان قضاوت کرد که آیا این مطالب حاوی سخنان نفرتانگیز، خشونت تصویری، محتوای مستهجن و از این قبیل هست یا خیر. با نرخ فعلی پژوهشها، امیدواریم که برخی از این موارد را در سال 2017 حلوفصل کنیم اما حل کردن برخی از آنها تا سالهای متمادی امکانپذیر نیست.»
زمانی که مدیر فناوری از اصطلاح «سالهای متمادی» استفاده میکند بدین معناست که «عملاً هرگز موفق به انجام این کار نخواهیم شد».
و اگر به مشکل بسیار سخت و ویرایشی مدیریت و اصلاح محتوا اشاره کنید، شناسایی تروریسم عملاً چالش نسبتاً دقیقی است.
درک طنز- یا حتی تشخیص اینکه یک محتوای خاص اصلاً ارزش ذاتی دارد یا کاملاً بدردنخور است؟ صریح بخواهم بگویم، اصلاً فکر نمیکنم هیچ رباتی بتواند این کار را انجام دهد.
مخصوصاً زمانی که مردم بر سر شرکتهای فناوری فریاد میزنند که انسانیت بیشتری از خود نشان دهند؛ اما این شرکتها همچنان در پی آن هستند که هوش مصنوعی بیشتری را بهزور به ما بخورانند.