about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
استفاده
1404/05/18 - 08:57- تروریسم سایبری

استفاده از مایکروسافت آژور برای جاسوسی از فلسطینیان

رژیم صهیونیستی از مایکروسافت آژور برای جاسوسی از فلسطینیان، آماده‌سازی حملات هوایی مرگبار و سازماندهی عملیات‌های نظامی در غزه و کرانه باختری استفاده می‌کند.

تمرکز
1404/06/26 - 14:35- جنگ سایبری

تمرکز اسرائیل بر «پیجر» و جنگ الکترونیک در نبردهای آینده با ایران

مقامات رژیم صهیونیستی، طراحی عملیات‌های غافلگیر کننده ای همچون عملیات پیجرها برای جنگ آینده با ایران را ضروری می دانند.

در سخنرانی اخیرش در TED 2019، در ایده‌‌ای جنجالی اعلام کرد بشر برای جلوگیری از نابودی خود به دست فناوری، مجبور است به نظارت دولت فراگیر هوش مصنوعی تن دهد.

 
به گزارش کارگروه امنیت سایبربان؛ شاید نام نیک باستروم برایتان آشنا باشد. وی فیلسوفی معاصر است که بیش‌از‌همه به دلیل پیش‌‌بینی‌‌های ترسناکش درباره‌ی آینده‌‌ی بشر شهرتی جهانی یافته و هم‌‌اکنون، برخی دیدگاه‌هایش توانسته حمایت بزرگانی از دنیای فناوری، نظیر ایلان ماسک را نیز جلب کند. چندی پیش مطلبی منتشر شد که به دفاعیات یکی از دانشمندان ام‌‌آی‌‌تی از «فرضیه‌‌ی شبیه‌‌سازی» پرداخته بود؛ فرضیه‌‌ای که ریشه‌‌ی آن به یکی دیگر از ایده‌‌های باستروم در ۱۵ سال پیش بازمی‌‌گردد که با اظهارات اخیر ماسک، بار دیگر در محافل علمی جهان بر سر زبان‌ها افتاد.

گویا سناریوهای تاریک باستروم برای جهان تمامی ندارد. این‌‌بار نویسنده‌‌ی کتاب «برهان شبیه‌سازی» می‌گوید تکنولوژی مخرب می‌تواند بشر را نابود کند و تنها راه جلوگیری از آن، استقرار دولت جهانی مبتنی‌‌بر هوش مصنوعی است. جملاتی که شاید بسیاری را به یاد دنیای تاریکی می‌اندازد که ۷۰ سال پیش، جورج اورل در رمان معروف ۱۹۸۴ از آن سخن می‌گفت.

باستروم، فیلسوف شهیر دانشگاه آکسفورد، ۱۵ سال پس از ارائه‌ی دیدگاه‌های جنجال‌برانگیزش درباره‌ی ماهیت واقعی بشر، نظریه‌‌ی دور از ذهن دیگری در چنته دارد و این‌بار هم گویا جایی برای خوش‌‌بینی به آینده‌‌ی بشر نمی‌‌بیند.

چهارشنبه‌‌ی گذشته، نیک باستروم در کنفرانس TED 2019 در ونکوور کانادا، روی سکو رفت تا برخی از نکات مربوط به آخرین مقاله‌‌ی خود را به ‌نام «فرضیه‌‌ی جهان آسیب‌پذیر» با جهانیان به اشتراک بگذارد.

در این مقاله‌‌، باستروم استدلال می‌کند بشر برای جلوگیری از نابودی خود به‌وسیله‌ی فناوری، نیازمند نظارت دولتی فراگیر است. این شاید یکی از ایده‌های ارتجاعی‌‌ و تاریکی است که تاکنون، از زبان یکی از فیلسوفان معاصر بزرگ بیان شده است.

باستروم استدلال خود را با مثالی از گلدانی بزرگ پُر از توپ توضیح می‌‌دهد که پیش روی بشر قرار دارد. هرکدام از این توپ‌‌ها بارنگ‌های مختص‌‌ به خود، نمایانگر ایده‌‌ای متفاوت یا فناوری جدیدی هستند: سفید (به معنای مفید) و خاکستری (به معنای نسبتاً مضر، اما نه ویرانگر) و سیاه (به معنای ویرانگر و نابودکننده‌‌ی تمدن بشر).

باتوجه‌ به مدل تعریف‌‌شده‌ی باستروم، بشر به‌‌طور مداوم توپی از درون این گلدان بیرون می‌کشد که دیگر به گلدان بازگرداندنی نیست و از بخت ما، هنوز کسی توپ سیاهی بیرون نکشیده است. در اینجا، وی تأکید ویژه‌‌ای بر کلمه‌‌ی «هنوز» دارد. باستروم در نوشته‌هایش می‌گوید:

اگر تحقیقات علمی و تکنولوژیکی همین‌‌طور ادامه یابد، درنهایت، به آن (توپ سیاه) خواهیم رسید و آن را بیرون خواهیم کشید.

بنا بر گفته‌‌ی باستروم، تنها دلیلی که هنوز توپ سیاهی بیرون نکشیده‌‌ایم، بخت بلند ما بوده است. از دیدگاه وی، حتی پدیده‌‌ای مانند «گرمایش جهانی» نیز می‌‌توانست بسیار بدتر از آن‌‌ چیزی باشد که امروز، شاهدش هستیم.

باستروم بر این باور است که توپ سیاهی که بنیان تمدن ما را نشانه خواهد رفت، نهایتاً محصولی از فناوری خودِ ما خواهد بود؛ ازاین‌‌رو، باید با اعمال نظارت روی خودمان، از ظهور چنین فناوری مخربی جلوگیری کنیم. او می‌افزاید برای جلوگیری از وقوع چنین اتفاقی، به دولت جهانی کاراتری نیاز داریم؛ دولتی که بتواند به‌‌سرعت هرگونه فناوری بالقوه‌‌‌ی ویرانگری را غیرقانونی اعلام کند.

توصیفات بوستروم از نحوه‌ی نظارت دولت جهانی هوش مصنوعی شباهت بسیاری به روزگار تاریک تصویر شده در رمان ۱۹۸۴ دارد.

در ادامه، او می‌گوید به نظارت چنین دولت بزرگی باید تن دهیم و هر فرد باید نوعی تجهیز به شکل گردنبند را با عنوان «برچسب آزادی» به همراه داشته باشد تا این سیستم بتواند آنچه فرد می‌‌بیند و می‌‌شنود، با دوربین‌‌ها و میکروفن‌‌های نصب‌‌شده مخابره کند.

این برچسب‌ها به «ایستگاه‌های نظارت میهن‌پرستان» یا «مراکز آزادی» متصل می‌‌شوند تا در آنجا، هوش‌‌های مصنوعی تمامی داده‌‌ها را کنترل کنند و چنانچه کوچک‌ترین نشانه‌‌ای از توپ سیاه تشخیص داده شود، افرادی با عنوان «افسران آزادی» برای رسیدگی به آن گماشته خواهند شد.

نیک باستروم درحال‌توضیح ایده‌ی مربوط به گلدان بزرگ در خلال کنفرانس TED 2019

پیش‌‌تر نیز مواردی از سوءاستفاده‌‌ی افراد را از سامانه‌‌های نظارت جمعی شاهد بوده‌‌ایم؛ اما آن سیستم‌‌ها بسیار ناقص‌‌تر از آن‌‌ چیزی به نظر می‌‌رسند که در نظریه‌‌ی باستروم پیشنهاد شده است. چنین اظهاراتی به‌‌‌ویژه در کنفرانسی مانند TED بسیار بحث‌برانگیز جلوه می‌کند که امسال روی استراتژی‌‌های تضمین حریم خصوصی در عصر دیجیتال تمرکز داشته است. البته، خود وی نیز بر این موضوع صحه گذاشته که ممکن است چنین سناریویی اصلاً روی ندهد.

بااین‌حال، از دیدگاه باستروم، چنانچه قرار باشد میان تن‌‌دادن به کنترل تمامی رفتارهای خود و نابودی کل تمدن یکی را انتخاب کنیم، شاید بهتر است گزینه‌‌ی اول را انتخاب کنیم. او در خلال کنفرانس TED رو به حضار گفت:

 واضح است جنبه‌های منفی بی‌‌شمار و خطرهای فراوانی در تن‌‌دادن به سیستم نظارت جمعی یا دولت جهانی وجود دارد. من فقط قصد دارم به این اشاره کنم که چنانچه بخت با ما یار باشد، این تنها راه پیش روی دنیا است که بتواند از (عواقب) انتخاب توپ سیاه جان سالم به در ببرد.

تازه ترین ها
انگشتر
1404/07/15 - 07:04- ابزارهای هوشمند

انگشتر ۵ گرمی موس کامپیوتر را بازنشسته می‌کند

برای دهه‌ها، موس رایانه سنگ بنای تعامل دیجیتال بوده، اما یک اختراع جدید این وضعیت را تغییر می‌دهد.

هوش
1404/07/15 - 07:01- هوش مصنوعي

هوش مصنوعی چین در اعماق دریا؛ اژدهای سرخ در حال آماده‌سازی چه چیزی است؟

چین از نسل تازه‌ای از زیردریایی‌های بدون سرنشین رونمایی کرده که به گفته منابع نظامی، توانایی «چرخش با شعاع صفر» دارند و می‌توانند بدون جلب توجه به رادار یا سونار، در عمق دریا حرکت کنند.

مقابله
1404/07/15 - 06:53- سایرفناوری ها

مقابله تازه آمریکا با نفوذ فناوری چینی

کمیسیون ارتباطات فدرال آمریکا این ماه به تشدید سخت‌گیری در زمینه استفاده از تجهیزات مخابراتی ساخته شده توسط شرکت‌های چینی رأی خواهد داد.