about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
پیشنهاد
1404/02/21 - 07:21- تروریسم سایبری

پیشنهاد رئیس سابق اداره ملی سایبری رژیم صهیونیستی درمورد ایران

رئیس سابق اداره سایبری ملی رژیم صهیونیستی گفت که این رژیم باید یک پیمان دفاع سایبری علیه ایران تشکیل دهد.

جایزه
1404/03/25 - 08:09- تروریسم سایبری

جایزه 10 میلیون دلاری برای گروه هکری نجات دهنده سامانه‌های پدافندی

ایالات متحده اخیراً با اعلام بیانیه‌ای از تعیین جایزه 10 میلیون دلاری برای مرموزترین دشمن سایبری خود به نام مِستر سول خبر داد.

برگزاری
1404/01/26 - 08:33- آمریکا

برگزاری رزمایش پاسخ هماهنگ به حمله سایبری توسط اعضای ناتو

متحدان ناتو در یک رزمایش در ماه آوریل سال جاری، پاسخ هماهنگ به حمله سایبری را تمرین کردند.

در سخنرانی اخیرش در TED 2019، در ایده‌‌ای جنجالی اعلام کرد بشر برای جلوگیری از نابودی خود به دست فناوری، مجبور است به نظارت دولت فراگیر هوش مصنوعی تن دهد.

 
به گزارش کارگروه امنیت سایبربان؛ شاید نام نیک باستروم برایتان آشنا باشد. وی فیلسوفی معاصر است که بیش‌از‌همه به دلیل پیش‌‌بینی‌‌های ترسناکش درباره‌ی آینده‌‌ی بشر شهرتی جهانی یافته و هم‌‌اکنون، برخی دیدگاه‌هایش توانسته حمایت بزرگانی از دنیای فناوری، نظیر ایلان ماسک را نیز جلب کند. چندی پیش مطلبی منتشر شد که به دفاعیات یکی از دانشمندان ام‌‌آی‌‌تی از «فرضیه‌‌ی شبیه‌‌سازی» پرداخته بود؛ فرضیه‌‌ای که ریشه‌‌ی آن به یکی دیگر از ایده‌‌های باستروم در ۱۵ سال پیش بازمی‌‌گردد که با اظهارات اخیر ماسک، بار دیگر در محافل علمی جهان بر سر زبان‌ها افتاد.

گویا سناریوهای تاریک باستروم برای جهان تمامی ندارد. این‌‌بار نویسنده‌‌ی کتاب «برهان شبیه‌سازی» می‌گوید تکنولوژی مخرب می‌تواند بشر را نابود کند و تنها راه جلوگیری از آن، استقرار دولت جهانی مبتنی‌‌بر هوش مصنوعی است. جملاتی که شاید بسیاری را به یاد دنیای تاریکی می‌اندازد که ۷۰ سال پیش، جورج اورل در رمان معروف ۱۹۸۴ از آن سخن می‌گفت.

باستروم، فیلسوف شهیر دانشگاه آکسفورد، ۱۵ سال پس از ارائه‌ی دیدگاه‌های جنجال‌برانگیزش درباره‌ی ماهیت واقعی بشر، نظریه‌‌ی دور از ذهن دیگری در چنته دارد و این‌بار هم گویا جایی برای خوش‌‌بینی به آینده‌‌ی بشر نمی‌‌بیند.

چهارشنبه‌‌ی گذشته، نیک باستروم در کنفرانس TED 2019 در ونکوور کانادا، روی سکو رفت تا برخی از نکات مربوط به آخرین مقاله‌‌ی خود را به ‌نام «فرضیه‌‌ی جهان آسیب‌پذیر» با جهانیان به اشتراک بگذارد.

در این مقاله‌‌، باستروم استدلال می‌کند بشر برای جلوگیری از نابودی خود به‌وسیله‌ی فناوری، نیازمند نظارت دولتی فراگیر است. این شاید یکی از ایده‌های ارتجاعی‌‌ و تاریکی است که تاکنون، از زبان یکی از فیلسوفان معاصر بزرگ بیان شده است.

باستروم استدلال خود را با مثالی از گلدانی بزرگ پُر از توپ توضیح می‌‌دهد که پیش روی بشر قرار دارد. هرکدام از این توپ‌‌ها بارنگ‌های مختص‌‌ به خود، نمایانگر ایده‌‌ای متفاوت یا فناوری جدیدی هستند: سفید (به معنای مفید) و خاکستری (به معنای نسبتاً مضر، اما نه ویرانگر) و سیاه (به معنای ویرانگر و نابودکننده‌‌ی تمدن بشر).

باتوجه‌ به مدل تعریف‌‌شده‌ی باستروم، بشر به‌‌طور مداوم توپی از درون این گلدان بیرون می‌کشد که دیگر به گلدان بازگرداندنی نیست و از بخت ما، هنوز کسی توپ سیاهی بیرون نکشیده است. در اینجا، وی تأکید ویژه‌‌ای بر کلمه‌‌ی «هنوز» دارد. باستروم در نوشته‌هایش می‌گوید:

اگر تحقیقات علمی و تکنولوژیکی همین‌‌طور ادامه یابد، درنهایت، به آن (توپ سیاه) خواهیم رسید و آن را بیرون خواهیم کشید.

بنا بر گفته‌‌ی باستروم، تنها دلیلی که هنوز توپ سیاهی بیرون نکشیده‌‌ایم، بخت بلند ما بوده است. از دیدگاه وی، حتی پدیده‌‌ای مانند «گرمایش جهانی» نیز می‌‌توانست بسیار بدتر از آن‌‌ چیزی باشد که امروز، شاهدش هستیم.

باستروم بر این باور است که توپ سیاهی که بنیان تمدن ما را نشانه خواهد رفت، نهایتاً محصولی از فناوری خودِ ما خواهد بود؛ ازاین‌‌رو، باید با اعمال نظارت روی خودمان، از ظهور چنین فناوری مخربی جلوگیری کنیم. او می‌افزاید برای جلوگیری از وقوع چنین اتفاقی، به دولت جهانی کاراتری نیاز داریم؛ دولتی که بتواند به‌‌سرعت هرگونه فناوری بالقوه‌‌‌ی ویرانگری را غیرقانونی اعلام کند.

توصیفات بوستروم از نحوه‌ی نظارت دولت جهانی هوش مصنوعی شباهت بسیاری به روزگار تاریک تصویر شده در رمان ۱۹۸۴ دارد.

در ادامه، او می‌گوید به نظارت چنین دولت بزرگی باید تن دهیم و هر فرد باید نوعی تجهیز به شکل گردنبند را با عنوان «برچسب آزادی» به همراه داشته باشد تا این سیستم بتواند آنچه فرد می‌‌بیند و می‌‌شنود، با دوربین‌‌ها و میکروفن‌‌های نصب‌‌شده مخابره کند.

این برچسب‌ها به «ایستگاه‌های نظارت میهن‌پرستان» یا «مراکز آزادی» متصل می‌‌شوند تا در آنجا، هوش‌‌های مصنوعی تمامی داده‌‌ها را کنترل کنند و چنانچه کوچک‌ترین نشانه‌‌ای از توپ سیاه تشخیص داده شود، افرادی با عنوان «افسران آزادی» برای رسیدگی به آن گماشته خواهند شد.

نیک باستروم درحال‌توضیح ایده‌ی مربوط به گلدان بزرگ در خلال کنفرانس TED 2019

پیش‌‌تر نیز مواردی از سوءاستفاده‌‌ی افراد را از سامانه‌‌های نظارت جمعی شاهد بوده‌‌ایم؛ اما آن سیستم‌‌ها بسیار ناقص‌‌تر از آن‌‌ چیزی به نظر می‌‌رسند که در نظریه‌‌ی باستروم پیشنهاد شده است. چنین اظهاراتی به‌‌‌ویژه در کنفرانسی مانند TED بسیار بحث‌برانگیز جلوه می‌کند که امسال روی استراتژی‌‌های تضمین حریم خصوصی در عصر دیجیتال تمرکز داشته است. البته، خود وی نیز بر این موضوع صحه گذاشته که ممکن است چنین سناریویی اصلاً روی ندهد.

بااین‌حال، از دیدگاه باستروم، چنانچه قرار باشد میان تن‌‌دادن به کنترل تمامی رفتارهای خود و نابودی کل تمدن یکی را انتخاب کنیم، شاید بهتر است گزینه‌‌ی اول را انتخاب کنیم. او در خلال کنفرانس TED رو به حضار گفت:

 واضح است جنبه‌های منفی بی‌‌شمار و خطرهای فراوانی در تن‌‌دادن به سیستم نظارت جمعی یا دولت جهانی وجود دارد. من فقط قصد دارم به این اشاره کنم که چنانچه بخت با ما یار باشد، این تنها راه پیش روی دنیا است که بتواند از (عواقب) انتخاب توپ سیاه جان سالم به در ببرد.

تازه ترین ها
نشت
1404/04/13 - 12:53- آسیا

نشت اطلاعاتی در شرکت اِس کِی تلکام کره جنوبی

کره جنوبی، شرکت مخابراتی اِس کِی تلکام را به دلیل نشت اطلاعات عمدی جریمه کرد.

همکاری
1404/04/12 - 23:45- سایرفناوری ها

همکاری اُپن اِی آی و اوراکل در زمینه گسترش مرکز داده

شرکت‌های اُپن اِی آی و اوراکل برای گسترش عظیم مرکز داده هوش مصنوعی همکاری می‌کنند.

اعمال
1404/04/12 - 22:38- هوش مصنوعي

اعمال قوانین هوش مصنوعی تا پایان سال ۲۰۲۵ در اتحادیه اروپا

اتحادیه اروپا اعلام کرد که آیین‌نامه‌ای برای کمک به شرکت‌ها در رعایت قوانین هوش مصنوعی اعمال می‌شود.