about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
ادعای
1403/12/06 - 20:15- تروریسم سایبری

ادعای مؤسسه صهیونیستی آلما درباره واحد ۳۰۰ سازمان جنگ الکترونیک؛ پروپاگاندایی برای توجیه تجاوزات سایبری رژیم

مؤسسه تحقیقاتی اسرائیلی آلما در مقاله‌ای ادعا کرد که برخی یگان‌های ایران از جمله واحد 300 درگیر کمک‌های نظامی برای احیای حزب‌الله هستند.

مقاله
1403/12/23 - 15:23- ایران

مقاله اندیشکده هندی درباره گروه هکری سایبر اونجرز

سایت هندی متخصص در زمینه سایبر به نام «TheSecMaster» مقاله‌ای جدید درمورد گروه هکری انتقام‌جویان سایبری منتشر کرد.

یک
1403/11/17 - 09:27- تروریسم سایبری

یک اندیشکده آمریکایی حملات سایبری منتسب به ایران را اغراق‌آمیز توصیف کرد

اندیشکده FDD ادعا کرد که ایران اغلب یک بازیگر سایبری درجه دوم است که هکرهای آن به طور مرتب از عملیات‌های نفوذ فقط برای تحریک و ایجاد وحشت استفاده می‌کنند.

در سخنرانی اخیرش در TED 2019، در ایده‌‌ای جنجالی اعلام کرد بشر برای جلوگیری از نابودی خود به دست فناوری، مجبور است به نظارت دولت فراگیر هوش مصنوعی تن دهد.

 
به گزارش کارگروه امنیت سایبربان؛ شاید نام نیک باستروم برایتان آشنا باشد. وی فیلسوفی معاصر است که بیش‌از‌همه به دلیل پیش‌‌بینی‌‌های ترسناکش درباره‌ی آینده‌‌ی بشر شهرتی جهانی یافته و هم‌‌اکنون، برخی دیدگاه‌هایش توانسته حمایت بزرگانی از دنیای فناوری، نظیر ایلان ماسک را نیز جلب کند. چندی پیش مطلبی منتشر شد که به دفاعیات یکی از دانشمندان ام‌‌آی‌‌تی از «فرضیه‌‌ی شبیه‌‌سازی» پرداخته بود؛ فرضیه‌‌ای که ریشه‌‌ی آن به یکی دیگر از ایده‌‌های باستروم در ۱۵ سال پیش بازمی‌‌گردد که با اظهارات اخیر ماسک، بار دیگر در محافل علمی جهان بر سر زبان‌ها افتاد.

گویا سناریوهای تاریک باستروم برای جهان تمامی ندارد. این‌‌بار نویسنده‌‌ی کتاب «برهان شبیه‌سازی» می‌گوید تکنولوژی مخرب می‌تواند بشر را نابود کند و تنها راه جلوگیری از آن، استقرار دولت جهانی مبتنی‌‌بر هوش مصنوعی است. جملاتی که شاید بسیاری را به یاد دنیای تاریکی می‌اندازد که ۷۰ سال پیش، جورج اورل در رمان معروف ۱۹۸۴ از آن سخن می‌گفت.

باستروم، فیلسوف شهیر دانشگاه آکسفورد، ۱۵ سال پس از ارائه‌ی دیدگاه‌های جنجال‌برانگیزش درباره‌ی ماهیت واقعی بشر، نظریه‌‌ی دور از ذهن دیگری در چنته دارد و این‌بار هم گویا جایی برای خوش‌‌بینی به آینده‌‌ی بشر نمی‌‌بیند.

چهارشنبه‌‌ی گذشته، نیک باستروم در کنفرانس TED 2019 در ونکوور کانادا، روی سکو رفت تا برخی از نکات مربوط به آخرین مقاله‌‌ی خود را به ‌نام «فرضیه‌‌ی جهان آسیب‌پذیر» با جهانیان به اشتراک بگذارد.

در این مقاله‌‌، باستروم استدلال می‌کند بشر برای جلوگیری از نابودی خود به‌وسیله‌ی فناوری، نیازمند نظارت دولتی فراگیر است. این شاید یکی از ایده‌های ارتجاعی‌‌ و تاریکی است که تاکنون، از زبان یکی از فیلسوفان معاصر بزرگ بیان شده است.

باستروم استدلال خود را با مثالی از گلدانی بزرگ پُر از توپ توضیح می‌‌دهد که پیش روی بشر قرار دارد. هرکدام از این توپ‌‌ها بارنگ‌های مختص‌‌ به خود، نمایانگر ایده‌‌ای متفاوت یا فناوری جدیدی هستند: سفید (به معنای مفید) و خاکستری (به معنای نسبتاً مضر، اما نه ویرانگر) و سیاه (به معنای ویرانگر و نابودکننده‌‌ی تمدن بشر).

باتوجه‌ به مدل تعریف‌‌شده‌ی باستروم، بشر به‌‌طور مداوم توپی از درون این گلدان بیرون می‌کشد که دیگر به گلدان بازگرداندنی نیست و از بخت ما، هنوز کسی توپ سیاهی بیرون نکشیده است. در اینجا، وی تأکید ویژه‌‌ای بر کلمه‌‌ی «هنوز» دارد. باستروم در نوشته‌هایش می‌گوید:

اگر تحقیقات علمی و تکنولوژیکی همین‌‌طور ادامه یابد، درنهایت، به آن (توپ سیاه) خواهیم رسید و آن را بیرون خواهیم کشید.

بنا بر گفته‌‌ی باستروم، تنها دلیلی که هنوز توپ سیاهی بیرون نکشیده‌‌ایم، بخت بلند ما بوده است. از دیدگاه وی، حتی پدیده‌‌ای مانند «گرمایش جهانی» نیز می‌‌توانست بسیار بدتر از آن‌‌ چیزی باشد که امروز، شاهدش هستیم.

باستروم بر این باور است که توپ سیاهی که بنیان تمدن ما را نشانه خواهد رفت، نهایتاً محصولی از فناوری خودِ ما خواهد بود؛ ازاین‌‌رو، باید با اعمال نظارت روی خودمان، از ظهور چنین فناوری مخربی جلوگیری کنیم. او می‌افزاید برای جلوگیری از وقوع چنین اتفاقی، به دولت جهانی کاراتری نیاز داریم؛ دولتی که بتواند به‌‌سرعت هرگونه فناوری بالقوه‌‌‌ی ویرانگری را غیرقانونی اعلام کند.

توصیفات بوستروم از نحوه‌ی نظارت دولت جهانی هوش مصنوعی شباهت بسیاری به روزگار تاریک تصویر شده در رمان ۱۹۸۴ دارد.

در ادامه، او می‌گوید به نظارت چنین دولت بزرگی باید تن دهیم و هر فرد باید نوعی تجهیز به شکل گردنبند را با عنوان «برچسب آزادی» به همراه داشته باشد تا این سیستم بتواند آنچه فرد می‌‌بیند و می‌‌شنود، با دوربین‌‌ها و میکروفن‌‌های نصب‌‌شده مخابره کند.

این برچسب‌ها به «ایستگاه‌های نظارت میهن‌پرستان» یا «مراکز آزادی» متصل می‌‌شوند تا در آنجا، هوش‌‌های مصنوعی تمامی داده‌‌ها را کنترل کنند و چنانچه کوچک‌ترین نشانه‌‌ای از توپ سیاه تشخیص داده شود، افرادی با عنوان «افسران آزادی» برای رسیدگی به آن گماشته خواهند شد.

نیک باستروم درحال‌توضیح ایده‌ی مربوط به گلدان بزرگ در خلال کنفرانس TED 2019

پیش‌‌تر نیز مواردی از سوءاستفاده‌‌ی افراد را از سامانه‌‌های نظارت جمعی شاهد بوده‌‌ایم؛ اما آن سیستم‌‌ها بسیار ناقص‌‌تر از آن‌‌ چیزی به نظر می‌‌رسند که در نظریه‌‌ی باستروم پیشنهاد شده است. چنین اظهاراتی به‌‌‌ویژه در کنفرانسی مانند TED بسیار بحث‌برانگیز جلوه می‌کند که امسال روی استراتژی‌‌های تضمین حریم خصوصی در عصر دیجیتال تمرکز داشته است. البته، خود وی نیز بر این موضوع صحه گذاشته که ممکن است چنین سناریویی اصلاً روی ندهد.

بااین‌حال، از دیدگاه باستروم، چنانچه قرار باشد میان تن‌‌دادن به کنترل تمامی رفتارهای خود و نابودی کل تمدن یکی را انتخاب کنیم، شاید بهتر است گزینه‌‌ی اول را انتخاب کنیم. او در خلال کنفرانس TED رو به حضار گفت:

 واضح است جنبه‌های منفی بی‌‌شمار و خطرهای فراوانی در تن‌‌دادن به سیستم نظارت جمعی یا دولت جهانی وجود دارد. من فقط قصد دارم به این اشاره کنم که چنانچه بخت با ما یار باشد، این تنها راه پیش روی دنیا است که بتواند از (عواقب) انتخاب توپ سیاه جان سالم به در ببرد.

تازه ترین ها
ادعای
1404/02/14 - 10:10- جرم سایبری

ادعای حمله هکرهای روسی به وب‌سایت‌های هلند

کارشناسان ادعا کردند که یک گروه هکری طرفدار روسیه در حمله‌ای هماهنگ بیش از ۵۰ وب‌سایت هلندی را هدف قرار داد.

قطع
1404/02/14 - 09:45- سایرفناوری ها

قطع شبکه‌های 2G/3G در اراضی اشغالی تا پایان سال 2025

رژیم صهیونیستی در نظر دارد یک میلیون تلفن همراه دارای شبکه 2G/3G را تا پایان سال جاری قطع کند.

فریب
1404/02/14 - 08:55- هوش مصنوعي

فریب شیرین هوش مصنوعی/ کشاورز: ChatGPT گاهی فقط خوب جواب می‌دهد، نه جواب درست

در گفت‌وگو با حمیدرضا کشاورز، مهندس یادگیری ماشین، به بررسی مفاهیم مختلف هوش مصنوعی و کاربردهای آن در زندگی روزمره و به‌ویژه به خطرات و چالش‌های استفاده از مدل‌هایی مانند ChatGPT در زمینه‌های تخصصی مانند مشاوره پزشکی و روان‌شناسی پرداختیم.