about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
اسرار
1404/08/05 - 14:27- جنگ سایبری

اسرار نظامی و اطلاعات سری پدافند لیزری اسرائیل به دست هکرها افتاد

گروه هکری جبهه پشتیبانی سایبری «الجبهة الإسناد السيبرانية» اعلام کرد که با نفوذ به شرکت نظامی مایا، به اطلاعات محرمانه پدافند پیشرفته لیزری Iron Beam و تعداد زیادی از سلاح‌های پیشرفته اسرائیل دست یافته است.

«حملات
1404/07/10 - 08:30- جنگ سایبری

«حملات تخریبی» به کشور۳ برابر شد/ افشای نام «اهداف اصلی» حملات هکرها

بر اساس داده‌های گزارش سالانه گراف، هوش مصنوعی مولد (GenAI) چشم‌انداز تهدیدات ایران را در سال ۱۴۰۳ دگرگون کرد؛ جایی که حملات با LLMJacking، باج‌افزار و فریب‌های پیشرفته، نهادهای دولتی و آموزشی را در کانون هدف قرار دادند.

افشای
1404/08/04 - 13:09- جنگ سایبری

افشای اطلاعات حساس وزارت جنگ رژیم صهیونیستی توسط گروه هکری جبهه پشتیبانی سایبری

گروه هکری «الجبهة الإسناد السيبرانية» با نفوذ به شرکت پوششی «مایا» وابسته به وزارت دفاع رژیم صهیونیستی، اطلاعات محرمانه‌ای از پروژه‌های نظامی این رژیم از جمله سامانه دفاع لیزری، پهپاد و موشک‌ها را فاش کرد.

دیپ مایند اعلام کرد که بخش جدیدی با نام اخلاق و جامعه در داخل خود ایجاد خواهد کرد که هدف آن اطمینان از مفید بودن هوش مصنوعی برای بشریت است.

به گزارش کارگروه فناوری اطلاعات سایبربان؛ بسیاری از  شخصیت‎های مهم مانند ایلان ماسک، استفن هاوکینگ و بیل گیتس، نسبت به خطرات احتمالی هوش مصنوعی در صورت آزاد قرار دادن آن، هشدار دادند. البته کاملا مشخص است که هنوز چندین دهه تا استقلال کامل هوش مصنوعی از انسان‎ها فاصله داریم؛ اما بهتر است از هم اکنون تلاش‎هایی برای بررسی نحوه کنترل آن در آینده، صورت بگیرد و نحوه کارکرد آن و تعاملش با انسان‎ها مطالعه شود.

شاید به دفعات متعدد در فیلم‎های علمی تخیلی، آینده‎ای بدون انسان‎ها را بر روی کره زمین مشاهده کرده باشیم که توسط روبات‎ها و هوش مصنوعی کنترل‌کننده آن‌‏ها پدید آمده است. چنین دیدگاهی ممکن است بسیار افراطی به نظر برسد؛ اما در حقیقت هوش مصنوعی می‎تواند خطرات جدی را برای بشریت در پی داشته باشد. مقصر اصلی چنین پدیده‎ای ممکن است خود شبکه نباشد بلکه عاملان آن، افرادی باشند که چنین شبکه‎هایی را توسعه دادند. به طور مثال هوش مصنوعی می‎تواند از انسان‎ها تقلید کند و خصیصه‎های نامطلوبی مانند تعصب را یاد بگیرد و آن را بیشتر گسترش دهد تا به حد غیر قابل‌تحملی برسد.

یکی از نمونه‎های اخیر چنین پدیده‎ای، بات توییتر مبتنی بر هوش مصنوعی بود که توسط مایکروسافت توسعه یافته است. این بات بدون هیچ پیش‌زمینه قبلی طراحی شده بود و نمونه‎ای از یک فناوری بی‌طرف به شمار می‎رفت. اما تنها چندین ساعت زمان نیاز بود تا هوش مصنوعی کنترل‌کننده آن، به یک نژادپرست نئونازی تبدیل شود. خوشبختانه این هوش مصنوعی تنها کنترل یک بات توییتری را بر عهده داشت و وظیفه مهم‎تری مانند کنترل موشک‎های هسته ای به آن واگذار نشده بود!

با وجود تمامی این مسائل قطعا نمی‎توان هوش مصنوعی را به حال خود رها کرد و انتظار داشت که تمامی فعالیت‎های آن به نفع بشریت باشد. یکی از دلایل اصلی این امر، مشارکت این شبکه در فعالیت‎هایی است که سازندگان آن هیچ وقت پیش‎بینی نکردند. به طور مثال توسعه‎دهندگان بات توییتری مایکروسافت هیچ‎ وقت تصور نمی‎کنند چنین پدیده‎ای رخ دهد یا در نگاه بدبینانه‎تر این بات را به صورتی طراحی کرده بودند که به چنین هدفی دست پیدا کند.

در سوی دیگر هوش مصنوعی می‎تواند بدون قصدی برای آسیب زدن به انسان‎ها، فعالیت‎های خود را انجام دهد. اما پس از مدتی تمرکز شبکه بر روی هدف خود به قدری بالا می‎رود که طی روش‎های مختلف مانند مصرف کردن بیش از حد منابع مورد نیاز انسان‎ها، موجب آسیب به بشریت می‎شود. این در حالی است که هوش مصنوعی از ابتدا تا انتها هم‎چنان دوست‎دار انسان‎ها باقی خواهد ماند و به صورت ناخواسته به جامعه بشری آسیب می‎زند.


کنترل کردن هوش مصنوعی

می‎توان گفت در حال حاضر دیپ مایند از نظر فناوری، پیشرفته‎ترین سازمان در زمینه هوش مصنوعی به شمار می‎رود. هم‎چنین توانسته است بزرگترین بازیکنان جهان را در بازی‎هایی که هیچکس انتظارش را نداشت، شکست دهد. در سوی دیگر ثابت شده است که هوش مصنوعی فواید بسیار کاربردی‎تر دارد و تاکنون توانسته هزینه خنک‎سازی دیتاسنترهای گوگل را تا ۴۰ درصد کاهش دهد یا بهبود چشمگیری در سیستم سلامت بیمارستان‎های انگلستان ایجاد کند.

تیم دیپ مایند اعتقاد دارند که مهم نیست هوش مصنوعی چقدر پیشرفت می‎کند؛ بلکه باید همیشه تحت کنترل انسان‎ها قرار داشته باشد. البته آینده این امر بسیار ناواضح است زیرا نمی‎توان تمامی حرکات یک شبکه را بررسی کرد. هم‎چنین اگر همیشه نیروی انسانی برای کنترل کردن هوش مصنوعی مورد نیاز باشد، هدف اصلی ساخت آن یعنی سبک کردن وظایف انسان‎ها، زیر سوال می‎رود. در نمونه‎ای دیگر می‎توان به نقش هوش مصنوعی در سیستم سلامت اشاره کرد. در حال حاضر  هوش مصنوعی می‎تواند برای بیماران نسخه تجویز کند اما نسخه‎های نوشته شده حتما باید توسط ناظر مورد تایید قرار گیرند. انتظار می‎رود در آینده دیگر نیازی به نظارت انسان‎ها نباشد و ۹۵ درصد نسخه‎های بیماران توسط هوش مصنوعی تجویز شود.

مشکل اصلی این است که نمی‎توانیم مرز مشخصی برای کنترل کردن هوش مصنوعی در نظر بگیریم و اگر چنین مرزی تصور شود قطعا با باهوش‎تر شدن شبکه، جابه‎جا خواهد شد. اگر هوش مصنوعی اشتباهی را نیز مرتکب شود، به دلیل نظارت ناکافی بر روی آن، روند جلوگیری از بروز عوارض احتمالی بسیار دیر هنگام رخ خواهد داد. در مثال بالا اگر سیستم دچار مشکل فنی شود یا هک شود، ممکن است داروهای نامناسب برای بیماران تجویز گردد و قبل از متوجه شدن افراد مسئول، توسط بیماران مورد استفاده قرار گیرد.


گروه اخلاق و جامعه دیپ مایند

برای آن که بتوانیم تاثیرات هوش مصنوعی در جهان واقعی را مشاهده کنیم، تیم دیپ مایند اقدام به پژوهش پیرامون اخلاق مورد نیاز برای هوش مصنوعی کرده است تا در آینده طبق معیارها و عرف‎های جامعه شکل بگیرد. گروه اخلاق و جامعه پنج شعار اصلی را سر لوحه فعالیت خود قرار داده است:

 مزیت اجتماعی: دیپ مایند سعی دارد بر روی نحوه بهبود زندگی انسان توسط هوش مصنوعی تمرکز کند و این که چگونه می‎توان به کمک آن جوامعی برابرتر داشته باشیم. هم‎چنین گفته شده که سیستم قضایی در حال حاضر از هوش مصنوعی خاصی استفاده می‎کند که بر مبنای نژادپرستی توسعه داده شده است. این گروه قصد دارد با مطالعه این پدیده از بروز موارد مشابه در آینده جلوگیری کند.

تحقیقات بر اساس شواهد: تیم مذکور قصد دارد تا تمامی مدارک موجود را بررسی نماید و مطمئن شود که خطایی در طی این روند رخ نخواهد داد.

شفافیت: گروه تحقیقاتی تضمین داده است که نتایج سایر پژوهش‎ها بر روی عملکرد آن‎ها تاثیری نداشته باشد و فعالیت‎های آن‎ها به صورت کامل شفاف صورت گیرد.

  تنوع بخشی: دیپ مایند تمایل دارد تا از جنبه‎های غیر فنی نیز پذیرای دیدگاه‎های کارشناسان باشد.

  جامعیت: پژوهشگران تلاش خود را می‎کنند تا تمامی طیف‎های جامعه را در تحقیقات خود در نظر بگیرند زیرا در نهایت، هوش مصنوعی بر روی زندگی تمامی انسان‎ها تاثیرگذار خواهد بود.

بخش تازه شکل گرفته اخلاق و جامعه بر روی چالش‎های کلیدی مانند حفظ حریم شخصی، برابری، تاثیرات اقتصادی، مسئولیت‎پذیری، پیامد‎های غیر پیش‎بینی شده، معیارهای مورد پذیرش و ارزش‎های هوش مصنوعی تمرکز خواهد کرد. دیپ مایند امیدوار است با این پروژه به هدف اصلی خود یعنی یافتن پاسخ برای فرضیات مطرح شده پیرامون هوش مصنوعی و ایجاد شبکه‎ای مفید برای بشریت دست پیدا کند.

Paragraphs
کنترل
کنترل هوش مصنوعی
تازه ترین ها
هک
1404/10/08 - 10:14- امنیت شبکه

هک بازی Rainbow Six Siege؛ سرورها به حالت عادی برگشتند

به‌دنبال حمله‌ی هکری به Rainbow Six Siege و آشفتگی در حساب‌ها، یوبی‌سافت از برگشتن سرورها به حالت عادی خبر داد.

پلیس
1404/10/08 - 10:12- هوش مصنوعي

پلیس نامرئی در خیابان‌ها / جریمه رانندگان متخلف توسط هوش مصنوعی!

ردر خیابان‌های آتن، دیگر فقط چراغ‌قرمز و تابلوها نیستند که مراقب رانندگان‌اند. چشم‌هایی دیجیتال و بی‌وقفه، تخلف‌ها را بدون سوت، بدون توقف خودرو و بدون بحث کنار خیابان ثبت می‌کنند.

ایجاد
1404/10/08 - 10:07- هوش مصنوعي

ایجاد 96 میلیون شغل جدید در حوزه‌های هوش مصنوعی

مدیرکل دفتر آموزش دوره اول متوسطه وزارت آموزش و پرورش گفت: در سال‌های آینده 72 میلیون شغل حذف و در مقابل 96 میلیون شغل جدید در حوزه‌های مرتبط با هوش مصنوعی و فناوری‌های نوین ایجاد خواهد شد.