about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
پیشنهاد
1404/02/21 - 07:21- تروریسم سایبری

پیشنهاد رئیس سابق اداره ملی سایبری رژیم صهیونیستی درمورد ایران

رئیس سابق اداره سایبری ملی رژیم صهیونیستی گفت که این رژیم باید یک پیمان دفاع سایبری علیه ایران تشکیل دهد.

جایزه
1404/03/25 - 08:09- تروریسم سایبری

جایزه 10 میلیون دلاری برای گروه هکری نجات دهنده سامانه‌های پدافندی

ایالات متحده اخیراً با اعلام بیانیه‌ای از تعیین جایزه 10 میلیون دلاری برای مرموزترین دشمن سایبری خود به نام مِستر سول خبر داد.

حمله
1404/01/16 - 14:04- جرم سایبری

حمله سایبری آژانس‌های اطلاعاتی آمریکا علیه کاربران موبایل

یک گزارش منتشرشده توسط یک ائتلاف صنعتی چینی، فعالیت‌های نظارتی و سرقت داده‌ای آژانس‌های اطلاعاتی آمریکا را که کاربران جهانی تلفن‌های هوشمند و سامانه‌های ارتباطی را هدف قرار می‌دهد، افشا کرد.

انتشار شده در تاریخ

آینده هوش مصنوعی، در گرو پردازنده‌ گرافیکی

شرکت‌های فیس‌بوک و گوگل، برای تأمین قدرت هوش‌های مصنوعی خود، سخت‌افزارهای محاسباتی قدرت‌مندی، تولید کرده‌اند. این سخت‌افزارها، وظیفه تأمین قدرت محاسبات تنسورفلو گوگل (tensorflow)، دست‌یار صوتی فیس‌بوک، با نام ام، و تبلیغات هدف‌مند هر 2 شرکت را دارند.
قدرت رایانه‌های سفارشی‌شده‌ سرورهای فیس‌بوک - با اسم رمز بیگ سور (Big Sur) -  با استفاده از تعداد فراوانی پردازنده‌ گرافیکی (GPU) تأمین می‌شود. بخش عظیمی از قدرت سخت‌افزار هوش مصنوعی تنسورفلو نیز به همین شکل، ایجاد می‌گردد. این پردازنده‌ها، همان کارت‌های گرافیکی هستند که در رایانه‌های معمولی، وظیفه اجرای بازی‌های ویدئویی و پردازش‌های 3 بعدی را بر عهده دارند.

 

چرا در محاسبات هوش مصنوعی، از پردازنده‌های گرافیکی، به‌جای پردازنده‌های مرکزی (CPU) استفاده می‌شود؟
وظیفه‌ اصلی پردازنده‌های گرافیکی، کمک به پردازنده‌های مرکزی، در اجرای محاسبات است. در واقع پردازنده‌های گرافیکی، وظیفه‌ انجام دادن محاسبات گرافیکی را بر عهده گرفته، بار آن را از روی پردازنده‌های مرکزی برمی‌دارند.
ترسیم گرافیک 3 بعدی، به‌عنوان یکی از اصلی‌ترین مثال‌های پردازش موازی، شناخته می‌شود. در پردازش موازی، محاسبات، به تعداد فراوانی مسئله‌ کوچک، تقسیم می‌شوند؛ تا به‌صورت موازی، اجرا گردند. این موضوع، باعث می‌شود که کار، با سرعت بالاتری، صورت پذیرد.
قابلیت پردازش‌های موازی، در کارت‌های گرافیکی، باعث شده است که بسیاری از شرکت‌ها، به شکل دیگری، از ‌این کارت‌ها، استفاده کنند. با کمی تغییرات و بهینه‌سازی پردازنده‌های گرافیکی، علاوه بر این‌گونه محاسبات، می‌توان برای پردازش‌های موازی غیرگرافیکی نیز از آن‌ها،  بهره‌برداری کرد. این موضوع، باعث می‌شود؛ تا پردازنده‌های مرکزی، با سرعت بالاتری، محاسبات تک‌رشته‌ای را انجام دهند؛ زیرا بسیاری از نرم‌افزارهای امروزی، هنوز از پردازش موازی، پشتیبانی نمی‌کنند.
بهترین پردازنده‌های مرکزی موجود در بازار، معمولا 8 هسته دارند. این در حالی است که پردازنده‌های گرافیکی، از هزاران هسته، استفاده می‌کنند. به‌عنوان مثال، کارت گرافیکی «NVIDIA Tesla M40» به‌کاررفته در سرورهای فیس‌بوک، 3 هزار و 72 هسته‌ کودا1 (CUDA  core) دارد.

کارت گرافیک Nvidia Tesla M40


بهره‌گیری از این روش، هزینه‌های خاص خود را خواهد داشت؛ زیرا نرم‌افزارهایی که به شیوه یادشده، اجرایی می‌شوند، باید به صورتی نوشته شده باشند که پردازنده گرافیکی، از عهده محاسبات آن‌ها برآید.

 

چرا استفاده از پردازنده‌ گرافیکی، برای عمل‌کرد هوش مصنوعی، بهتر است؟
یکی از دلایلی که پردازنده‌های گرافیکی را به انتخابی مناسب، برای ابررایانه‌ها، تبدیل می‌کند، تعداد بالای محاسباتی است که به‌صورت موازی، انجام می‌گیرد.
در دهه 90، مفهوم شبکه‌های عصبی و الگوریتم‌های یادگیری عمیق (Deep Learning) - که از روش‌های ایجاد هوش مصنوعی هستند - به وجود آمد. با استفاده از پردازنده‌های گرافیکی و پردازش‌های موازی امروزی می‌توان با نتایجی بهتر، عمق و سرعت بیش‌تری به این نوع الگوریتم‌ها داد.
آموزش به شبکه‌های عصبی، با کمک پردازش‌های موازی کارت گرافیکی، سرعت بیش‌تری نسبت به پردازنده‌های مرکزی، ایجاد می‌کند.
شبکه‌های عصبی به‌کاررفته در ابررایانه‌های گوگل، توانایی تشخیص زبان گفتار، ترجمه‌ آن و جستجوی معنایی دارد.

بخشی از ابر رایانه‌ی بیگ سور که توسط 8 کارت گرافیک Tesla M4 پشتیبانی می‌شود.

آیا آینده محاسبات، در گرو پردازنده‌های گرافیکی است؟
قانون مور بیان می‌کند: «قدرت محاسبات رایانه‌ها، هر سال، نسبت به سال پیش، 2 برابر می‌شود. این موضوع، با کوچک‌تر شدن و تولید دمای کم‌تر قطعات، محقق می‌گردد؛ زیرا به پردازنده‌های مرکزی، امکان می‌دهد؛ با سرعت بیش‌تری، کار کنند.»
به نظر می‌رسد؛ این قانون، محدودیت‌هایی، داشته باشد؛ زیرا با کوچک‌تر شدن معماری پردازنده مرکزی، تولید آن، سخت‌تر می‌شود. تا مدتی قبل، بهره‌گیری از پردازنده‌های مرکزی چندهسته‌ای، بهترین راه برای پردازش‌های موازی، به شمار می‌آمد؛ اما پردازنده‌ گرافیکی، این کار را وارد مرحله‌ای جدید کرد. علاوه بر هوش مصنوعی، از پردازنده‌های گرافیکی، برای شبیه‌سازی مغز، موتورهای فیزیک و شبیه‌سازی رفتار سیالات و چندین مورد دیگر، استفاده می‌شود.
هم‌اینک ابررایانه‌های تیانهی دو (Tianhe-2)  و تایتان (Titan) که از قدرت‌مندترین ابررایانه‌های دنیا هستند، با پردازنده‌های گرافیکی انویدیا، تغذیه می‌شوند.
عده‌ای از تحلیل‌گران، پیش‌بینی می‌کنند که به‌وسیله پردازنده‌های گرافیکی بتوان نسبت به تکامل هوش مصنوعی، با سرعت بالاتری، اقدام نمود. با استفاده از این روش، اجرای محاسبات بسیار پیچیده‌تر و افزایش قدرت یادگیری هوش‌های مصنوعی، مقدور می‌گردد. ممکن است؛ در آینده، قدرت هوش‌های مصنوعی - که عمل‌کردی مشابه مغز دارند - به‌اندازه‌ای افزایش یابد که بتوانند بهتر از انسان، کار کنند.

ابر رایانه‌ی تایتان؛ دومین ابر رایانه‌ی فعلی دنیا

_______________________________

1-  کودا مخفف عبارت « Compute Unified Device Architecture » است. این فن‌آوری به‌وسیله شرکت انودیا و بر پایه پردازش موازی، ایجاد شد.

تازه ترین ها
انویدیا،
1404/04/12 - 20:59- سایرفناوری ها

انویدیا، ارزشمندترین شرکت تاریخ جهان

انویدیا در آستانه تبدیل‌شدن به ارزشمندترین شرکت تاریخ جهان است.

محکومیت
1404/04/12 - 20:35- سایرفناوری ها

محکومیت گوگل در یک دعوای گروهی

گوگل در یک دعوای گروهی مربوط به داده‌های تلفن همراه، به پرداخت ۳۱۴ میلیون دلار جریمه محکوم شد.

استفاده
1404/04/12 - 20:27- هوش مصنوعي

استفاده از هوش مصنوعی در مراکز فرماندهی پنتاگون

پنتاگون از قرارداد ۱۰ میلیون‌دلاری با یک شرکت هوش مصنوعی در مراکز فرماندهی خود حمایت می‌کند.

مطالب مرتبط

در این بخش مطالبی که از نظر دسته بندی و تگ بندی مرتبط با محتوای جاری می باشند نمایش داده می‌شوند.