about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
پیشنهاد
1404/02/21 - 07:21- تروریسم سایبری

پیشنهاد رئیس سابق اداره ملی سایبری رژیم صهیونیستی درمورد ایران

رئیس سابق اداره سایبری ملی رژیم صهیونیستی گفت که این رژیم باید یک پیمان دفاع سایبری علیه ایران تشکیل دهد.

جایزه
1404/03/25 - 08:09- تروریسم سایبری

جایزه 10 میلیون دلاری برای گروه هکری نجات دهنده سامانه‌های پدافندی

ایالات متحده اخیراً با اعلام بیانیه‌ای از تعیین جایزه 10 میلیون دلاری برای مرموزترین دشمن سایبری خود به نام مِستر سول خبر داد.

حمله
1404/01/16 - 14:04- جرم سایبری

حمله سایبری آژانس‌های اطلاعاتی آمریکا علیه کاربران موبایل

یک گزارش منتشرشده توسط یک ائتلاف صنعتی چینی، فعالیت‌های نظارتی و سرقت داده‌ای آژانس‌های اطلاعاتی آمریکا را که کاربران جهانی تلفن‌های هوشمند و سامانه‌های ارتباطی را هدف قرار می‌دهد، افشا کرد.

انتشار شده در تاریخ

هوش مصنوعی با قابلیت تجویز دارو

ابزارهای هوش مصنوعی GPT-3 به دلیل قابلیت بالای طراحی وب‌سایت‌ها، تجویز دارو و پاسخ به پرسش‌ها موجب بحث‌های بسیاری شده‌ است.

به گزارش کارگروه فناوری اطلاعات سایبربان ، GPT-3 مخفف واژه «تغییر مبدل قبل از آموزش مولد» است که نسل سوم این مدل آموزش ماشینی محسوب می‌شود. آموزش ماشینی هنگامی صورت می‌گیرد که رایانه‌ها، بدون این‌که برنامه‌ریزی شوند، بتوانند به‌طور خودکار از تجربیات خود بیاموزند.
مدل قدیمی‌تر این هوش مصنوعی، یعنی GPT-2، عنوان «خطرناک برای انتشار» را گرفته ‌بود چون توانایی تولید محتواهایی را داشت که از محتوای نوشته‌شده توسط انسان قابل‌تشخیص نبود.
درحالی‌که تعداد مؤلفه‌های  GPT-2 به ۱.۵ میلیارد می‌رسید، تعداد مؤلفه‌های GPT-3 به ۱۷۵ میلیارد پارامتر می‌رسد. مؤلفه، شاخصی است که در ابزار آموزش ماشین، ازنظر اطلاعات ماشین، امتیاز محسوب می‌شود و تغییر آن‌ها موجب تغییر در خروجی دستگاه خواهد شد.
هنگامی‌که GPT-2 «خیلی خطرناک» در نظر گرفته می‌شد، تنها ۱۲۴ میلیون مؤلفه داشت.
اکنون دسترسی محدودی به GPT-3 وجود دارد و به نظر می‌رسد که می‌توان توانایی‌های آن را در رسانه‌های اجتماعی به  نمایش گذاشت.
رمزگذاری به نام شریف شمین نشان داده که چطور هوش مصنوعی می‌تواند برای توصیف طراحی‌هایی مورداستفاده قرار گیرد که بعدها توسط هوش مصنوعی ساخته می‌شود؛ باوجود این‌که هوش مصنوعی برای تولید کد آموزش ندیده ‌است.
جردن سینگر، که طراح است، روند مشابهی را برای طراحی برنامک به وجود آورده است. درعین‌حال، قاسم مانیی، یک دانشجوی پزشکی در کینگز کالج لندن، نشان داد که چگونه یک برنامه می‌تواند با دسترسی به اطلاعات، پرسش‌های پزشکی را پاسخ دهد.
یک تصویر ناکامل را در نظر بگیرید. هوش مصنوعی می‌تواند برای کامل کردن خودکار این تصویر به کار گرفته شود؛ به‌این‌ترتیب که از ابزارهایش برای پیشنهاد پیکسل‌هایی که باید بر اساس داده‌ها در تصویر باشند استفاده می‌کند.
دلیلی که GPT-3 چنین قابلیتی دارد این است که بر اساس آرشیو اینترنتی به نام «خزیدن مشترک» (Common Crawl) آموزش‌دیده که شامل حدود یک تریلیون کلمه داده است.
این ابزار از OpenAI گرفته‌شده که یک آزمایش تحقیقات هوش مصنوعی است و دو بخش دارد: یک شرکت سودده به نام OpenAI LP، و سازمان مادر غیرانتفاعی آن به نام OpenAI Inc.
ماه گذشته، این محصول به بازار آمد اما هنوز کار زیادی لازم است تا مشخص شود این ابزار چطور باید مورداستفاده قرار گیرد.
جک کلارک، یکی از سیاست‌گذاران اصلی این گروه، ماه گذشته گفت: «ما باید آزمون‌وخطا کنیم تا متوجه شویم که آن‌ها چه‌کارهایی را می‌توانند و چه‌کارهایی را نمی‌توانند انجام دهند. اگر شما نتوانید توانایی‌های یک مدل را پیش‌بینی کنید، باید آن را به کار بیاندازید تا ببینید چه‌کاری می‌تواند انجام دهد. باید توجه داشت افرادی که خیلی بهتر از ما در فکرند که چطور می‌توان از آن‌ها استفاده مخرب کرد، بسیار بیشتر از ما هستند.»
این دستاورد ازنظر بصری هم چشم‌گیر است و برخی آن‌قدر پیش می‌روند که پیشنهاد می‌دهند این ابزار می‌تواند تهدید صنعت باشد.
هرچند که سام آلتمن، مدیرعامل OpenAI این نظرات را اغراق‌آمیز می‌داند: «این تعریف خوبی است اما هوش مصنوعی هنوز ضعف‌های جدی دارد و مرتکب اشتباهات احمقانه‌ای می‌شود. هوش مصنوعی قرار است دنیا را تغییر دهد، اما GPT-3 یک مدل ابتدایی آن است. ما هنوز باید خیلی چیزها کشف کنیم.»
علاوه بر این، پرسش‌هایی مطرح است درباره این‌که دستاوردهای GPT-3 دقیقاً چیست. کوین لکر، یک دانشمند رایانه که پیشتر با فیس‌بوک و گوگل کار می‌کرده، نشان داد درحالی‌که هوش مصنوعی می‌تواند به پرسش‌های «عمومی» پاسخ دهد، پاسخ‌ به پرسش‌هایی که برای انسان بدیهی است، در ماشین وجود ندارد و پرسش‌هایی که «یاوه» هستند، چنان پاسخ داده می‌شوند که گویی چنین نیستند.
ازجمله این پرسش‌ها این است که «پای من چند چشم دارد؟» که GPT-3 به آن پاسخ می‌دهد: «پای شما دو چشم دارد.» یا به این پرسش که «چند رنگین‌کمان می‌برد تا از هاوایی به هفده بپری؟» پاسخ می‌دهد: «دو رنگین‌کمان می‌برد تا از هاوایی به هفده بپری.»
پژوهشگران هوش مصنوعی به این ضعف اذعان دارند و می‌گویند که نمونه‌های GPT-3 در جمله‌های طولانی انسجام را از دست می‌دهند و گاهی جملات یا پاراگراف‌های بدون ترتیبی را بیان می‌کنند.
الگوریتم‌های آموزش ماشین، همچون این‌ها، ضرورتاً «فکر نمی‌کنند» یا حتی زبانی را که به آن پاسخ می‌دهند درک نمی‌کنند. این الگوریتم‌ها یک پایگاه داده عظیم را می‌سنجند و می‌توانند پاسخی بدهند که ممکن است درست باشد، اما نمی‌توانند مانند انسان به نتیجه‌گیری برسند.
گای دن بروک، استادیار علوم کامپیوتر دانشگاه UCLA دراین‌باره می‌گوید: «به نظر من بهترین مقایسه این است که کشوری غنی ازنظر نفت، قادر به ساخت آسمان‌خراش بسیار بلند باشد.»
او می‌افزاید: «به‌طور حتم مقدار زیادی پول و تلاش‌های مهندسی برای ساخت چنین ساختمانی صرف شده اما هیچ پیشرفت علمی وجود ندارد. هیچ‌کس نگران نیست چون کسانی که می‌خواهند پول زیادی در این زمینه خرج کنند، نمی‌توانند در ساخت ساختمان‌های بلند رقیب آمریکا شوند. من اطمینان دارم که افراد دانشگاهی و دیگر شرکت‌ها از استفاده از این مدل‌های زبانی در وظایف سطح پایین خشنود خواهند بود، اما فکر نمی‌کنم که تغییر اساسی درروند هوش مصنوعی ایجاد کنند.»

منبع:

تازه ترین ها
تقویت
1404/04/11 - 18:27- آفریقا

تقویت امنیت سایبری در آفریقا با مشارکت کسپرسکی

شرکت‌های آکسیز و کسپرسکی برای تقویت امنیت سایبری در قاره آفریقا با یکدیگر مشارکت کردند.

نفوذ
1404/04/11 - 14:42- جرم سایبری

نفوذ هکرها به سیستم اطلاعاتی شرکت هواپیمایی استرالیایی کانتاس

شرکت هواپیمایی استرالیایی کانتاس اعلام کرد که هکرها به سیستم حاوی اطلاعات ۶ میلیون مشتری نفوذ کرده‌اند.

دادستان
1404/04/11 - 11:56- آمریکا

دادستان کل نیویورک به دنبال تقویت مقررات استیبل‌کوین‌ها در کنگره

لتیتیا جیمز، دادستان کل نیویورک، از کنگره آمریکا خواست تا قوانین نظارتی بر استیبل‌کوین‌ها را تشدید کند.