about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
ادعای
1403/12/06 - 20:15- تروریسم سایبری

ادعای مؤسسه صهیونیستی آلما درباره واحد ۳۰۰ سازمان جنگ الکترونیک؛ پروپاگاندایی برای توجیه تجاوزات سایبری رژیم

مؤسسه تحقیقاتی اسرائیلی آلما در مقاله‌ای ادعا کرد که برخی یگان‌های ایران از جمله واحد 300 درگیر کمک‌های نظامی برای احیای حزب‌الله هستند.

مقاله
1403/12/23 - 15:23- ایران

مقاله اندیشکده هندی درباره گروه هکری سایبر اونجرز

سایت هندی متخصص در زمینه سایبر به نام «TheSecMaster» مقاله‌ای جدید درمورد گروه هکری انتقام‌جویان سایبری منتشر کرد.

حمله
1404/01/16 - 14:04- جرم سایبری

حمله سایبری آژانس‌های اطلاعاتی آمریکا علیه کاربران موبایل

یک گزارش منتشرشده توسط یک ائتلاف صنعتی چینی، فعالیت‌های نظارتی و سرقت داده‌ای آژانس‌های اطلاعاتی آمریکا را که کاربران جهانی تلفن‌های هوشمند و سامانه‌های ارتباطی را هدف قرار می‌دهد، افشا کرد.

انتشار شده در تاریخ

هوش مصنوعی با قابلیت تجویز دارو

ابزارهای هوش مصنوعی GPT-3 به دلیل قابلیت بالای طراحی وب‌سایت‌ها، تجویز دارو و پاسخ به پرسش‌ها موجب بحث‌های بسیاری شده‌ است.

به گزارش کارگروه فناوری اطلاعات سایبربان ، GPT-3 مخفف واژه «تغییر مبدل قبل از آموزش مولد» است که نسل سوم این مدل آموزش ماشینی محسوب می‌شود. آموزش ماشینی هنگامی صورت می‌گیرد که رایانه‌ها، بدون این‌که برنامه‌ریزی شوند، بتوانند به‌طور خودکار از تجربیات خود بیاموزند.
مدل قدیمی‌تر این هوش مصنوعی، یعنی GPT-2، عنوان «خطرناک برای انتشار» را گرفته ‌بود چون توانایی تولید محتواهایی را داشت که از محتوای نوشته‌شده توسط انسان قابل‌تشخیص نبود.
درحالی‌که تعداد مؤلفه‌های  GPT-2 به ۱.۵ میلیارد می‌رسید، تعداد مؤلفه‌های GPT-3 به ۱۷۵ میلیارد پارامتر می‌رسد. مؤلفه، شاخصی است که در ابزار آموزش ماشین، ازنظر اطلاعات ماشین، امتیاز محسوب می‌شود و تغییر آن‌ها موجب تغییر در خروجی دستگاه خواهد شد.
هنگامی‌که GPT-2 «خیلی خطرناک» در نظر گرفته می‌شد، تنها ۱۲۴ میلیون مؤلفه داشت.
اکنون دسترسی محدودی به GPT-3 وجود دارد و به نظر می‌رسد که می‌توان توانایی‌های آن را در رسانه‌های اجتماعی به  نمایش گذاشت.
رمزگذاری به نام شریف شمین نشان داده که چطور هوش مصنوعی می‌تواند برای توصیف طراحی‌هایی مورداستفاده قرار گیرد که بعدها توسط هوش مصنوعی ساخته می‌شود؛ باوجود این‌که هوش مصنوعی برای تولید کد آموزش ندیده ‌است.
جردن سینگر، که طراح است، روند مشابهی را برای طراحی برنامک به وجود آورده است. درعین‌حال، قاسم مانیی، یک دانشجوی پزشکی در کینگز کالج لندن، نشان داد که چگونه یک برنامه می‌تواند با دسترسی به اطلاعات، پرسش‌های پزشکی را پاسخ دهد.
یک تصویر ناکامل را در نظر بگیرید. هوش مصنوعی می‌تواند برای کامل کردن خودکار این تصویر به کار گرفته شود؛ به‌این‌ترتیب که از ابزارهایش برای پیشنهاد پیکسل‌هایی که باید بر اساس داده‌ها در تصویر باشند استفاده می‌کند.
دلیلی که GPT-3 چنین قابلیتی دارد این است که بر اساس آرشیو اینترنتی به نام «خزیدن مشترک» (Common Crawl) آموزش‌دیده که شامل حدود یک تریلیون کلمه داده است.
این ابزار از OpenAI گرفته‌شده که یک آزمایش تحقیقات هوش مصنوعی است و دو بخش دارد: یک شرکت سودده به نام OpenAI LP، و سازمان مادر غیرانتفاعی آن به نام OpenAI Inc.
ماه گذشته، این محصول به بازار آمد اما هنوز کار زیادی لازم است تا مشخص شود این ابزار چطور باید مورداستفاده قرار گیرد.
جک کلارک، یکی از سیاست‌گذاران اصلی این گروه، ماه گذشته گفت: «ما باید آزمون‌وخطا کنیم تا متوجه شویم که آن‌ها چه‌کارهایی را می‌توانند و چه‌کارهایی را نمی‌توانند انجام دهند. اگر شما نتوانید توانایی‌های یک مدل را پیش‌بینی کنید، باید آن را به کار بیاندازید تا ببینید چه‌کاری می‌تواند انجام دهد. باید توجه داشت افرادی که خیلی بهتر از ما در فکرند که چطور می‌توان از آن‌ها استفاده مخرب کرد، بسیار بیشتر از ما هستند.»
این دستاورد ازنظر بصری هم چشم‌گیر است و برخی آن‌قدر پیش می‌روند که پیشنهاد می‌دهند این ابزار می‌تواند تهدید صنعت باشد.
هرچند که سام آلتمن، مدیرعامل OpenAI این نظرات را اغراق‌آمیز می‌داند: «این تعریف خوبی است اما هوش مصنوعی هنوز ضعف‌های جدی دارد و مرتکب اشتباهات احمقانه‌ای می‌شود. هوش مصنوعی قرار است دنیا را تغییر دهد، اما GPT-3 یک مدل ابتدایی آن است. ما هنوز باید خیلی چیزها کشف کنیم.»
علاوه بر این، پرسش‌هایی مطرح است درباره این‌که دستاوردهای GPT-3 دقیقاً چیست. کوین لکر، یک دانشمند رایانه که پیشتر با فیس‌بوک و گوگل کار می‌کرده، نشان داد درحالی‌که هوش مصنوعی می‌تواند به پرسش‌های «عمومی» پاسخ دهد، پاسخ‌ به پرسش‌هایی که برای انسان بدیهی است، در ماشین وجود ندارد و پرسش‌هایی که «یاوه» هستند، چنان پاسخ داده می‌شوند که گویی چنین نیستند.
ازجمله این پرسش‌ها این است که «پای من چند چشم دارد؟» که GPT-3 به آن پاسخ می‌دهد: «پای شما دو چشم دارد.» یا به این پرسش که «چند رنگین‌کمان می‌برد تا از هاوایی به هفده بپری؟» پاسخ می‌دهد: «دو رنگین‌کمان می‌برد تا از هاوایی به هفده بپری.»
پژوهشگران هوش مصنوعی به این ضعف اذعان دارند و می‌گویند که نمونه‌های GPT-3 در جمله‌های طولانی انسجام را از دست می‌دهند و گاهی جملات یا پاراگراف‌های بدون ترتیبی را بیان می‌کنند.
الگوریتم‌های آموزش ماشین، همچون این‌ها، ضرورتاً «فکر نمی‌کنند» یا حتی زبانی را که به آن پاسخ می‌دهند درک نمی‌کنند. این الگوریتم‌ها یک پایگاه داده عظیم را می‌سنجند و می‌توانند پاسخی بدهند که ممکن است درست باشد، اما نمی‌توانند مانند انسان به نتیجه‌گیری برسند.
گای دن بروک، استادیار علوم کامپیوتر دانشگاه UCLA دراین‌باره می‌گوید: «به نظر من بهترین مقایسه این است که کشوری غنی ازنظر نفت، قادر به ساخت آسمان‌خراش بسیار بلند باشد.»
او می‌افزاید: «به‌طور حتم مقدار زیادی پول و تلاش‌های مهندسی برای ساخت چنین ساختمانی صرف شده اما هیچ پیشرفت علمی وجود ندارد. هیچ‌کس نگران نیست چون کسانی که می‌خواهند پول زیادی در این زمینه خرج کنند، نمی‌توانند در ساخت ساختمان‌های بلند رقیب آمریکا شوند. من اطمینان دارم که افراد دانشگاهی و دیگر شرکت‌ها از استفاده از این مدل‌های زبانی در وظایف سطح پایین خشنود خواهند بود، اما فکر نمی‌کنم که تغییر اساسی درروند هوش مصنوعی ایجاد کنند.»

منبع:

تازه ترین ها
آمادگی
1404/02/18 - 15:34- آسیا

آمادگی اندک شرکت‌های مالزی برای مقابله با تهدیدات سایبری

شرکت امنیت سایبری سیسکو هشدار داد که تنها 3 درصد از شرکت‌های مالزیایی برای رویارویی با تهدیدات مبتنی بر هوش مصنوعی آمادگی دارند.

هک
1404/02/18 - 13:43- جرم سایبری

هک وب‌سایت‌های بریتانیا توسط هکرهای روسی

هکرهای طرفدار روسیه اعلام کردند که چندین وب‌سایت بریتانیایی از جمله شوراهای محلی را هدف قرار داده‌اند.

سازنده جاسوس‌افزار پگاسوس به پرداخت ۱۶۷ میلیون دلار خسارت به متا محکوم شد

جاسوس‌افزار پگاسوس بیش از ۱۴۰۰ کاربر واتس‌اپ را هدف قرار داده بود.