about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
استفاده
1404/05/18 - 08:57- تروریسم سایبری

استفاده از مایکروسافت آژور برای جاسوسی از فلسطینیان

رژیم صهیونیستی از مایکروسافت آژور برای جاسوسی از فلسطینیان، آماده‌سازی حملات هوایی مرگبار و سازماندهی عملیات‌های نظامی در غزه و کرانه باختری استفاده می‌کند.

تمرکز
1404/06/26 - 14:35- جنگ سایبری

تمرکز اسرائیل بر «پیجر» و جنگ الکترونیک در نبردهای آینده با ایران

مقامات رژیم صهیونیستی، طراحی عملیات‌های غافلگیر کننده ای همچون عملیات پیجرها برای جنگ آینده با ایران را ضروری می دانند.

مدل‌های زبانی بزرگ هر روز بهتر از دیروز رفتار انسان را تقلید می‌کنند و اکنون توانسته‌اند از عهده قبولی در آزمون مشهور تورینگ برآیند.

به گزارش کارگروه فناوری اطلاعات سایبربان ، مدل زبانی «GPT-4.5» توانست آزمون تورینگ را بدون اشتباه پشت سر بگذارد. در پژوهشی که نتایج آن در پایگاه داده «arXiv» منتشر شده است، «GPT-4.5» در یک آزمون سه طرفه تورینگ شرکت کرد و در کمال شگفتی در بیش از ۷۳ درصد موارد توانست مردم را قانع کند که انسان است.

این پژوهش هنوز داوری همتا «peer review» نشده است. دانشمندان حوزه هوش مصنوعی تعدادی از مدل‌های هوش مصنوعی متفاوت را در این پژوهش مورد بررسی قرار دادند.

پیش از این نیز گزارش شده بود که مدل زبانی «GPT-4» توانسته بود که آزمون دو طرفه تورینگ را پشت سر بگذارد اما این نخستین باری است که یک مدل زبانی بزرگ می‌تواند از عهده «بازی تقلید» با پیکربندی اصلی برآید.

در این پژوهش مدل زبانی «GPT-4.5» پیشتاز بود اما مدل زبانی کمپانی متا با نام «LLaMa-3.1» نیز در ۵۶ درصد موارد توانست شرکت‌کنندگان را قانع کند که انسان است.

ایده اصلی آزمون تورینگ درباره اثبات توانایی ماشین در اندیشیدن نیست بلکه تاکید آزمون بر توانایی تقلید موفق ماشین از انسان است. از این رو آزمون تورینگ به «بازی تقلید» شهرت دارد.

در آزمون اصلی تورینگ، شرکت‌کننده باید سوالاتی را از دو موجودیت، یکی انسان و دیگر کامپیوتر، بپرسد. در پی چندین پرسش و پاسخ، شرکت‌کننده باید تشخیص دهد که کدام موجودیت انسان و کدامیک کامپیوتر است. کامپیوتر یا سیستم هوش مصنوعی اکنون می‌تواند با تقلیدی شگفت‌انگیز خودش را جای انسان جا بزند.

هنگامی که از شرکت‌کنندگان در آزمون پرسیدند که چرا یک موجودیت را هوش مصنوعی یا انسان انتخاب کردند،‌ آن‌ها فاکتورهایی چون سبک صحبت‌ کردن، جریان گفتگو و عواملی چون شخصیت را مد نظر داشتند.

این پژوهش نقطه عطفی تازه برای مدل‌های زبانی بزرگ است. البته برای نتیجه‌گیری باید احتیاط کرد چرا که از سر گذراندن «بازی تقلید» نشان‌دهنده هوش واقعی انسان نیست اما نشان می‌دهد که سیستم‌های هوش مصنوعی جدید تا چه اندازه در تقلید از انسان دقیق هستند.

روی تاریک این توانایی را می‌توان در سوءاستفاده از احساسات و مهندسی اجتماعی با تقلید رفتارهای انسان دید که می‌تواند زنگ خطر را برای بسیاری به صدا درآورد.

هشدار بزرگ اینجاست: «برخی از بدترین آسیب‌ها زمانی رخ می‌دهد که مردم متوجه نیستند که با یک مدل زبانی طرف هستند نه یک انسان.»

موضوع:

تازه ترین ها
دانشگاه
1404/08/11 - 15:02- آمریکا

دانشگاه پنسیلوانیا در حال بررسی ایمیل توهین‌آمیز ارسالی

دانشگاه پنسیلوانیا در حال تحقیق درباره ایمیلی است که عصر جمعه برای هزاران نفر از دانشجویان فعلی و پیشین ارسال شده و حاوی زبان توهین‌آمیز و تهدید به افشای داده‌ها بوده است.

حمله
1404/08/11 - 14:51- جرم سایبری

حمله هکرهای کلاود اطلس به بخش کشاورزی روسیه

یک شرکت امنیت سایبری مستقر در روسیه از کشف یک کارزار جدید جاسوسی سایبری توسط گروه دولتی کلاود اطلس خبر داده است.

نفوذ
1404/08/11 - 14:40- جنگ سایبری

نفوذ هکرهای روسی به نهادهای اوکراینی با ابزارهای داخلی سیستم

پژوهشگران اعلام کرده‌اند که هکرهای مظنون به ارتباط با روسیه، در تابستان امسال با استفاده از ابزارهای مدیریتی عادی، به شبکه‌های اوکراینی نفوذ کرده‌اند تا داده‌ها را سرقت کرده و بدون شناسایی باقی بمانند.