about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
ادعای
1403/12/06 - 20:15- تروریسم سایبری

ادعای مؤسسه صهیونیستی آلما درباره واحد ۳۰۰ سازمان جنگ الکترونیک؛ پروپاگاندایی برای توجیه تجاوزات سایبری رژیم

مؤسسه تحقیقاتی اسرائیلی آلما در مقاله‌ای ادعا کرد که برخی یگان‌های ایران از جمله واحد 300 درگیر کمک‌های نظامی برای احیای حزب‌الله هستند.

مقاله
1403/12/23 - 15:23- ایران

مقاله اندیشکده هندی درباره گروه هکری سایبر اونجرز

سایت هندی متخصص در زمینه سایبر به نام «TheSecMaster» مقاله‌ای جدید درمورد گروه هکری انتقام‌جویان سایبری منتشر کرد.

ادعای
1403/12/28 - 16:00- جنگ سایبری

ادعای حمله سایبری به ۱۱۶کشتی متعلق به وزارت نفت و شرکت کشتیرانی ملی ایران

🔹از بامداد امروز خبر حمله سایبری به ۱۱۶ کشتی متعلق به وزارت نفت و شرکت کشتیرانی ملی ایران توسط گروه لب دوختگان در برخی از خبرگزاری‌های معاند منتشر شد

مایکروسافت اعلام کرد که به تدریج دسترسی عمومی به تعدادی از ابزارهای تجزیه و تحلیل مبتنی بر هوش مصنوعی خود را متوقف خواهد کرد.

به گزارش کارگروه فناوری اطلاعات سایبربان ، به گفته این شرکت، ابزار شناسایی احساسات سوژه‌ها از طریق بررسی تصاویر و ویدیوها نیز از جمله قابلیت‌هایی است که امکان استفاده عمومی از آن مسدود خواهد شد. این ابزار و دیگر ابزارهای مشابه که قادر به تشخیص احساسات هستند، بارها مورد انتقاد کارشناسان قرار گرفته‌اند.  

به زعم کارشناسان این حوزه، برخلاف تصوری که شکل گرفته، حالات چهره در گروه‌های مختلف افراد متفاوت است و شناسایی آنها از طریق آنچه روی نمایشگرها نقش می‌بندد، امری غیرعلمی است.

لیزا فلدمن بارت، استاد روانشناسی دانشگاه نورث‌ایسترن که در سال ۲۰۱۹، پژوهشی را در خصوص تشخیص احساسات با کمک هوش مصنوعی انجام داده، در این رابطه گفت که اگرچه این ابزارها می‌توانند اخم را شناسایی کنند اما نمی‌توان از آن به عنوان خشم تعبیر کرد.

گفته می‌شود که این تصمیم در راستای سیاست‌های مرتبط با رعایت اصول اخلاقی در فناوری هوش مصنوعی مایکروسافت صورت گرفته. استانداردهای مرتبط با هوش مصنوعی این شرکت که در سال ۲۰۱۹ منتشر شد، بر موضوع مسئولیت‌پذیری اینکه چه کسی از این فناوری استفاده می‌کند و همچنین نظارت‌های انسانی بر نحوه به‌کارگیری از این ابزارها تاکید دارد.

بدین ترتیب و با این تغییرات، می‌توان گفت که مایکروسافت به زودی دسترسی به برخی از قابلیت‌های فناوری تشخیص خود موسوم به Azure Face را محدود و مابقی را متوقف خواهد کرد. با این حال، برخی از ویژگی‌ها همانند تار کردن صورت در عکس‌ها و ویدیوها که چندان مشکل‌ساز نیستند، همچنان در دسترس کاربران خواهند بود.  

مایکروسافت علاوه بر حذف دسترسی عمومی‌به ابزار تشخیص احساسات، از مسدود کردن قابلیت دیگر Azure Face خبر داد که قادر به شناسایی جنسیت، خنده، موی مصنوعی، مو و آرایش است.  

ناتاشا کرامپتون، از مدیران ارشد هوش مصنوعی مایکروسافت معتقد است کارشناسان در داخل و خارج از شرکت نبود اجماع علمی‌درباره معنا و مفهوم احساسات و همچنین نگرانی‌ها در خصوص نقض حریم خصوصی افراد را برجسته کرده‎‌اند.

به گفته مایکروسافت، از روز ۲۱ ژوئن، ارائه این ویژگی‌ها به مشتریان جدید را متوقف می‌کند، اما دسترسی مشتریان فعلی در ۳۰ ژوئن لغو خواهد شد. با این حال، مایکروسافت به عرضه این قابلیت‌ها حداقل در یکی از محصولات خود ادامه می‌دهد؛ اپلیکیشنی به نام Seeing AI که از فناوری بینش ماشینی برای توصیف جهان برای افرادی مبتلا به اختلالات بینایی بهره می‌برد.

سارا برد، مدیر محصولات Azure AI مایکروسافت می‌گوید ابزارهایی همانند تشخیص احساسات وقتی برای مواردی کنترل‌شده مورد استفاده قرار گیرند، ارزشمند هستند. این شرکت همچنین محدودیت‌هایی را برای قابلیت Custom Nerural Voice خود اعمال کرده است. این قابلیت به کاربران اجازه می‌دهد تا با توجه به فایل‌های صوتی ضبط شده از افراد، صوت‌هایی را با قابلیت هوش مصنوعی تولید کنند که این ابزار شبیه به دیپ‌فیک صوتی عمل می‌کند

تازه ترین ها
کاهش
1404/02/21 - 08:50- آمریکا

کاهش 5 درصدی نیروی کار شرکت سایبری کروداسترایک

کروداسترایک (CrowdStrike)، غول امنیت سایبری آمریکایی، از کاهش ۵ درصدی نیروی کار خود خبر داد.

هوش
1404/02/21 - 08:38- هوش مصنوعي

هوش مصنوعی پیام مقتول را به قاتلش رساند

با کمک هوش مصنوعی شبیه سازی از یک مرد فوت شده ساخته شد تا در دادگاهی در ایالت آریزونا آمریکا قاتل خود را مخاطب قرار دهد.

رقابت
1404/02/21 - 08:35- فیس بوک

رقابت جدید متا با ایکس

شرکت متا اعلام کرد نمایش آزمایشی تبلیغات ویدیویی در اپ Threads با حضور محدود تبلیغ‌دهندگان آغاز شده است.

مطالب مرتبط

در این بخش مطالبی که از نظر دسته بندی و تگ بندی مرتبط با محتوای جاری می باشند نمایش داده می‌شوند.