سایت انفجار هات بت : جلوگیری از از دست دادن داده ها: هوش مصنوعی در مقابل بینش انسان


سایت انفجار هات بت hot bet

با پیچیده تر شدن مجرمان اینترنتی ، و امنیت ابزارهای دیجیتال برای کاهش هر چه بیشتر خطرات ، سرعت امنیت سایبری همچنان در حال پیشرفت است.

در سال 2020 فرصت های بیشتری برای حمله به هکرها فراهم شد ، به عنوان مثال ، با استفاده از کلاهبرداری های ایمیل فیشینگ مانند ادعای ارائه دهندگان PPE معتبر ، یا از HMRC برای دست زدن به قربانیان بی خبر. اخیراً دیده ایم که چگونه فیشرها اکنون از استفاده واکسن برای فریب مردم برای پرداخت هزینه واکسن های جعلی استفاده می کنند.

هوش مصنوعی و یادگیری ماشینی به عنوان فن آوری های نوآورانه برای کمک به خنثی کردن بهره برداری های در حال پیشرفت و بخش مهمی از هرگونه زرادخانه امنیت سایبری اعلام شده است. اما هوش مصنوعی لزوماً ابزار مناسبی برای هر شغلی نیست. بشر هنوز می تواند تصمیم گیری پیچیده ای را به مراتب بهتر از ماشین آلات انجام دهد ، خصوصاً وقتی که تعیین می کند چه داده هایی برای ارسال به خارج از سازمان امن است. به همین ترتیب ، اتکا به هوش مصنوعی برای این تصمیم گیری می تواند باعث بروز مشکلاتی شود ، یا اگر بدتر از آن ، هوش مصنوعی به اندازه کافی بالغ نباشد و اطلاعات حساس و غیر حساس را درک کند ، منجر به نشت داده می شود. بنابراین کجا می تواند هوش مصنوعی نقشی موثر در استراتژی دفاع سایبری داشته باشد و در کجا می تواند چالش هایی را برای کاربر ایجاد کند؟ الیور پاترسون ، کارشناس محصولات آموزش آگاهی از امنیت VIPRE و SafeSend ، توضیح می دهد.

شباهت های نقطه ای

یكی از چالشهای اصلی هوش مصنوعی برای كاهش خطر نقض داخلی غیرمترقبه این است كه بتوانید شباهتهای بین اسناد را تشخیص دهید یا بدانید كه ارسال سند خاص برای شخص خاصی مشكل ندارد. به نظر می رسد الگوهای شرکتی مانند فاکتورها هر بار که ارسال می شوند بسیار شبیه به هم هستند ، با تفاوت های جزئی که به طور معمول ، یادگیری ماشین و هوش مصنوعی در انتخاب آنها ناموفق است. این فناوری با وجود تفاوت بسیار کم در تعداد یا کلمات استفاده شده ، سند را مانند معمول ثبت می کند و به طور معمول به کاربر امکان ارسال پیوست را می دهد. در حالی که در این مثال ، یک انسان می داند کدام فاکتور یا قیمت فروش باید برای کدام مشتری یا مشتری ارسال شود.

استقرار هوش مصنوعی برای این منظور در یک شرکت بزرگ احتمالاً فقط ارسال بخش کوچکی از ایمیل ها را متوقف می کند. اما حتی وقتی هوش مصنوعی مسئله ای را برای پرچم گذاری تشخیص دهد ، تیم مدیریت را به جای کاربر هشدار می دهد. این بدان دلیل است که اگر هوش مصنوعی معتقد است که ایمیل نباید ارسال شود ، به هیچ وجه نمی خواهد کاربر آن را نادیده بگیرد و ایمیل را ارسال کند. بنابراین این می تواند به یک بار اضافی برای تیم سرپرست تبدیل شود و همزمان باعث ناامیدی کاربر شود.

ذخیره اطلاعات

هوش مصنوعی همچنین می تواند در هنگام استفاده از این استراتژی دفاعی بسیار پرمصرف باشد. این امر به این دلیل است که در این تنظیمات ، هر ایمیل باید به یک سیستم خارجی ، خارج از سایت ارسال شود تا تجزیه و تحلیل شود. به خصوص برای صنایعی که با اطلاعات بسیار حساس سروکار دارند ، این واقعیت که داده های آنها برای اسکن شدن به جای دیگری می رود نگران کننده است. علاوه بر این ، با یادگیری ماشینی ، این فناوری مجبور است بخشی از این اطلاعات حساس را حفظ کند تا بتواند قوانینی از آن بیاموزد و بارها و بارها از آنها استفاده کند ، تا دفعه بعد تصمیم دقیق بگیرد. با توجه به ویژگی یادگیری ماشینی این نوع راه حل ها ، آنها نمی توانند مستقیم از قفسه کار کنند ، اما یک مرحله یادگیری دارند که چند ماه طول می کشد ، بنابراین نمی توانند کنترل های امنیتی فوری را ارائه دهند.

قابل درک است که بسیاری از شرکت ها ، به ویژه در سطح شرکت ، از ارسال اطلاعات حساس خود به جای دیگر راحت نیستند. آخرین چیزی که آنها می خواهند ذخیره شدن در خارج از سایت است ، حتی اگر فقط برای تجزیه و تحلیل باشد. بنابراین هوش مصنوعی عنصر غیر ضروری و ناخواسته ای را به مواد حساس اضافه می کند.

نقش هوش مصنوعی در امنیت سایبری

هوش مصنوعی نقشی اساسی در بسیاری از عناصر استراتژی دفاع سایبری یک کسب و کار دارد. به عنوان مثال ، فناوری آنتی ویروس از یک سیاست سخت گیرانه "بله یا خیر" در مورد احتمال مخرب بودن پرونده استفاده می کند یا خیر. این موضوع ذهنی نیست ، از طریق سطح دقیق پارامترها ، چیزی یا تهدید محسوب می شود ، یا نه. هوش مصنوعی می تواند به سرعت تعیین کند که آیا دستگاه خراب می شود ، دستگاه را قفل می کند ، شبکه را از بین می برد یا خیر یا مجاز است. توجه به این نکته مهم است که VIPRE از AI و ML به عنوان م keyلفه های کلیدی در سرویس های امنیتی ایمیل و نقطه پایانی خود استفاده می کند ، به عنوان مثال به عنوان بخشی از راه حل ایمنی ایمیل ضمیمه sandboxing که در آن یک پیوست ایمیل با هوش مصنوعی در محیطی جدا از مشتری و باز می شود. شبکه.

بنابراین اگرچه هوش مصنوعی نمی تواند یک روش ایده آل برای جلوگیری از نشت تصادفی داده ها از طریق ایمیل باشد ، اما نقش مهمی در زمینه های خاص مانند شناسایی ویروس ، جعبه شن و تجزیه و تحلیل تهدید دارد.

نتیجه

با اعتماد زیاد به ایمیل در شیوه های تجاری ، نشت داده های تصادفی یک خطر اجتناب ناپذیر است. پیامدهای تأثیر اعتبار ، نقض انطباق و خسارت مالی مرتبط می تواند ویرانگر باشد. فرهنگ آگاهی سایبری با آموزش مداوم و فناوری صحیح نیز ضروری است.

ارائه یک فناوری که به کاربران هشدار می دهد در صورت احتمال بالقوه مرتکب اشتباه می شوند - اعزام ایمیل به شخص اشتباه یا اشتراک اطلاعات حساس درباره شرکت ، مشتریان یا کارکنان آن - نه تنها خطاها را به حداقل می رساند ، بلکه به ایجاد ایمیل بهتر نیز کمک می کند. فرهنگ. اشتباهات به راحتی در یک محیط کار سریع و تحت فشار انجام می شود - به خصوص با افزایش کار در خانه که بررسی فوری همتایان را که بسیاری از آنها عادت کرده اند فراهم نمی کند.

اما به جای سپردن این مسئولیت به هوش مصنوعی ، این نوع فناوری ، همراه با بینش انسانی آموزش دیده ، می تواند کاربران را قادر به تصمیم گیری آگاهانه تری در مورد ماهیت و قانونی بودن ایمیل خود قبل از اقدام به آن کند. در نهایت ، حمایت از سازمان ها برای کاهش این عنصر پر خطر کسب و کار ، و تقویت اعتبارنامه ها از طریق فرهنگ آگاهی سایبری.

بازی انفجار هات بت
بازی انفجار hotbet
سایت بازی انفجار شرط بندی

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *