پېژندنه
جنریټیو AI - مصنوعي استخبارات چې د نوي مینځپانګې یا وړاندوینې رامینځته کولو وړتیا لري - د سایبر امنیت کې د بدلون کونکي ځواک په توګه راپورته کیږي. د OpenAI GPT-4 په څیر وسیلو د پیچلو معلوماتو تحلیل کولو او د انسان په څیر متن تولید کولو وړتیا ښودلې ، د سایبر ګواښونو پروړاندې د دفاع لپاره نوي طریقې فعالوي. د سایبر امنیت مسلکي او د سوداګرۍ پریکړه کونکي په صنعتونو کې دا څیړي چې څنګه جنریټیو AI کولی شي د پرمختللي بریدونو پروړاندې دفاع پیاوړې کړي. له مالي او روغتیا پاملرنې څخه تر پرچون او حکومت پورې ، په هر سکتور کې سازمانونه د پیچلو فشینګ هڅو ، مالویر او نورو ګواښونو سره مخ دي چې جنریټیو AI ممکن ورسره مقابله کې مرسته وکړي. پدې سپینه مقاله کې ، موږ معاینه کوو چې څنګه جنریټیو AI په سایبر امنیت کې کارول کیدی شي ، د ریښتیني نړۍ غوښتنلیکونه ، راتلونکي امکانات او د منلو لپاره مهم ملاحظات روښانه کوي.
جنریټیو AI د دودیز تحلیلي AI څخه توپیر لري نه یوازې د نمونو کشف کولو سره بلکه رامینځته کولو - ایا د دفاع روزنې لپاره د بریدونو تقلید کول یا د پیچلي امنیتي معلوماتو لپاره د طبیعي ژبې توضیحات تولید کول. دا دوه ګونی وړتیا دا دوه اړخیزه توره جوړوي: دا قوي نوي دفاعي وسایل وړاندې کوي، مګر د ګواښ لوبغاړي هم کولی شي له هغې څخه ګټه پورته کړي. لاندې برخې د سایبر امنیت کې د جنریټیو AI لپاره د کارولو پراخه قضیې سپړنه کوي، د فشینګ کشف اتومات کولو څخه د پیښې غبرګون لوړولو پورې. موږ د هغو ګټو په اړه هم بحث کوو چې دا AI نوښتونه ژمنه کوي، د خطرونو سره یوځای (لکه د AI "هیلوسینیشن" یا د مخالف ناوړه ګټه اخیستنې) چې سازمانونه یې باید اداره کړي. په پای کې، موږ عملي لارې چارې چمتو کوو ترڅو سوداګرۍ سره مرسته وکړي چې د جنریټیو AI ارزونه وکړي او په مسؤلیت سره د دوی د سایبر امنیت ستراتیژیو کې مدغم کړي.
په سایبر امنیت کې تولیدي AI: یوه کتنه
په سایبر امنیت کې جنریټیو AI د AI ماډلونو ته اشاره کوي - ډیری وختونه د ژبې لوی ماډلونه یا نور عصبي شبکې - چې کولی شي بصیرتونه، سپارښتنې، کوډ، یا حتی مصنوعي معلومات تولید کړي ترڅو د امنیت دندو کې مرسته وکړي. د خالص وړاندوینې ماډلونو برعکس، جنریټیو AI کولی شي سناریوګانې تقلید کړي او د انسان لوستلو وړ محصولات (د مثال په توګه راپورونه، خبرتیاوې، یا حتی ناوړه کوډ نمونې) د دې روزنې معلوماتو پراساس تولید کړي. دا وړتیا د پخوا په پرتله په ډیرو متحرک لارو کې د ګواښونو وړاندوینې، کشف او ځواب ورکولو په سایبر امنیت کې جنریټیو AI څه شی دی؟ - پالو الټو شبکې ). د مثال په توګه، جنریټیو ماډلونه کولی شي پراخه لاګونه یا د ګواښ استخباراتي زیرمې تحلیل کړي او یو لنډ لنډیز یا وړاندیز شوی عمل تولید کړي، چې تقریبا د امنیتي ټیمونو لپاره د AI "مرستندوی" په څیر کار کوي.
د سایبر دفاع لپاره د جنراتور مصنوعي ذهانت لومړني تطبیقونه ژمنې ښودلې دي. په ۲۰۲۳ کې، مایکروسافټ د امنیت کوپائلټ ، چې د امنیت شنونکو لپاره د GPT-4 ځواکمن مرستیال دی، ترڅو د سرغړونو پیژندلو او د مایکروسافټ لخوا هره ورځ د ۶۵ ټریلیون سیګنالونو پروسس کولو کې مرسته وکړي ( د مایکروسافټ امنیت کوپائلټ د سایبر امنیت لپاره د GPT-4 AI نوی مرستیال دی | دی ورج ). شنونکي کولی شي دا سیسټم په طبیعي ژبه کې وپلټي (د مثال په توګه "په تیرو ۲۴ ساعتونو کې د ټولو امنیتي پیښو لنډیز" )، او کوپائلټ به یو ګټور داستان لنډیز تولید کړي. په ورته ډول، د ګوګل د ګواښ استخباراتو AI جیمني په نوم یو جنراتور ماډل کاروي ترڅو د ګوګل د پراخ ګواښ انټل ډیټابیس له لارې د خبرو اترو لټون فعال کړي، په چټکۍ سره شکمن کوډ تحلیل کړي او د مالویر ښکارونکو سره د مرستې لپاره موندنې لنډیز کړي ( څنګه جنراتور مصنوعي ذهانت په سایبر امنیت کې کارول کیدی شي؟ ۱۰ ریښتینې نړۍ مثالونه ). دا مثالونه د دې وړتیا څرګندوي: جنراتور مصنوعي ذهانت کولی شي پیچلي، لوی پیمانه سایبر امنیت معلومات هضم کړي او په لاسرسي وړ بڼه کې بصیرتونه وړاندې کړي، د پریکړې کولو ګړندی کول.
په ورته وخت کې، تولیدي AI کولی شي خورا حقیقي جعلي مینځپانګه رامینځته کړي، کوم چې د سمولیشن او روزنې لپاره یو نعمت دی (او له بده مرغه، د بریدګرو لپاره چې ټولنیز انجینرۍ جوړوي). لکه څنګه چې موږ د ځانګړو کارولو قضیو ته ځو، موږ به وګورو چې د تولیدي AI وړتیا د ترکیب او تحلیل کولو د دې ډیری سایبر امنیت غوښتنلیکونو ملاتړ کوي. لاندې، موږ د کارولو کلیدي قضیو ته ګورو، د فشینګ مخنیوي څخه تر خوندي سافټویر پراختیا پورې هرڅه پوښي، د مثالونو سره چې هر یو څنګه په صنعتونو کې پلي کیږي.
په سایبر امنیت کې د جنریټیو AI کلیدي غوښتنلیکونه
شکل: په سایبر امنیت کې د تولیدي AI لپاره د کارولو کلیدي قضیې د امنیتي ټیمونو لپاره د AI شریک پیلوټان، د کوډ زیان مننې تحلیل، د تطبیق وړ ګواښ کشف، د صفر ورځې برید سمولیشن، د بایومیټریک امنیت ښه والی، او د فشینګ کشف شامل دي ( په سایبر امنیت کې د تولیدي AI لپاره د کارولو 6 قضیې [+ مثالونه] ).
د فشینګ کشف او مخنیوی
فشینګ لاهم یو له خورا پراخه سایبري ګواښونو څخه دی، چې کاروونکي د ناوړه لینکونو کلیک کولو یا د اسنادو افشا کولو لپاره دوکه کوي. جنریټیو AI د فشینګ هڅو کشف کولو او د بریالي بریدونو مخنیوي لپاره د کاروونکو روزنې پیاوړي کولو لپاره ځای په ځای کیږي. په دفاعي اړخ کې، د AI ماډلونه کولی شي د بریښنالیک مینځپانګې او لیږونکي چلند تحلیل کړي ترڅو د فشینګ فرعي نښې ومومي چې د قانون پراساس فلټرونه ممکن له لاسه ورکړي. د قانوني او جعلي بریښنالیکونو لوی ډیټاسیټونو څخه زده کړه کولو سره، یو جنریټیو ماډل کولی شي په ټون، کلمو، یا شرایطو کې بې نظمۍ په نښه کړي چې درغلۍ په ګوته کوي - حتی کله چې ګرامر او املا نور دا نه ورکوي. په حقیقت کې، د پالو الټو شبکې څیړونکي یادونه کوي چې جنریټیو AI کولی شي "د فشینګ بریښنالیکونو فرعي نښې وپیژني چې ممکن په بل ډول کشف نشي،" سازمانونو سره مرسته کوي چې د سکیمرانو څخه یو ګام مخکې پاتې شي ( په سایبر امنیت کې جنریټیو AI څه شی دی؟ - پالو الټو شبکې ).
د فشینګ بریدونو تقلید لپاره د جنراتور AI څخه هم کار اخلي . د مثال په توګه، Ironscales د GPT لخوا پرمخ وړل شوي فشینګ سمولیشن وسیله معرفي کړه چې په اتوماتيک ډول د یوې ادارې کارمندانو لپاره جوړ شوي جعلي فشینګ بریښنالیکونه تولیدوي ( په سایبر امنیت کې د جنراتور AI څنګه کارول کیدی شي؟ 10 ریښتینې نړۍ مثالونه ). دا د AI لخوا جوړ شوي بریښنالیکونه د برید کونکي وروستي تاکتیکونه منعکس کوي، کارمندانو ته د فشینګ مینځپانګې په موندلو کې ریښتیني تمرین ورکوي. دا ډول شخصي روزنه خورا مهمه ده ځکه چې برید کونکي پخپله AI غوره کوي ترڅو ډیر قانع کونکي لالچونه رامینځته کړي. د پام وړ، پداسې حال کې چې جنراتور AI کولی شي ډیر پالش شوي فشینګ پیغامونه تولید کړي (د مات شوي انګلیسي په اسانۍ سره لیدل شوي ورځې تیرې شوې)، مدافعینو وموندله چې AI د ماتې وړ نه دی. په 2024 کې، د IBM امنیت څیړونکو د انسان لخوا لیکل شوي فشینګ بریښنالیکونو د AI لخوا رامینځته شوي بریښنالیکونو سره پرتله کولو لپاره یوه تجربه ترسره کړه، او "په حیرانتیا سره، د AI لخوا رامینځته شوي بریښنالیکونه لاهم د دوی د سم ګرامر سره سره کشف کول اسانه وو" ( په سایبر امنیت کې د جنراتور AI لپاره 6 د کارولو قضیې [+ مثالونه] ). دا وړاندیز کوي چې د انسان وجدان د مصنوعي ذهانت په مرسته کشف سره یوځای کولی شي لاهم د مصنوعي ذهانت په لیکلو شویو درغلۍ کې فرعي تضادونه یا میټاډاټا سیګنالونه وپیژني.
د اتوماتیک ځوابونو یا فلټرونو رامینځته کولو لپاره کارول کیدی شي چې شکمن بریښنالیکونه ازموي. د مثال په توګه، د AI سیسټم کولی شي د لیږونکي مشروعیت تاییدولو لپاره د ځینې پوښتنو سره بریښنالیک ته ځواب ووایی یا د LLM څخه کار واخلي ترڅو د بریښنالیک لینکونه او ضمیمې په سینڈ باکس کې تحلیل کړي، بیا هر ډول ناوړه اراده لنډیز کړي. د NVIDIA امنیتي پلیټ فارم مورفیوس پدې ډګر کې د AI ځواک ښیې - دا د بریښنالیکونو ګړندي تحلیل او طبقه بندي کولو لپاره د جنریټیو NLP ماډلونه کاروي، او دا وموندل شوه چې د دودیزو امنیتي وسیلو په پرتله د سپیر فشینګ بریښنالیک کشف 21٪ ( په سایبر امنیت کې د جنریټیو AI لپاره 6 کارول قضیې [+ مثالونه] ). مورفیوس حتی د غیر معمولي چلند کشف کولو لپاره د کارونکي اړیکو نمونې پروفایل کوي (لکه یو کارونکی ناڅاپه ډیری بهرني پتې بریښنالیک کوي)، کوم چې کولی شي د فشینګ بریښنالیکونو لیږلو لپاره جوړ شوی حساب په ګوته کړي.
په عمل کې، په ټولو صنعتونو کې شرکتونه د ټولنیزو انجینرۍ بریدونو لپاره د بریښنالیک او ویب ټرافیک فلټر کولو لپاره په مصنوعي ذهانت باور پیل کوي. د مثال په توګه، مالي شرکتونه د جعلي هڅو لپاره د اړیکو سکین کولو لپاره تولیدي مصنوعي ذهانت کاروي چې کولی شي د تار درغلۍ لامل شي، پداسې حال کې چې د روغتیا پاملرنې چمتو کونکي مصنوعي ذهانت کاروي ترڅو د ناروغانو معلومات د فشینګ پورې اړوند سرغړونو څخه خوندي کړي. د حقیقي فشینګ سناریوګانو رامینځته کولو او د ناوړه پیغامونو د نښو په پیژندلو سره، تولیدي مصنوعي ذهانت د فشینګ مخنیوي ستراتیژیو ته یو پیاوړی طبقه اضافه کوي. پایله: مصنوعي ذهانت کولی شي د فشینګ بریدونو ګړندي او ډیر دقیق کشف او بې وسلې کولو کې مرسته وکړي ، حتی که برید کونکي د خپلې لوبې لوړولو لپاره ورته ټیکنالوژي کاروي.
د مالویر کشف او د ګواښ تحلیل
عصري مالویر په دوامداره توګه وده کوي - برید کونکي د انټي ویروس لاسلیکونو څخه د تیریدو لپاره نوي ډولونه یا مبهم کوډ تولیدوي. جنریټیو AI د مالویر کشف کولو او د هغې د چلند پوهیدو لپاره نوي تخنیکونه وړاندې کوي. یوه لاره د مالویر "بد دوه ګونی" رامینځته کولو : د امنیت څیړونکي کولی شي د پیژندل شوي مالویر نمونې ته د تولیدي ماډل ته تغذیه کړي ترڅو د دې مالویر ډیری بدل شوي ډولونه رامینځته کړي. د دې کولو سره، دوی په مؤثره توګه هغه بدلونونه اټکل کوي چې برید کونکی یې کولی شي وکړي. دا AI تولید شوي ډولونه بیا د انټي ویروس او د مداخلې کشف سیسټمونو روزنې لپاره کارول کیدی شي، ترڅو حتی د مالویر تعدیل شوي نسخې په ځنګل کې وپیژندل شي ( په سایبر امنیت کې د جنریټیو AI لپاره 6 کارول قضیې [+ مثالونه] ). دا فعاله ستراتیژي د هغه دورې ماتولو کې مرسته کوي چیرې چې هیکران د کشف څخه د تیښتې لپاره خپل مالویر یو څه بدلوي او مدافعین باید هر ځل د نوي لاسلیکونو لیکلو لپاره هڅه وکړي. لکه څنګه چې په یوه صنعت پوډکاسټ کې یادونه شوې، د امنیت متخصصین اوس د جنریټیو AI کاروي ترڅو "د شبکې ترافیک سمول او ناوړه پیلوډونه رامینځته کړي چې پیچلي بریدونه تقلید کوي"، د یوې بیلګې پرځای د ګواښونو ټولې کورنۍ پروړاندې د دوی دفاع فشار ازموینه کوي. دې تطابقي ګواښ کشف کول پدې معنی دي چې امنیتي وسایل د پولیمورفیک مالویر په وړاندې ډیر مقاومت لري چې په بل ډول به له منځه لاړ شي.
د کشف هاخوا، جنراتي AI د مالویر تحلیل او ریورس انجینرۍ ، کوم چې په دودیز ډول د ګواښ شنونکو لپاره د کار سخت کارونه دي. د لویو ژبو ماډلونو ته دنده سپارل کیدی شي چې شکمن کوډ یا سکریپټونه معاینه کړي او په ساده ژبه کې تشریح کړي چې کوډ څه کولو لپاره دی. د ریښتینې نړۍ مثال د ویروس ټوټل کوډ انسایټ ، د ګوګل د ویروس ټوټل لخوا یو ځانګړتیا چې د تولیدي AI ماډل (ګوګل د Sec-PaLM) څخه ګټه پورته کوي ترڅو د احتمالي ناوړه کوډ طبیعي ژبې لنډیز تولید کړي ( په سایبر امنیت کې د جنراتي AI څنګه کارول کیدی شي؟ 10 ریښتینې نړۍ مثالونه ). دا په اصل کې "د امنیت کوډ کولو لپاره وقف شوی د ChatGPT یو ډول دی،" د AI مالویر شنونکي په توګه کار کوي چې 24/7 کار کوي ترڅو انساني شنونکو سره د ګواښونو په پوهیدو کې مرسته وکړي ( په سایبر امنیت کې د جنراتي AI لپاره 6 کارول قضیې [+ مثالونه] ). د ناپیژندل شوي سکریپټ یا بائنری کوډ په اړه د غور کولو پرځای، د امنیت ټیم غړی کولی شي د AI څخه سمدستي توضیحات ترلاسه کړي - د مثال په توګه، "دا سکریپټ هڅه کوي د XYZ سرور څخه فایل ډاونلوډ کړي او بیا د سیسټم تنظیمات بدل کړي، کوم چې د مالویر چلند نښه ده." دا په ډراماتیک ډول د پیښو غبرګون ګړندی کوي، ځکه چې شنونکي کولی شي نوي مالویر د پخوا په پرتله ګړندي طبقه بندي او درک کړي.
د لویو ډیټاسیټونو کې د مالویر په نښه کولو لپاره هم کارول کیږي . دودیز انټي ویروس انجنونه د پیژندل شوي لاسلیکونو لپاره فایلونه سکین کوي، مګر یو جنریټیو ماډل کولی شي د فایل ځانګړتیاوې ارزونه وکړي او حتی وړاندوینه وکړي چې ایا دا د زده شوي نمونو پراساس ناوړه ده. د ملیاردونو فایلونو (ناوړه او بې نظیر) ځانګړتیاو تحلیل کولو سره، یو AI ممکن ناوړه اراده ونیسي چیرې چې هیڅ څرګند لاسلیک شتون نلري. د مثال په توګه، یو جنریټیو ماډل کولی شي یو اجرا کیدونکی د شکمن په توګه بیرغ کړي ځکه چې د هغې د چلند پروفایل "ښکاري" د رینسم ویئر یو لږ توپیر په څیر چې د روزنې پرمهال یې لیدلی و، که څه هم بائنری نوی دی. دا د چلند پر بنسټ کشف د ناول یا صفر ورځې مالویر سره د مبارزې کې مرسته کوي. د ګوګل د ګواښ استخباراتو AI (د کرونیکل/مینډینټ برخه) د راپور له مخې خپل جنریټیو ماډل د احتمالي ناوړه کوډ تحلیل کولو لپاره کاروي او "په ډیر مؤثره او مؤثره توګه د مالویر او نورو ډولونو ګواښونو سره مبارزه کې د امنیتي مسلکیانو سره مرسته کوي." ( څنګه جنریټیو AI په سایبر امنیت کې کارول کیدی شي؟ 10 د ریښتینې نړۍ مثالونه ).
له بلې خوا، موږ باید دا ومنو چې بریدګر کولی شي دلته هم جنراتي AI وکاروي - ترڅو په اتوماتيک ډول مالویر رامینځته کړي چې ځان تطابق کوي. په حقیقت کې، امنیتي متخصصین خبرداری ورکوي چې جنراتي AI کولی شي د سایبر مجرمینو سره مرسته وکړي چې مالویر رامینځته کړي چې کشف کول یې ګران دي ( په سایبر امنیت کې جنراتي AI څه شی دی؟ - پالو الټو شبکې ). د AI ماډل ته لارښوونه کیدی شي چې د مالویر یوه ټوټه په مکرر ډول مورف کړي (د هغې د فایل جوړښت، د کوډ کولو میتودونه، او نور بدل کړي) تر هغه چې دا د ټولو پیژندل شوي انټي ویروس چکونو څخه ډډه وکړي. دا مخالف کارول یوه مخ په زیاتیدونکي اندیښنه ده (کله ناکله د "AI-powered malware" یا polymorphic malware په توګه د خدمت په توګه ویل کیږي). موږ به وروسته د دې خطرونو په اړه بحث وکړو، مګر دا ټینګار کوي چې جنراتي AI د دې پیشو او موږک لوبې کې یوه وسیله ده چې د مدافعینو او برید کونکو دواړو لخوا کارول کیږي.
په ټولیز ډول، تولیدي AI د مالویر دفاع لوړوي چې امنیتي ټیمونو ته د برید کونکي په څیر فکر کولو - په کور دننه نوي ګواښونه او حلونه رامینځته کوي. که دا د کشف نرخونو ښه کولو لپاره مصنوعي مالویر تولید کړي یا په شبکو کې موندل شوي اصلي مالویر تشریح او ساتلو لپاره د AI کارول وي، دا تخنیکونه په ټولو صنعتونو کې پلي کیږي. یو بانک ممکن د AI لخوا پرمخ وړل شوي مالویر تحلیل وکاروي ترڅو په سپریډ شیټ کې شکمن میکرو په چټکۍ سره تحلیل کړي، پداسې حال کې چې یو تولیدي شرکت ممکن په AI تکیه وکړي ترڅو مالویر کشف کړي چې صنعتي کنټرول سیسټمونه په نښه کوي. د تولیدي AI سره د دودیز مالویر تحلیل زیاتولو سره، سازمانونه کولی شي د مالویر کمپاینونو ته د پخوا په پرتله ګړندي او ډیر فعال ځواب ووایی.
د ګواښ استخبارات او اتومات تحلیل
هره ورځ، سازمانونه د ګواښ استخباراتي معلوماتو سره بمبار کیږي - د نوي کشف شوي جوړجاړي شاخصونو (IOCs) فیډونو څخه نیولې تر د راڅرګندیدونکي هیکر تاکتیکونو په اړه د شنونکو راپورونو پورې. د امنیتي ټیمونو لپاره ننګونه د معلوماتو د دې سیلاب له لارې لټون کول او د عمل وړ بصیرت استخراج کول دي. تولیدي AI د ګواښ استخباراتي تحلیل او مصرف اتومات کولو . د لسګونو راپورونو یا ډیټابیس ننوتلو په لاسي ډول لوستلو پرځای، شنونکي کولی شي AI وکاروي ترڅو د ماشین سرعت سره د ګواښ استخباراتي لنډیز او متناسب کړي.
یوه مشخصه بیلګه د ګوګل د ګواښ استخباراتو سویټ دی، کوم چې د ګوګل د ګواښ معلوماتو سره د مینډینټ او ویروس ټوټل څخه د تولیدي AI (جیمني ماډل) مدغم کوي. دا AI "د ګوګل د ګواښ استخباراتو پراخه زیرمه کې د خبرو اترو لټون" ، کاروونکو ته اجازه ورکوي چې د ګواښونو په اړه طبیعي پوښتنې وکړي او تحلیلي ځوابونه ترلاسه کړي ( په سایبر امنیت کې د جنریټیو AI څنګه کارول کیدی شي؟ 10 ریښتیني نړۍ مثالونه ). د مثال په توګه، یو شنونکی کولی شي پوښتنه وکړي، "ایا موږ د ګواښ ګروپ X پورې اړوند کوم مالویر لیدلی چې زموږ صنعت په نښه کوي؟" او AI به اړونده معلومات راوباسي، شاید یادونه وکړي چې "هو، د ګواښ ګروپ X تیره میاشت د مالویر Y په کارولو سره د فشینګ کمپاین سره تړاو درلود" ، د دې مالویر چلند لنډیز سره. دا په ډراماتیک ډول د بصیرتونو راټولولو وخت کموي چې په بل ډول به د ډیری وسیلو پوښتنې کولو یا اوږد راپورونو لوستلو ته اړتیا ولري.
جنریټیو AI کولی شي د ګواښ رجحانات هم سره اړیکه ونیسي او لنډیز یې کړي . دا ممکن د زرګونو امنیتي بلاګ پوسټونو، سرغړونو خبرونو، او تیاره ویب چیټرونو له لارې ګډ شي او بیا د CISO لنډیز لپاره "پدې اونۍ کې د غوره سایبر ګواښونو" اجرایوي لنډیز رامینځته کړي. په دودیز ډول، د تحلیل او راپور ورکولو دې کچې د پام وړ انساني هڅې اخیستې؛ اوس یو ښه تنظیم شوی ماډل کولی شي دا په ثانیو کې مسوده کړي، چې انسانان یوازې محصول پاکوي. د زیرو فاکس په څیر شرکتونو فاکس جی پی ټي ، یو جنریټیو AI وسیله چې په ځانګړي ډول د "لویو ډیټاسیټونو کې د استخباراتو تحلیل او لنډیز ګړندي کولو" لپاره ډیزاین شوې، پشمول د ناوړه مینځپانګې او فشینګ ډیټا ( په سایبر امنیت کې د جنریټیو AI څنګه کارول کیدی شي؟ 10 ریښتیني نړۍ مثالونه ). د لوستلو او کراس ریفرنس کولو ډیټا دروند پورته کولو اتومات کولو سره، AI د ګواښ استخباراتي ټیمونو ته وړتیا ورکوي چې په پریکړه کولو او ځواب تمرکز وکړي.
د کارولو بله قضیه د خبرو اترو ګواښ ښکار . تصور وکړئ چې یو امنیتي شنونکی د AI مرستیال سره اړیکه نیسي: "په تیرو 48 ساعتونو کې د معلوماتو د خپریدو کومې نښې راته وښایاست" یا "کوم نوي زیانونه دي چې برید کونکي پدې اونۍ کې ترې ګټه پورته کوي؟" AI کولی شي پوښتنه تشریح کړي، داخلي لاګونه یا بهرني استخباراتي سرچینې ولټوي، او د روښانه ځواب یا حتی د اړوندو پیښو لیست سره ځواب ووایی. دا لرې خبره نه ده - د عصري امنیتي معلوماتو او پیښو مدیریت (SIEM) سیسټمونه د طبیعي ژبې پوښتنې شاملول پیل کوي. د مثال په توګه، د IBM QRadar امنیت سویټ په 2024 کې د تولیدي AI ځانګړتیاوې اضافه کوي ترڅو شنونکي اجازه ورکړي چې "د یوې پیښې د لنډیز شوي برید لارې په اړه ځانګړي پوښتنې وکړي" او مفصل ځوابونه ترلاسه کړي. دا کولی شي "د خورا اړونده ګواښ استخباراتو تشریح او لنډیز" ( څنګه کولی شي په سایبر امنیت کې تولیدي AI وکارول شي؟ 10 ریښتیني نړۍ مثالونه ). په اصل کې، تولیدي AI د تخنیکي معلوماتو غرونه د غوښتنې په اړه د چیٹ اندازې بصیرتونو ته واړوي.
په ټولو صنعتونو کې، دا لویې اغیزې لري. د روغتیا پاملرنې چمتو کونکی کولی شي د روغتونونو په نښه کولو وروستي رینسم ویئر ګروپونو په اړه تازه پاتې کیدو لپاره د مصنوعي ذهانت څخه کار واخلي، پرته لدې چې شنونکی بشپړ وخت څیړنې ته وقف کړي. د پرچون شرکت SOC کولی شي د پلورنځي IT کارمندانو ته د لنډیز ورکولو پرمهال د POS مالویر نوي تاکتیکونه په چټکۍ سره لنډیز کړي. او په حکومت کې، چیرې چې د مختلفو ادارو څخه د ګواښ معلومات باید ترکیب شي، مصنوعي ذهانت کولی شي متحد راپورونه تولید کړي چې کلیدي خبرداری په ګوته کوي. د ګواښ استخباراتي راټولولو او تفسیر اتومات کولو ، تولیدي مصنوعي ذهانت سازمانونو سره مرسته کوي چې د راپورته کیدونکو ګواښونو په وړاندې ګړندي غبرګون وښيي او په شور کې پټ شوي مهم خبرداریو له لاسه ورکولو خطر کموي.
د امنیتي عملیاتو مرکز (SOC) اصلاح کول
د امنیتي عملیاتو مرکزونه د خبرتیا ستړیا او د معلوماتو د ډیر مقدار لپاره بدنام دي. یو عادي SOC شنونکی ممکن هره ورځ د زرګونو خبرتیاو او پیښو څخه تیر شي، د احتمالي پیښو څیړنه وکړي. جنریټیو AI په SOCs کې د ورځني کار اتومات کولو، هوښیار لنډیز چمتو کولو، او حتی د ځینو ځوابونو تنظیم کولو له لارې د ځواک ضرب کونکي په توګه عمل کوي. هدف دا دی چې د SOC کاري جریان غوره کړي ترڅو انساني شنونکي وکولی شي په خورا مهمو مسلو تمرکز وکړي پداسې حال کې چې د AI همکار پیلوټ پاتې نور اداره کوي.
"شنونکي همکار" په توګه د تولیدي AI کارول دي . د مایکروسافټ امنیت همکار، چې مخکې یادونه وشوه، دا مثال ورکوي: دا "د امنیت شنونکي د کار سره د مرستې لپاره ډیزاین شوی نه د هغه د ځای په ځای کولو لپاره،" د پیښو تحقیقاتو او راپور ورکولو کې مرسته کوي ( د مایکروسافټ امنیت همکار د سایبر امنیت لپاره د GPT-4 AI نوی مرستیال دی | دی ورج ). په عمل کې، دا پدې مانا ده چې یو شنونکی کولی شي خام معلومات داخل کړي - د فایر وال لاګونه، د پیښې مهال ویش، یا د پیښې توضیحات - او له AI څخه وغواړي چې دا تحلیل کړي یا لنډیز یې کړي. همکار ممکن یو داستان وړاندې کړي لکه، "داسې ښکاري چې د سهار په 2:35 بجو، د IP X څخه یو شکمن ننوتل په سرور Y کې بریالی شو، وروسته د غیر معمولي معلوماتو لیږد، د دې سرور احتمالي سرغړونې په ګوته کوي." دا ډول سمدستي شرایط ارزښتناکه دي کله چې وخت مهم وي.
د مصنوعي ذهانت همکاران هم د لومړۍ کچې د ټریژ بار کمولو کې مرسته کوي. د صنعت د معلوماتو له مخې، د امنیت ټیم کولی شي په اونۍ کې ۱۵ ساعته یوازې د شاوخوا ۲۲۰۰۰ خبرتیاوو او غلط مثبتو ( په سایبر امنیت کې د جنریټي AI لپاره د کارولو ۶ قضیې [+ مثالونه] ) په ترتیب کولو کې تیر کړي. د جنریټي AI سره، ډیری دا خبرتیاوې په اتوماتيک ډول ټریج کیدی شي - AI کولی شي هغه رد کړي چې په څرګنده توګه بې ضرره دي (د دلیل سره ورکړل شوي) او هغه روښانه کړي چې واقعیا پاملرنې ته اړتیا لري، ځینې وختونه حتی لومړیتوب وړاندیز کوي. په حقیقت کې، د شرایطو په پوهیدو کې د جنریټي AI ځواک پدې معنی دی چې دا کولی شي هغه خبرتیاوې سره اړیکه ونیسي چې ممکن په جلا توګه بې ضرره ښکاري مګر یوځای د څو مرحلو برید په ګوته کوي. دا د "خبرتیا ستړیا" له امله د برید له لاسه ورکولو چانس کموي.
د SOC شنونکي د ښکار او تحقیقاتو د ګړندي کولو لپاره د AI سره طبیعي ژبه هم کاروي. د مثال په توګه، پرپل AI "په ساده انګلیسي کې د ګواښ ښکار پیچلي پوښتنې وپوښتي او ګړندي، دقیق ځوابونه ترلاسه کړي" ( په سایبر امنیت کې د جنریټیو AI څنګه کارول کیدی شي؟ 10 ریښتیني نړۍ مثالونه ). یو شنونکی کولی شي ټایپ کړي، "ایا په تیره میاشت کې د ډومین badguy123[.]com سره کوم پای ټکي اړیکه نیولې ده؟" ، او پرپل AI به د ځواب ویلو لپاره د لاګونو له لارې لټون وکړي. دا شنونکی د ډیټابیس پوښتنو یا سکریپټونو لیکلو څخه ژغوري - AI دا د هود لاندې کوي. دا پدې مانا هم ده چې ځوان شنونکي کولی شي هغه دندې ترسره کړي چې دمخه یې د پوښتنې ژبو کې تجربه لرونکي انجینر ته اړتیا درلوده، په مؤثره توګه د AI مرستې له لارې ټیم ته وده ورکوي . په حقیقت کې، شنونکي راپور ورکوي چې د تولیدي AI لارښوونې "د دوی مهارتونه او مهارت لوړوي" ، ځکه چې ځوان کارمندان اوس کولی شي د AI څخه د غوښتنې پر اساس د کوډ کولو ملاتړ یا تحلیل لارښوونې ترلاسه کړي، چې تل د لوړ پوړو ټیم غړو څخه د مرستې غوښتنه کولو تکیه کموي ( په سایبر امنیت کې د تولیدي AI لپاره 6 کارول شوي قضیې [+ مثالونه] ).
د SOC یو بل اصلاح کول د پیښو اتومات لنډیز او اسناد دي . وروسته له دې چې یوه پیښه اداره شي، یو څوک باید راپور ولیکي - یو کار چې ډیری یې ستړي کوي. جنریټیو AI کولی شي عدلي معلومات (د سیسټم لاګونه، د مالویر تحلیل، د عملونو مهال ویش) واخلي او د پیښې لومړۍ مسوده راپور تولید کړي. IBM دا وړتیا په QRadar کې رامینځته کوي ترڅو د "یو واحد کلیک" د پیښې لنډیز د مختلفو برخه اخیستونکو (اجرایوي، معلوماتي ټکنالوژۍ ټیمونو، او نورو) لپاره تولید شي ( په سایبر امنیت کې د جنریټیو AI څنګه کارول کیدی شي؟ 10 ریښتینې نړۍ مثالونه ). دا نه یوازې وخت خوندي کوي بلکه دا هم ډاډ ورکوي چې په راپور کې هیڅ شی له پامه غورځول شوی نه دی، ځکه چې AI کولی شي ټول اړونده توضیحات په دوامداره توګه شامل کړي. په ورته ډول، د اطاعت او پلټنې لپاره، AI کولی شي د پیښې معلوماتو پراساس فورمې یا د شواهدو جدولونه ډک کړي.
د حقیقي نړۍ پایلې زړه راښکونکې دي. د سویملاین د مصنوعي ذهانت (امنیتي تنظیم، اتوماتیک، او غبرګون) لومړني منونکي د تولید لویې لاسته راوړنې راپور ورکوي - د مثال په توګه، د ګلوبل ډیټا سیسټمونو، د دوی د SecOps ټیم د قضیې ډیر لوی بار اداره کړی؛ یو رییس وویل د AI ځواک لرونکي اتوماتیک پرته 20 کارمندان ونیسي" په سایبر امنیت کې د جنریټیو AI څنګه کارول کیدی شي ). په بل عبارت، په SOC کې AI کولی شي ظرفیت ضرب کړي . په ټولو صنعتونو کې، که دا د ټیکنالوژۍ شرکت وي چې د کلاوډ امنیت خبرتیاو سره معامله کوي یا د تولید فابریکې د OT سیسټمونو څارنه کوي، د SOC ټیمونه د تولیدي AI معاونینو په منلو سره د ګړندي کشف او ځواب، لږ یاد شوي پیښو، او ډیر اغیزمن عملیات ترلاسه کولو لپاره ولاړ دي. دا د هوښیار کار کولو په اړه دی - ماشینونو ته اجازه ورکوي چې تکراري او ډیټا درانه دندې اداره کړي نو انسانان کولی شي خپل وجدان او تخصص په هغه ځای کې پلي کړي چیرې چې دا خورا مهم دی.
د زیان مننې مدیریت او د ګواښ سمولیشن
د زیان منونکو پیژندل او اداره کول - په سافټویر یا سیسټمونو کې کمزورتیاوې چې بریدګر یې ګټه پورته کولی شي - د سایبر امنیت اصلي دنده ده. جنریټیو AI د کشف ګړندي کولو، د پیچ لومړیتوب ورکولو کې مرسته کولو، او حتی د چمتووالي ښه کولو لپاره په دې زیان منونکو بریدونو سمولو سره د زیان منونکو مدیریت ته وده ورکوي. په اصل کې، AI سازمانونو سره مرسته کوي چې د دوی په زغره کې سوري په چټکۍ سره ومومي او حل کړي، او د په فعاله توګه دفاع ازموینه وکړي.
یو مهم غوښتنلیک د اتوماتیک کوډ بیاکتنې او زیان مننې کشف . لوی کوډ بیسونه (په ځانګړي توګه میراثي سیسټمونه) ډیری وختونه د امنیت نیمګړتیاوې لري چې له پامه غورځول کیږي. جنریټیو AI ماډلونه د خوندي کوډ کولو کړنو او عام بګ نمونو په اړه روزل کیدی شي، بیا د سرچینې کوډ یا تالیف شوي بائنریونو کې خوشې کیدی شي ترڅو احتمالي زیان مننې ومومي. د مثال په توګه، د NVIDIA څیړونکو د جنریټیو AI پایپ لاین رامینځته کړی چې کولی شي د میراث سافټویر کانټینرونه تحلیل کړي او زیان منونکي وپیژني "د لوړ دقت سره - د انساني متخصصینو په پرتله تر 4x پورې ګړندی." ( په سایبر امنیت کې د جنریټیو AI لپاره 6 قضیې کارول [+ مثالونه] ). AI په اصل کې زده کړل چې ناامنه کوډ څه ډول ښکاري او د لسیزو زاړه سافټویر له لارې سکین کولو توان درلود ترڅو خطرناک دندې او کتابتونونه په نښه کړي، د لاسي کوډ تفتیش معمول ورو پروسه په پراخه کچه ګړندۍ کوي. دا ډول وسیله کولی شي د مالیې یا حکومت په څیر صنعتونو لپاره د لوبې بدلونکی وي چې په لویو، زړو کوډ بیسونو تکیه کوي - AI د هغو مسلو په کشفولو سره د امنیت عصري کولو کې مرسته کوي چې کارمندان ممکن د موندلو لپاره میاشتې یا کلونه وخت ونیسي (که کله هم).
جنریټیو AI د زیان مننې مدیریت کاري جریان د زیان مننې سکین پایلو پروسس کولو او لومړیتوب ورکولو سره هم مرسته کوي. د ټین ایبل ایکسپوژر جنریټیو AI کاروي ترڅو شنونکي په ساده ژبه کې د زیان مننې ډیټا پوښتنه وکړي او سمدستي ځوابونه ترلاسه کړي ( په سایبر امنیت کې د جنریټیو AI څنګه کارول کیدی شي؟ 10 ریښتیني نړۍ مثالونه ). ExposureAI کولی شي "په یوه کیسه کې د برید بشپړ لاره لنډیز کړي" ، تشریح کوي چې څنګه بریدګر کولی شي دا د نورو ضعفونو سره زنځیر کړي ترڅو یو سیسټم جوړ کړي. دا حتی د ترمیم لپاره اقدامات وړاندیز کوي او د خطر په اړه تعقیبي پوښتنو ته ځوابونه ورکوي. دا پدې مانا ده چې کله یو نوی مهم CVE (عام زیان منونکي او افشا کول) اعلان شي، یو شنونکی کولی شي له AI څخه پوښتنه وکړي، "ایا زموږ کوم سرور د دې CVE لخوا اغیزمن شوی او که موږ پیچ نه کړو نو ترټولو بد حالت څه دی؟" او د سازمان د خپل سکین ډیټا څخه روښانه ارزونه ترلاسه کړي. د زیانمنونکو شرایطو په پام کې نیولو سره (د مثال په توګه دا یو انټرنیټ او په لوړ ارزښت لرونکي سرور کې ښکاره کیږي، نو دا لومړیتوب لري)، تولیدي AI ټیمونو سره مرسته کوي چې د محدودو سرچینو سره په هوښیارۍ سره پیچ وکړي.
د پیژندل شویو زیان منونکو موندلو او اداره کولو سربیره، جنریټیو AI د ننوتلو ازموینې او برید سمولیشن - په اصل کې نامعلوم زیان منونکو کشف کول یا د امنیت کنټرولونو ازموینه کول. جنریټیو اډورسیریل شبکې (GANs)، د جنریټیو AI یو ډول، د مصنوعي معلوماتو رامینځته کولو لپاره کارول شوي چې د ریښتیني شبکې ترافیک یا د کارونکي چلند تقلید کوي، کوم چې کولی شي پټ برید نمونې پکې شاملې وي. د 2023 مطالعې وړاندیز وکړ چې د GANs کارولو لپاره د ننوتلو کشف سیسټمونو روزلو لپاره د صفر ورځې برید ریښتیني ترافیک رامینځته کړي ( په سایبر امنیت کې د جنریټیو AI لپاره 6 قضیې کارول [+ مثالونه] ). IDS ته د AI لخوا جوړ شوي برید سناریوګانو سره تغذیه کولو سره (چې د تولید شبکو کې د اصلي مالویر کارولو خطر نلري)، سازمانونه کولی شي خپل دفاع وروزي ترڅو نوي ګواښونه وپیژني پرته لدې چې په واقعیت کې د دوی لخوا د وهلو انتظار وکړي. په ورته ډول، AI کولی شي د برید کونکي تقلید وکړي چې د سیسټم پلټنه کوي - د مثال په توګه، په اتوماتيک ډول په خوندي چاپیریال کې د مختلف استحصال تخنیکونو هڅه کوي ترڅو وګوري چې ایا کوم بریالی کیږي. د متحده ایالاتو د دفاع د پرمختللو څیړنیزو پروژو اداره (DARPA) دلته ژمنه ګوري: د دوی د 2023 AI سایبر ننګونه په ښکاره ډول د تولیدي AI (لکه د لویو ژبو ماډلونو په څیر) کاروي ترڅو "په اتوماتيک ډول په خلاصې سرچینې سافټویر کې زیانونه ومومي او حل کړي" د سیالۍ برخې په توګه ( DARPA د AI پراختیا، د خودمختاري غوښتنلیکونو جنګیالي باور کولی شي > د متحده ایالاتو د دفاع وزارت > د دفاع وزارت خبرونه ). دا نوښت ټینګار کوي چې AI یوازې د پیژندل شوي سوریو د حل کولو کې مرسته نه کوي؛ دا په فعاله توګه نوي کشف کوي او د حل وړاندیز کوي، یو کار چې په دودیز ډول د ماهرو (او ګران) امنیتي څیړونکو پورې محدود دی.
جنریټیو AI حتی د دفاع لپاره هوښیار شاتو مچۍ او ډیجیټل دوه ګونی "ډیجیټل سیسټمونه کلون کړي ترڅو اصلي سیسټمونه تقلید کړي او هیکران راجلب کړي" ( په سایبر امنیت کې د جنریټیو AI لپاره 6 قضیې [+ مثالونه] ). دا AI لخوا رامینځته شوي شاتو مچۍ د اصلي چاپیریال په څیر چلند کوي (ووایه، یو جعلي IoT وسیله چې عادي ټیلی میټري لیږي) مګر یوازې د برید کونکو د راجلبولو لپاره شتون لري. کله چې یو برید کونکی ډیکوی په نښه کوي، AI په اصل کې دوی د دوی د میتودونو څرګندولو لپاره دوکه کړي، کوم چې مدافعین بیا کولی شي مطالعه وکړي او د اصلي سیسټمونو پیاوړتیا لپاره وکاروي. دا مفهوم، چې د جنریټیو ماډلینګ لخوا پرمخ وړل کیږي، د برید کونکو په وړاندې د میزونو بدلولو ، د AI لخوا د لوړ شوي فریب په کارولو سره.
په ټولو صنعتونو کې، د زیان مننې چټک او هوښیار مدیریت د لږو سرغړونو معنی لري. د مثال په توګه، د روغتیا پاملرنې معلوماتي ټکنالوژۍ کې، AI ممکن په چټکۍ سره په طبي وسیله کې یو زیان منونکی زوړ کتابتون ومومي او د کوم برید کونکي لخوا د ګټې اخیستنې دمخه د فرم ویئر حل ته وهڅوي. په بانکدارۍ کې، AI کولی شي په نوي غوښتنلیک کې د داخلي برید تقلید وکړي ترڅو ډاډ ترلاسه شي چې د پیرودونکو معلومات په ټولو سناریوګانو کې خوندي پاتې کیږي. په دې توګه تولیدي AI د سازمانونو د امنیت حالت لپاره د مایکروسکوپ او فشار ټیسټر په توګه کار کوي: دا پټې نیمګړتیاوې روښانه کوي او سیسټمونه په تصوراتي لارو کې فشاروي ترڅو انعطاف ډاډمن کړي.
د خوندي کوډ تولید او سافټویر پراختیا
د جنریټیو AI وړتیاوې د بریدونو کشف کولو پورې محدودې نه دي - دوی د پیل څخه د ډیرو خوندي سیسټمونو رامینځته کولو . د سافټویر پراختیا کې، د AI کوډ جنراتورونه (لکه GitHub Copilot، OpenAI Codex، او نور) کولی شي پراختیا کونکو سره د کوډ ټوټې یا حتی ټول فعالیتونه وړاندیز کولو سره د کوډ ګړندي لیکلو کې مرسته وکړي. د سایبر امنیت زاویه ډاډ ورکوي چې دا د AI لخوا وړاندیز شوي کوډ ټوټې خوندي دي او د کوډ کولو کړنو ښه کولو لپاره AI کاروي.
له یوې خوا، تولیدي AI کولی شي د کوډ کولو مرستیال په توګه عمل وکړي چې د امنیت غوره عملونه پکې شامل دي . پراختیا کونکي کولی شي د AI وسیله "په پایتون کې د پټنوم بیا تنظیم کولو فعالیت رامینځته کړي" ته وهڅوي، او په مثالي توګه هغه کوډ بیرته ترلاسه کړي چې نه یوازې فعال وي بلکه خوندي لارښوونې هم تعقیبوي (د بیلګې په توګه مناسب ان پټ تایید، ننوتل، د معلوماتو له لیکیدو پرته د غلطۍ اداره کول، او نور). دا ډول مرستیال، چې د پراخو خوندي کوډ مثالونو کې روزل شوی، کولی شي د انساني غلطیو کمولو کې مرسته وکړي چې زیان منونکي لامل کیږي. د مثال په توګه، که چیرې یو پراختیا کونکی د کارونکي ان پټ پاکول هیر کړي (د SQL انجیکشن یا ورته مسلو ته دروازه پرانیزي)، یو AI کولی شي دا په ډیفالټ ډول شامل کړي یا دوی ته خبرداری ورکړي. د AI کوډ کولو ځینې وسیلې اوس د امنیت متمرکز ډیټا سره ښه تنظیم شوي ترڅو دې دقیق هدف ته خدمت وکړي - په اصل کې، د AI جوړه پروګرام کول د امنیت وجدان سره .
په هرصورت، یو بل اړخ هم شته: تولیدي AI کولی شي په اسانۍ سره زیان منونکي معرفي کړي که چیرې په سمه توګه اداره نشي. لکه څنګه چې د سوفوس امنیتي متخصص بین ورشیرین یادونه وکړه، د کوډ کولو لپاره د تولیدي AI کارول "د لنډ، تایید وړ کوډ لپاره ښه دي، مګر کله چې غیر چیک شوي کوډ د تولید سیسټمونو کې مدغم شي خطرناک دی". خطر دا دی چې یو AI ممکن په منطقي ډول سم کوډ تولید کړي چې په هغه لارو ناامنه وي چې یو غیر متخصص ممکن یې ونه ګوري. سربیره پردې، ناوړه لوبغاړي کولی شي په قصدي ډول د عامه AI ماډلونو باندې د زیان منونکي کوډ نمونو (د معلوماتو زهرجن کولو یوه بڼه) سره د تخم کولو له لارې اغیزه وکړي ترڅو AI ناامنه کوډ وړاندیز کړي. ډیری پراختیا کونکي د امنیت متخصصین ندي ، نو که چیرې یو AI یو اسانه حل وړاندیز وکړي، دوی ممکن دا په ړانده توګه وکاروي، نه پوهیږي چې دا نیمګړتیا لري ( په سایبر امنیت کې د تولیدي AI لپاره 6 د کارولو قضیې [+ مثالونه] ). دا اندیښنه ریښتیا ده - په حقیقت کې، اوس د LLMs (لوی ژبې ماډلونو) لپاره د OWASP غوره 10 لیست شتون لري چې د کوډ کولو لپاره د AI کارولو کې د دې په څیر عام خطرونه په ګوته کوي.
د دې مسلو سره د مقابلې لپاره، متخصصین د کوډ کولو په ډګر کې "د تولیدي AI سره د تولیدي AI سره مبارزه" د کوډ بیاکتنې او ازموینې لپاره چې نورو AI (یا انسانانو) لیکلي دي. یو AI کولی شي د نوي کوډ له لارې سکین وکړي د انسان کوډ بیاکتونکي په پرتله خورا ګړندی ژمن دی او احتمالي زیان منونکي یا منطقي مسلې په نښه کوي. موږ دمخه داسې وسایل لیدلي چې د سافټویر پراختیا ژوند دوره کې مدغم کیږي: کوډ لیکل شوی (شاید د AI په مرسته)، بیا د خوندي کوډ اصولو په اړه روزل شوی تولیدي ماډل دا بیاکتنه کوي او د هر ډول اندیښنو راپور رامینځته کوي (ووایه، د تخریب شوي دندو کارول، د تصدیق چیکونه ورک شوي، او نور). د NVIDIA څیړنه، چې مخکې یې یادونه وشوه، چې په کوډ کې د 4x ګړندي زیان منونکي کشف ترلاسه کړی د خوندي کوډ تحلیل لپاره د AI کارولو یوه بیلګه ده ( په سایبر امنیت کې د تولیدي AI لپاره 6 کارول قضیې [+ مثالونه] ).
سربیره پردې، تولیدي AI کولی شي د خوندي ترتیبونو او سکریپټونو په جوړولو . د مثال په توګه، که چیرې یو شرکت د خوندي کلاوډ زیربنا ځای په ځای کولو ته اړتیا ولري، یو انجینر کولی شي له AI څخه وغواړي چې د امنیتي کنټرولونو (لکه د شبکې مناسب قطع کول، لږترلږه امتیاز IAM رولونه) سره د ترتیب سکریپټونه (د کوډ په توګه زیربنا) تولید کړي. AI، چې په زرګونو داسې ترتیبونو کې روزل شوی، کولی شي یو اساس تولید کړي چې انجینر بیا ښه تنظیم کړي. دا د سیسټمونو خوندي تنظیم ګړندی کوي او د غلط ترتیب غلطۍ کموي - د کلاوډ امنیت پیښو یوه عامه سرچینه.
ځینې سازمانونه د خوندي کوډ کولو نمونو د پوهې اساس ساتلو لپاره د تولیدي AI څخه هم ګټه پورته کوي. که چیرې یو پراختیا کونکی ډاډه نه وي چې څنګه یو ځانګړی ځانګړتیا په خوندي ډول پلي کړي، دوی کولی شي د داخلي AI څخه پوښتنه وکړي چې د شرکت د تیرو پروژو او امنیتي لارښوونو څخه یې زده کړې کړې وي. AI ممکن یو وړاندیز شوی چلند یا حتی د کوډ ټوټه بیرته راولي چې د دواړو فعال اړتیاو او د شرکت د امنیتي معیارونو سره سمون لري. دا چلند د سیکور فریم د پوښتنلیک اتومات ، کوم چې د شرکت د پالیسیو او تیرو حلونو څخه ځوابونه راوباسي ترڅو دوامداره او دقیق ځوابونه ډاډمن کړي (په اصل کې خوندي اسناد تولیدوي) ( په سایبر امنیت کې د تولیدي AI څنګه کارول کیدی شي؟ 10 ریښتینې نړۍ مثالونه ). دا مفهوم کوډ کولو ته ژباړل کیږي: یو AI چې "یادونه کوي" چې تاسو څنګه مخکې په خوندي ډول یو څه پلي کړي او تاسو ته لارښوونه کوي چې دا بیا په دې ډول ترسره کړئ.
په لنډه توګه، تولیدي AI د سافټویر پراختیا باندې تاثیر کوي د خوندي کوډ کولو مرستې ته د لاسرسي وړ کولو . هغه صنعتونه چې ډیری دودیز سافټویر رامینځته کوي - ټیکنالوژي، مالي، دفاع، او نور - د AI همکارانو درلودلو څخه ګټه پورته کوي چې نه یوازې کوډ کول ګړندي کوي بلکه د تل محتاط امنیتي بیاکتونکي په توګه عمل کوي. کله چې په سمه توګه اداره شي، دا AI وسایل کولی شي د نویو زیان منونکو معرفي کم کړي او د پراختیا ټیمونو سره مرسته وکړي چې غوره عملونو ته غاړه کیږدي، حتی که ټیم په هر ګام کې د امنیت متخصص ونه لري. پایله یې سافټویر دی چې د لومړۍ ورځې څخه د بریدونو په وړاندې ډیر پیاوړی دی.
د پیښې د غبرګون ملاتړ
کله چې د سایبري امنیت پیښه رامنځته شي - که دا د مالویر خپریدل وي، د معلوماتو سرغړونه وي، یا د برید څخه د سیسټم بندیدل وي - وخت خورا مهم دی. جنریټیو AI په زیاتیدونکي توګه د پیښو د غبرګون (IR) ټیمونو ملاتړ ترڅو پیښې په چټکۍ سره کنټرول او ترمیم کړي او ډیر معلومات په لاس کې ولري. نظر دا دی چې AI کولی شي د پیښې په جریان کې د تحقیقاتو او اسنادو بار یو څه په غاړه واخلي، او حتی د ځینې غبرګون کړنو وړاندیز یا اتومات کړي.
په IR کې د AI یو مهم رول د پیښې ریښتیني وخت تحلیل او لنډیز . د پیښې په مینځ کې، ځواب ویونکي ممکن د پوښتنو ځوابونو ته اړتیا ولري لکه "بریدګر څنګه دننه شو؟" ، "کوم سیسټمونه اغیزمن شوي؟" ، او "کوم معلومات ممکن زیانمن شي؟" . تولیدي AI کولی شي د اغیزمنو سیسټمونو څخه لاګونه، خبرتیاوې، او عدلي معلومات تحلیل کړي او په چټکۍ سره بصیرت چمتو کړي. د مثال په توګه، د مایکروسافټ امنیت کوپیلوټ د پیښې ځواب ویونکي ته اجازه ورکوي چې د شواهدو مختلف ټوټې (فایلونه، URLs، د پیښې لاګونه) تغذیه کړي او د مهال ویش یا لنډیز غوښتنه وکړي ( د مایکروسافټ امنیت کوپیلوټ د سایبر امنیت لپاره د GPT-4 AI نوی مرستیال دی | دی ورج ). AI ممکن د دې سره ځواب ووایی: "سرغړونه احتمال لري د کارونکي جانډو ته د 10:53 GMT په وخت کې د مالویر X درلودونکي د فشینګ بریښنالیک سره پیل شي. یوځل چې اجرا شي، مالویر یو شاته دروازه رامینځته کړه چې دوه ورځې وروسته د مالي سرور ته د اړخ حرکت کولو لپاره کارول کیده، چیرې چې دا معلومات راټولوي." د ساعتونو پرځای په دقیقو کې د دې همغږي انځور درلودل ټیم ته وړتیا ورکوي چې باخبره پریکړې وکړي (لکه کوم سیسټمونه جلا کړي) ډیر ګړندي.
جنریټیو AI کولی شي د مخنیوي او درملنې اقدامات هم وړاندیز کړي . د مثال په توګه، که چیرې یو پای ټکی د رینسم ویئر لخوا اخته شي، نو د AI وسیله کولی شي سکریپټ یا د لارښوونو سیټ رامینځته کړي ترڅو دا ماشین جلا کړي، ځینې حسابونه غیر فعال کړي، او په فایر وال کې پیژندل شوي ناوړه IPs بند کړي - په اصل کې د پلی بوک اجرا کول. پالو الټو شبکې یادونه کوي چې جنریټیو AI د "د پیښې د نوعیت پراساس مناسب عملونه یا سکریپټونه رامینځته کولو" ، د ځواب لومړني ګامونه اتومات کوي ( په سایبر امنیت کې جنریټیو AI څه شی دی؟ - پالو الټو شبکې ). په داسې سناریو کې چیرې چې امنیتي ټیم ډیر شوی وي (په سلګونو وسیلو کې پراخه برید ووایی)، AI ممکن حتی د دې کړنو څخه ځینې په مستقیم ډول د مخکې تصویب شوي شرایطو لاندې اجرا کړي، د یو ځوان ځواب ورکوونکي په څیر عمل وکړي چې نه ستړي کیدونکي کار کوي. د مثال په توګه، د AI اجنټ کولی شي په اتوماتيک ډول هغه اسناد بیا تنظیم کړي چې دا فکر کوي چې جوړجاړی شوی یا قرنطین شوي کوربه دي چې د پیښې پروفایل سره سمون لرونکي ناوړه فعالیت ښیې.
د پیښې د غبرګون په جریان کې، اړیکه خورا مهمه ده - دواړه د ټیم دننه او هم د ښکیلو اړخونو سره. تولیدي AI کولی شي د پیښې تازه معلوماتو راپورونو یا لنډیزونو په چمتو کولو . د دې پرځای چې یو انجینر د بریښنالیک تازه معلوماتو لیکلو لپاره خپل ستونزې حل کړي، دوی کولی شي له AI څخه وغواړي، "په دې پیښه کې څه پیښ شوي لنډیز لنډیز کړئ ترڅو اجرایوي رییسانو ته خبر ورکړي." AI، د پیښې معلومات ترلاسه کولو وروسته، کولی شي یو لنډ لنډیز تولید کړي: "د ماسپښین تر 3 بجو پورې، برید کونکو 2 کارونکي حسابونو او 5 سرورونو ته لاسرسی موندلی دی. اغیزمن شوي معلومات په ډیټابیس X کې د مراجعینو ریکارډونه شامل دي. د کنټرول اقدامات: د جوړ شوي حسابونو لپاره د VPN لاسرسی لغوه شوی او سرورونه جلا شوي. راتلونکي ګامونه: د هر ډول دوام میکانیزمونو لپاره سکین کول." ځواب ورکوونکی بیا کولی شي دا په چټکۍ سره تایید یا ټیک کړي او دا یې واستوي، ډاډ ترلاسه کړي چې شریکان د دقیق، تازه معلوماتو سره په لوپ کې ساتل کیږي.
وروسته له دې چې دوړې حل شي، معمولا د پیښې تفصيلي راپور چمتو کولو لپاره وي او د راټولولو لپاره زده شوي درسونه وي. دا یوه بله ساحه ده چیرې چې د AI ملاتړ ځلیږي. دا کولی شي د پیښې ټول معلومات بیاکتنه وکړي او د پیښې وروسته راپور رامینځته کړي چې اصلي لامل، کرونولوژي، اغیزې او سپارښتنې پوښي. د مثال په توګه، IBM د تولیدي AI مدغم کوي ترڅو "د امنیتي قضیو او پیښو ساده لنډیزونه رامینځته کړي چې د ښکیلو اړخونو سره شریک کیدی شي" د تڼۍ په فشار کې ( په سایبر امنیت کې د تولیدي AI څنګه کارول کیدی شي؟ 10 ریښتینې نړۍ مثالونه ). د عمل وروسته راپور ورکولو ساده کولو سره، سازمانونه کولی شي پرمختګونه ګړندي پلي کړي او د اطاعت موخو لپاره غوره اسناد هم ولري.
یو نوښتګر راتلونکي کارونې د مصنوعي ذهانت پر بنسټ د پیښو سمولیشنونه . د اور وژنې تمرین چلولو ته ورته، ځینې شرکتونه د "څه-که" پیښو سناریوګانو له لارې د چلولو لپاره تولیدي مصنوعي ذهانت کاروي. مصنوعي ذهانت ممکن د شبکې ترتیب ته په پام سره د تاوان سافټویر څنګه خپریږي، یا څنګه یو داخلي کس کولی شي معلومات افشا کړي، او بیا د اوسني غبرګون پلانونو اغیزمنتوب نمرې کړي. دا ټیمونو سره مرسته کوي چې د ریښتینې پیښې له رامینځته کیدو دمخه د لوبو کتابونه چمتو او اصلاح کړي. دا د تل لپاره د ښه کیدونکي پیښې غبرګون مشاور په څیر دی چې په دوامداره توګه ستاسو چمتووالی ازموي.
په لوړو دندو صنعتونو لکه مالي یا روغتیا پاملرنې کې، چیرې چې د پیښو څخه د وخت ضایع کول یا د معلوماتو ضایع کول په ځانګړي ډول ګران دي، دا د مصنوعي ذهانت لخوا پرمخ وړل شوي IR وړتیاوې خورا زړه راښکونکې دي. یو روغتون چې د سایبر پیښې تجربه کوي د سیسټم اوږد بندښت نشي زغملی - یو مصنوعي ذهانت چې په چټکۍ سره د مخنیوي کې مرسته کوي ممکن په لفظي ډول د ژوند ژغورونکی وي. په ورته ډول، یو مالي اداره کولی شي د سهار په 3 بجو د شکمن درغلۍ د مداخلې لومړني ټریج اداره کولو لپاره AI وکاروي، نو تر هغه وخته چې په زنګ کې انسانان آنلاین وي، ډیری بنسټیز کار (د اغیزمنو حسابونو بندول، د معاملو بندول، او نور) دمخه ترسره شوی وي. د تولیدي مصنوعي ذهانت سره د پیښو غبرګون ټیمونو زیاتولو ، سازمانونه کولی شي د غبرګون وختونه د پام وړ کم کړي او د دوی د اداره کولو بشپړتیا ښه کړي، په نهایت کې د سایبر پیښو څخه زیان کم کړي.
د چلند تحلیل او د بې نظمۍ کشف
ډیری سایبري بریدونه د دې په پام کې نیولو سره نیول کیدی شي کله چې یو څه د "عادي" چلند څخه انحراف کوي - ایا دا د کارونکي حساب دی چې د معلوماتو غیر معمولي مقدار ډاونلوډ کوي یا د شبکې وسیله چې ناڅاپه د ناپیژندل شوي کوربه سره اړیکه نیسي. جنریټیو AI د چلند تحلیل او بې نظمۍ کشف ، د کاروونکو او سیسټمونو نورمال نمونې زده کوي او بیا کله چې یو څه لرې ښکاري نو نښه کوي.
دودیز انومالي کشف اکثرا د ځانګړو میټریکونو په اړه د احصایوي حدونو یا ساده ماشین زده کړې څخه کار اخلي (د CPU کارولو زیاتوالی، په عجیب ساعتونو کې ننوتل، او داسې نور). جنریټیو AI کولی شي دا د چلند د ډیرو نازکو پروفایلونو په جوړولو سره نور هم پرمخ بوځي. د مثال په توګه، د AI ماډل کولی شي د وخت په تیریدو سره د یو کارمند ننوتل، د فایل لاسرسي نمونې، او د بریښنالیک عادتونه جذب کړي او د هغه کارونکي "عادي" څو اړخیزه پوهه رامینځته کړي. که چیرې دا حساب وروسته د خپل نورم څخه بهر یو څه په کلکه ترسره کړي (لکه د نوي هیواد څخه ننوتل او په نیمه شپه کې د HR فایلونو ته لاسرسی)، AI به نه یوازې په یو میټریک کې بلکه د ټول چلند نمونې په توګه انحراف کشف کړي چې د کارونکي پروفایل سره سمون نلري. په تخنیکي شرایطو کې، جنریټیو ماډلونه (لکه آټو انکوډرونه یا ترتیب ماډلونه) کولی شي ماډل کړي چې "عادي" څه ښکاري او بیا د چلند تمه شوې لړۍ رامینځته کړي. کله چې واقعیت له دې حد څخه بهر راشي، نو دا د انومالي په توګه نښه کیږي ( په سایبر امنیت کې جنریټیو AI څه شی دی؟ - پالو الټو شبکې ).
یو عملي تطبیق د شبکې ترافیک څارنه . د ۲۰۲۴ کال د سروې له مخې، د متحده ایالاتو ۵۴٪ سازمانونو د شبکې ترافیک څارنه د سایبر امنیت کې د AI لپاره د غوره کارونې قضیې په توګه یاد کړ ( شمالي امریکا: په ټوله نړۍ کې د AI کارولو غوره قضیې ۲۰۲۴ ). تولیدي AI کولی شي د یوې تصدۍ د شبکې عادي اړیکو نمونې زده کړي - کوم سرورونه معمولا یو بل سره خبرې کوي، د سوداګرۍ ساعتونو په جریان کې د شپې په پرتله د معلوماتو څومره مقدار حرکت کوي، او داسې نور. که چیرې یو بریدګر د سرور څخه د معلوماتو افشا کول پیل کړي، حتی د کشف څخه د مخنیوي لپاره ورو ورو، د AI پر بنسټ سیسټم ممکن وګوري چې "سرور A هیڅکله د سهار په ۲ بجو ۵۰۰MB ډیټا بهرني IP ته نه لیږي" او خبرداری پورته کړي. ځکه چې AI یوازې د جامد قواعدو څخه کار نه اخلي بلکه د شبکې چلند یو پرمختللی ماډل دی، دا کولی شي هغه فرعي بې نظمۍ ونیسي چې جامد قواعد (لکه "خبرتیا که معلومات > X MB") ممکن له لاسه ورکړي یا په غلطۍ سره بیرغ پورته کړي. دا تطابق طبیعت هغه څه دي چې د بانکي معاملو شبکو، کلاوډ زیربنا، یا د IoT وسیلو بیړیو په څیر چاپیریالونو کې د AI لخوا پرمخ وړل شوي بې نظمۍ کشف پیاوړی کوي، چیرې چې د نورمال او غیر معمولي لپاره ثابت قواعد تعریف کول خورا پیچلي دي.
جنریټیو AI د کارونکي چلند تحلیلونو (UBA) ، کوم چې د داخلي ګواښونو یا جوړجاړي شوي حسابونو د موندلو لپاره کلیدي ده. د هر کارونکي یا ادارې د اساس په جوړولو سره، AI کولی شي د اعتبار ناوړه ګټه اخیستنې په څیر شیان کشف کړي. د مثال په توګه، که چیرې باب د محاسبې څخه ناڅاپه د پیرودونکي ډیټابیس پوښتنه پیل کړي (هغه څه چې هغه مخکې هیڅکله نه دي کړي)، د باب د چلند لپاره د AI ماډل به دا غیر معمولي په توګه په نښه کړي. دا ممکن مالویر نه وي - دا ممکن د باب د اعتبارونو د غلا کیدو او د برید کونکي لخوا د کارولو قضیه وي، یا باب پلټنه کوي چیرې چې هغه باید ونه کړي. په هرصورت، د امنیت ټیم د تحقیق لپاره سر راپورته کوي. د AI لخوا پرمخ وړل شوي UBA سیسټمونه په مختلفو امنیتي محصولاتو کې شتون لري، او د جنریټیو ماډلینګ تخنیکونه د شرایطو په پام کې نیولو سره د دوی دقت لوړولو او د غلط الارمونو کمولو لپاره دي (شاید باب په ځانګړي پروژه کې وي، او داسې نور، کوم چې AI ځینې وختونه د نورو معلوماتو څخه اټکل کولی شي).
د هویت او لاسرسي مدیریت په برخه کې، د ژورو جعلي کشف یوه مخ په زیاتیدونکې اړتیا ده - تولیدي AI کولی شي مصنوعي غږونه او ویډیوګانې رامینځته کړي چې بایومیټریک امنیت غولوي. په زړه پورې خبره دا ده چې تولیدي AI کولی شي د آډیو یا ویډیو کې د فرعي اثارو تحلیل کولو سره د دې ژورو جعلي کشفولو کې هم مرسته وکړي چې د انسانانو لپاره یې لیدل ګران دي. موږ د اکسینچر سره یوه بیلګه ولیدله، کوم چې د بې شمیره مخ څرګندونو او شرایطو تقلید کولو لپاره د جنریټي AI کارولی ترڅو خپل بایومیټریک سیسټمونه وروزي په سایبر امنیت کې د جنریټي AI لپاره 6 کارول قضیې [+ مثالونه] ). په اصل کې، دوی د بایومیټریک تصدیق پیاوړي کولو لپاره جنریټي AI کارولی، دا د تولیدي بریدونو په وړاندې مقاومت لري (د AI سره د مبارزې AI یوه غوره بیلګه). د چلند دا ډول ماډلینګ - پدې حالت کې د ژوندي انسان مخ او د AI ترکیب شوي مخ ترمنځ توپیر پیژندل - خورا مهم دی ځکه چې موږ په تصدیق کې په AI ډیر تکیه کوو.
د جنریټیو AI لخوا پرمخ وړل شوي انومالي کشف په ټولو صنعتونو کې پلي کیږي: په روغتیا پاملرنې کې، د هیک کولو نښو لپاره د طبي وسایلو چلند څارنه؛ په مالي چارو کې، د غیر منظم نمونو لپاره د سوداګرۍ سیسټمونو څارنه چې کولی شي درغلۍ یا الګوریتمیک لاسوهنه په ګوته کړي؛ په انرژي / ګټورو توکو کې، د لاسوهنې نښو لپاره د کنټرول سیسټم سیګنالونو څارنه. د پراخوالي (د چلند ټولو اړخونو ته کتنه) او ژوروالی (د پیچلو نمونو پوهیدل) چې جنریټیو AI چمتو کوي دا د سایبر پیښې د ستنې دننه د واښو شاخصونو موندلو لپاره یو پیاوړی وسیله ګرځوي. لکه څنګه چې ګواښونه پټ کیږي، د نورمال عملیاتو په مینځ کې پټیږي، دا وړتیا چې په سمه توګه "عادي" مشخص کړي او کله چې یو څه انحراف کوي چیغې وهي حیاتي کیږي. په دې توګه جنریټیو AI د نه ستړي کیدونکي ساتونکي په توګه کار کوي، تل د چاپیریال کې د بدلونونو سره د سرعت ساتلو لپاره د نورمالیت تعریف زده کوي او تازه کوي، او امنیتي ټیمونو ته د هغو انډولونو په اړه خبرداری ورکوي چې نږدې تفتیش ته اړتیا لري.
په سایبري امنیت کې د جنریټيو AI فرصتونه او ګټې
د سایبر امنیت په برخه کې د جنریټیو AI کارول د هغو سازمانونو لپاره ډیری فرصتونه او ګټې چې غواړي دا وسایل ومني. لاندې، موږ هغه مهمې ګټې لنډیز کوو چې جنریټیو AI د سایبر امنیت پروګرامونو لپاره یو زړه راښکونکی اضافه کوي:
-
د ګواښونو چټک کشف او ځواب: د مصنوعي ذهانت تولیدونکي سیسټمونه کولی شي په ریښتیني وخت کې د معلوماتو پراخه اندازه تحلیل کړي او د لاسي انساني تحلیل په پرتله ډیر ګړندي ګواښونه وپیژني. د دې سرعت ګټه د بریدونو دمخه کشف او د پیښو ګړندي کنټرول معنی لري. په عمل کې، د مصنوعي ذهانت لخوا پرمخ وړل شوي امنیتي څارنه کولی شي هغه ګواښونه ونیسي چې انسانان به یې د اړیکو لپاره ډیر وخت ونیسي. پیښو ته په سمدستي توګه ځواب ویلو سره (یا حتی په خپلواکه توګه د لومړني ځوابونو اجرا کولو سره)، سازمانونه کولی شي په ډراماتیک ډول په خپلو شبکو کې د برید کونکو د استوګنې وخت کم کړي، زیان کم کړي.
-
دقت او ګواښ پوښښ ښه شوی: ځکه چې دوی په دوامداره توګه له نویو معلوماتو څخه زده کړه کوي، تولیدي ماډلونه کولی شي د مخ پر ودې ګواښونو سره تطابق وکړي او د ناوړه فعالیت فرعي نښې ونیسي. دا د جامد قواعدو په پرتله د کشف دقت ښه کیدو (لږ غلط منفي او غلط مثبت) لامل کیږي. د مثال په توګه، یو AI چې د فشینګ بریښنالیک یا مالویر چلند نښې زده کړې دي کولی شي هغه ډولونه وپیژني چې مخکې هیڅکله نه وو لیدل شوي. پایله د ګواښ ډولونو پراخه پوښښ دی - په شمول د نوي بریدونو - د ټولیز امنیت دریځ پیاوړی کول. امنیتي ټیمونه د AI تحلیل څخه مفصل بصیرت هم ترلاسه کوي (د بیلګې په توګه د مالویر چلند توضیحات)، ډیر دقیق او هدفمند دفاع فعالوي ( په سایبر امنیت کې جنریټیو AI څه شی دی؟ - پالو الټو شبکې ).
-
د تکراري دندو اتومات کول: جنریټیو AI د معمول، کار-ژور امنیتي دندو اتومات کولو کې غوره دی - د لاګونو له لارې د ګډولو او راپورونو راټولولو څخه د پیښو غبرګون سکریپټونو لیکلو پورې. دا اتومات کول د انسان شنونکو باندې بار کموي ، دوی ته اجازه ورکوي چې د لوړې کچې ستراتیژۍ او پیچلي پریکړې کولو باندې تمرکز وکړي ( په سایبر امنیت کې جنریټیو AI څه شی دی؟ - پالو الټو شبکې ). غیر معمولي مګر مهم کارونه لکه د زیان مننې سکین کول، د ترتیب تفتیش، د کارونکي فعالیت تحلیل، او د اطاعت راپور ورکول د AI لخوا اداره کیدی شي (یا لږترلږه لومړی مسوده شوی). د ماشین سرعت سره د دې دندو اداره کولو سره، AI نه یوازې موثریت ښه کوي بلکه د انسان تېروتنه هم کموي (د سرغړونو یو مهم فاکتور).
-
فعال دفاع او سمولیشن: تولیدي AI سازمانونو ته اجازه ورکوي چې له فعال امنیت څخه فعال امنیت ته بدلون ورکړي. د برید سمولیشن، مصنوعي معلوماتو تولید، او سناریو پر بنسټ روزنې په څیر تخنیکونو له لارې، مدافعین کولی شي د ګواښونو اټکل او چمتووالی ونیسي مخکې لدې چې دوی په ریښتینې نړۍ کې رامینځته شي. امنیتي ټیمونه کولی شي د سایبري بریدونو (د فشینګ کمپاینونه، د مالویر خپریدل، DDoS، او نور) په خوندي چاپیریال کې تقلید کړي ترڅو خپل غبرګونونه و ازمويي او هر ډول کمزورتیاوې له منځه یوسي. دا دوامداره روزنه، چې ډیری وختونه د یوازې انساني هڅو سره په بشپړ ډول ترسره کول ناممکن دي، دفاع تیز او تازه ساتي. دا د سایبر "اور وژنې تمرین" ته ورته دی - AI کولی شي ستاسو دفاع ته ډیری فرضي ګواښونه وغورځوي ترڅو تاسو تمرین او وده وکړئ.
-
د بشري تخصص لوړول (AI د ځواک ضرب کونکي په توګه): جنریټیو AI د یو نه ستړي کیدونکي ځوان شنونکي، سلاکار او مرستیال په توګه کار کوي چې په یوه کې راټول شوي. دا کولی شي د ټیم لږ تجربه لرونکو غړو ته لارښوونې او سپارښتنې چمتو کړي چې معمولا د تجربه لرونکو متخصصینو څخه تمه کیږي، په مؤثره توګه په ټوله ټیم کې تخصص ډیموکراتیک کړي په سایبر امنیت کې د جنریټیو AI لپاره 6 کارول قضیې [+ مثالونه] ). دا په ځانګړي ډول د سایبر امنیت کې د استعداد کمښت ته په پام سره ارزښتناکه ده - AI د کوچنیو ټیمونو سره مرسته کوي چې په لږ سره ډیر څه وکړي. له بلې خوا، تجربه لرونکي شنونکي د AI څخه ګټه پورته کوي چې د ګرنټ کار اداره کوي او غیر څرګند بصیرتونه راپورته کوي، کوم چې دوی بیا تایید کولی شي او عمل کولی شي. ټولیزه پایله د امنیت ټیم دی چې خورا ډیر ګټور او وړ دی، د AI سره د هر انساني غړي اغیز پراخوي ( په سایبر امنیت کې څنګه جنریټیو AI کارول کیدی شي ).
-
د پریکړې ملاتړ او راپور ورکولو ته وده ورکول: د طبیعي ژبې بصیرتونو ته د تخنیکي معلوماتو په ژباړلو سره، تولیدي AI اړیکه او پریکړه کول ښه کوي. د امنیت مشران د AI لخوا رامینځته شوي لنډیزونو له لارې مسلو ته روښانه لید ترلاسه کوي او کولی شي د خام معلوماتو تحلیل کولو ته اړتیا پرته باخبره ستراتیژیک پریکړې وکړي. په ورته ډول، متقابل اړیکه (اجرایوي رییسانو، اطاعت افسرانو، او نورو ته) ښه کیږي کله چې AI د امنیت دریځ او پیښو په اړه د پوهیدو لپاره اسانه راپورونه چمتو کوي ( په سایبر امنیت کې څنګه تولیدي AI کارول کیدی شي؟ 10 ریښتینې نړۍ مثالونه ). دا نه یوازې د مشرتابه په کچه د امنیت مسلو باندې باور او سمون رامینځته کوي بلکه د خطرونو او AI لخوا کشف شوي تشو په روښانه ډول بیانولو سره د پانګوونې او بدلونونو توجیه کولو کې هم مرسته کوي.
په ګډه، دا ګټې پدې معنی دي چې هغه سازمانونه چې په سایبر امنیت کې د تولیدي AI څخه ګټه پورته کوي کولی شي د احتمالي ټیټ عملیاتي لګښتونو سره قوي امنیتي حالت ترلاسه کړي. دوی کولی شي هغو ګواښونو ته ځواب ووایی چې پخوا ډیر وو، هغه تشې پوښي چې نه څارل کیدې، او په دوامداره توګه د AI لخوا پرمخ وړل شوي فیډبیک لوپونو له لارې وده کوي. په نهایت کې، تولیدي AI سرعت، پیمانه او پیچلتیا سره د مساوي پیچلي دفاع سره سمون کولو سره د مخالفینو څخه مخکې کیدو فرصت وړاندې کوي. لکه څنګه چې یوې سروې موندلې، د سوداګرۍ او سایبر مشرانو نیمایي څخه ډیر د تولیدي AI کارولو له لارې د ګړندي ګواښ کشف او دقت زیاتوالي تمه لري ( [PDF] د نړیوال سایبر امنیت لید 2025 | نړیوال اقتصادي فورم ) ( په سایبر امنیت کې تولیدي AI: د LLM جامع بیاکتنه ... ) - د دې ټیکنالوژیو ګټو شاوخوا خوشبینۍ لپاره یو ثبوت.
په سایبري امنیت کې د جنریټيو AI کارولو خطرونه او ننګونې
که څه هم فرصتونه د پام وړ دي، خو دا مهمه ده چې د سایبر امنیت په برخه کې د تولیدي مصنوعي ذهانت سره د خطرونو او ننګونو . په مصنوعي ذهانت ړوند باور کول یا د هغې ناوړه ګټه اخیستنه کولی شي نوي زیانونه معرفي کړي. لاندې، موږ د هر یو لپاره د شرایطو سره سم لویې اندیښنې او خطرونه په ګوته کوو:
-
د سایبري مجرمینو لخوا د مخالف استعمال: هغه تولیدي وړتیاوې چې مدافعینو سره مرسته کوي کولی شي بریدګرو ته ځواک ورکړي. د ګواښ عاملین لا دمخه د جنراتور مصنوعي ذهانت څخه کار اخلي ترڅو ډیر قانع کونکي فشینګ بریښنالیکونه جوړ کړي، جعلي شخصیتونه او د ټولنیز انجینرۍ لپاره ژور جعلي ویډیوګانې رامینځته کړي، پولیمورفیک مالویر رامینځته کړي چې په دوامداره توګه د کشف څخه د تیښتې لپاره بدلیږي، او حتی د هیک کولو اړخونه اتومات کړي ( په سایبري امنیت کې جنراتور مصنوعي ذهانت څه شی دی؟ - پالو الټو شبکې ). د سایبري امنیت نږدې نیمایي (46٪) مشران اندیښمن دي چې جنراتور مصنوعي ذهانت به د ډیرو پرمختللو مخالفو بریدونو لامل شي ( جنراتور مصنوعي ذهانت امنیت: رجحانات، ګواښونه او د کمولو ستراتیژۍ ). دا "د مصنوعي ذهانت د وسلو سیالي" پدې معنی ده چې لکه څنګه چې مدافعین مصنوعي ذهانت غوره کوي، برید کونکي به ډیر شاته نه وي (په حقیقت کې، دوی ممکن په ځینو برخو کې مخکې وي، د غیر منظم مصنوعي ذهانت وسیلو په کارولو سره). سازمانونه باید د مصنوعي ذهانت لوړ شوي ګواښونو لپاره چمتو وي چې ډیر ځله، پیچلي او د موندلو لپاره ستونزمن وي.
-
د مصنوعي ذهانت وهمونه او ناسموالی: د مصنوعي ذهانت تولیدونکي ماډلونه کولی شي هغه پایلې تولید کړي چې د منلو وړ وي مګر غلط یا ګمراه کونکي وي - یوه پدیده چې د ذهني ذهانت په نوم پیژندل کیږي. په امنیتي شرایطو کې، مصنوعي ذهانت ممکن یوه پیښه تحلیل کړي او په غلطۍ سره پایله وکړي چې یو ځانګړی زیان منونکی لامل و، یا دا ممکن د درملنې یو غلط سکریپټ رامینځته کړي چې د برید مخه ونیسي. دا غلطۍ خطرناک کیدی شي که چیرې په مخ ارزښت کې واخیستل شي. لکه څنګه چې د NTT ډیټا خبرداری ورکوي، "د مصنوعي ذهانت ممکن په احتمالي توګه غلط مینځپانګه تولید کړي، او دا پدیده د ذهني ذهانت په نوم یادیږي ... اوس مهال د دوی په بشپړ ډول له منځه وړل ګران دي" ( د مصنوعي ذهانت او ضد اقداماتو امنیتي خطرونه، او د سایبر امنیت باندې د هغې اغیز | د NTT ډیټا ګروپ ). د تایید پرته په مصنوعي ذهانت ډیر تکیه کولی شي غلط لارښوونې هڅې یا د امنیت غلط احساس رامینځته کړي. د مثال په توګه، مصنوعي ذهانت ممکن په غلط ډول یو مهم سیسټم خوندي وګڼي کله چې دا نه وي، یا په برعکس، د یوې سرغړونې "کشف" کولو سره ویره رامینځته کړي چې هیڅکله نه وه شوې. د مصنوعي ذهانت سخت تایید او د مهمو پریکړو لپاره په لوپ کې د انسانانو درلودل د دې خطر کمولو لپاره اړین دي.
-
غلط مثبت او منفي اړخونه: د وهم سره تړاو لري، که چیرې د AI ماډل په سمه توګه روزل شوی یا تنظیم شوی نه وي، نو دا ممکن د بد فعالیت ډیر راپور ورکړي لکه ناوړه (غلط مثبت) یا بدتر، اصلي ګواښونه له لاسه ورکړي (غلط منفي اړخونه) ( په سایبر امنیت کې د تولیدي AI څنګه کارول کیدی شي ). ډیر غلط خبرتیاوې کولی شي امنیتي ټیمونه مغشوش کړي او د خبرتیا ستړیا لامل شي (د AI ژمنه شوې موثریت لاسته راوړنې له مینځه وړل)، پداسې حال کې چې ورک شوي کشفونه سازمان افشا پریږدي. د سم توازن لپاره د تولیدي ماډلونو تنظیم کول ننګونکي دي. هر چاپیریال ځانګړی دی، او AI ممکن سمدلاسه د بکس څخه بهر په غوره توګه فعالیت ونکړي. دوامداره زده کړه هم دوه اړخیزه توره ده - که چیرې AI د هغه فیډبیک څخه زده کړي چې پیچلی وي یا د هغه چاپیریال څخه چې بدلون مومي، د هغې دقت کولی شي بدلون ومومي. امنیتي ټیمونه باید د AI فعالیت وڅاري او حدونه تنظیم کړي یا ماډلونو ته اصلاحي فیډبیک چمتو کړي. په لوړ پوړو شرایطو کې (لکه د مهمو زیربناوو لپاره د مداخلې کشف)، دا ممکن هوښیار وي چې د AI وړاندیزونه د یوې مودې لپاره د موجوده سیسټمونو سره موازي پرمخ بوځي، ترڅو ډاډ ترلاسه شي چې دوی د شخړې پرځای سمون او بشپړوي.
-
د معلوماتو محرمیت او لیک: د تولیدي AI سیسټمونه ډیری وختونه د روزنې او عملیاتو لپاره لوی مقدار ډیټا ته اړتیا لري. که چیرې دا ماډلونه په کلاوډ کې میشته وي یا په سمه توګه نه وي تړل شوي، نو د دې خطر شتون لري چې حساس معلومات لیک شي. کاروونکي ممکن په ناڅاپي ډول د ملکیت ډیټا یا شخصي ډیټا د AI خدماتو ته تغذیه کړي (فکر وکړئ چې د ChatGPT څخه د محرم پیښې راپور لنډیز کولو غوښتنه وکړئ)، او دا ډیټا د ماډل د پوهې برخه کیدی شي. په حقیقت کې، یوې وروستۍ څیړنې وموندله چې د تولیدي AI وسیلو ته 55٪ ان پټونه حساس یا شخصي پیژندل شوي معلومات لري ، چې د معلوماتو لیکیدو په اړه جدي اندیښنې راپورته کوي ( د تولیدي AI امنیت: رجحانات، ګواښونه او د کمولو ستراتیژۍ ). سربیره پردې، که چیرې یو AI د داخلي معلوماتو په اړه روزل شوی وي او په ځینو لارو کې پوښتنه کیږي، نو دا ممکن وسپاري . سازمانونه باید د معلوماتو اداره کولو سختې پالیسۍ پلي کړي (د بیلګې په توګه د حساس موادو لپاره د پریمیس یا شخصي AI مثالونو کارول) او کارمندانو ته د عامه AI وسیلو کې د پټو معلوماتو نه پیسټ کولو په اړه روزنه ورکړي. د محرمیت مقررات (GDPR، او نور) هم پلي کیږي - د مناسب رضایت یا محافظت پرته د مصنوعي ذهانت روزنې لپاره د شخصي معلوماتو کارول ممکن د قوانینو څخه سرغړونه وي.
-
د ماډل امنیت او لاسوهنه: د تولیدي AI ماډلونه پخپله هدف ګرځیدلی شي. مخالفین ممکن د ماډل مسموم کولو ، د روزنې یا بیا روزنې مرحلې په جریان کې ناوړه یا ګمراه کونکي معلومات تغذیه کړي ترڅو AI غلط نمونې زده کړي ( په سایبر امنیت کې د تولیدي AI څنګه کارول کیدی شي ). د مثال په توګه، یو بریدګر ممکن په پټه توګه د ګواښ انټل ډیټا مسموم کړي ترڅو AI د برید کونکي خپل مالویر د ناوړه په توګه ونه پیژني. بله تاکتیک د چټک انجیکشن یا د محصول لاسوهنه ده، چیرې چې بریدګر AI ته د معلوماتو صادرولو لپاره یوه لاره ومومي چې دا په غیر ارادي ډول چلند کوي - شاید د هغې د خوندیتوب ساتونکي له پامه غورځول یا هغه معلومات ښکاره کول چې باید نه وي (لکه داخلي اشارې یا معلومات). سربیره پردې، د ماډل د تیښتې : برید کونکي په ځانګړي ډول د AI د غولولو لپاره ډیزاین شوي ان پټ چمتو کوي. موږ دا په مخالف مثالونو کې ګورو - یو څه ګډوډ معلومات چې یو انسان نورمال ګڼي مګر AI غلط طبقه بندي کوي. د مصنوعي ذهانت د اکمالاتو سلسله خوندي کول (د معلوماتو بشپړتیا، د ماډل لاسرسي کنټرول، د مخالف قوي کیدو ازموینه) د دې وسیلو په ځای پر ځای کولو سره د سایبر امنیت یوه نوې مګر اړینه برخه ده ( په سایبر امنیت کې تولیدي مصنوعي ذهانت څه شی دی؟ - پالو الټو شبکې ).
-
د ډېر تکیه او مهارت له منځه وړل: یو نرم خطر شتون لري چې سازمانونه کولی شي په مصنوعي ذهانت باندې ډیر تکیه وکړي او د انسان مهارتونه کم کړي. که چیرې ځوان شنونکي په ړوند ډول د مصنوعي ذهانت په محصولاتو باور وکړي، نو دوی ممکن هغه انتقادي فکر او وجدان رامینځته نه کړي چې د مصنوعي ذهانت د شتون یا غلطۍ په وخت کې ورته اړتیا وي. یوه سناریو چې باید مخنیوی یې وشي هغه امنیتي ټیم دی چې عالي وسایل لري مګر هیڅ نه پوهیږي چې څنګه کار وکړي که چیرې دا وسایل کم شي (د پیلوټانو په څیر چې په اتوماتیک ډول ډیر تکیه کوي). د مصنوعي ذهانت مرستې پرته منظم روزنیز تمرینونه او د دې ذهنیت رامینځته کول چې مصنوعي ذهانت یو مرستیال دی، نه یو بې عیب اوریکل، د انساني شنونکو د ګړندي ساتلو لپاره مهم دي. انسانان باید وروستي پریکړه کونکي پاتې شي، په ځانګړي توګه د لوړ اغیزو قضاوتونو لپاره.
-
اخلاقي او د اطاعت ننګونې: په سایبر امنیت کې د مصنوعي ذهانت کارول اخلاقي پوښتنې راپورته کوي او کولی شي د تنظیمي اطاعت مسلې رامینځته کړي. د مثال په توګه، که چیرې د مصنوعي ذهانت سیسټم په غلط ډول یو کارمند د یوې بې نظمۍ له امله د ناوړه داخلي په توګه ښکیل کړي، نو دا کولی شي په غیر عادلانه ډول د هغه کس شهرت یا مسلک ته زیان ورسوي. د مصنوعي ذهانت لخوا نیول شوي پریکړې مبهم کیدی شي (د "تور بکس" ستونزه)، چې پلټونکو یا تنظیم کونکو ته دا تشریح کول ستونزمن کوي چې ولې ځینې اقدامات ترسره شوي. لکه څنګه چې د مصنوعي ذهانت لخوا تولید شوي مینځپانګې ډیرې عامې کیږي، د شفافیت ډاډمن کول او د حساب ورکولو ساتل خورا مهم دي. تنظیم کونکي د مصنوعي ذهانت پلټنه پیل کوي - د مثال په توګه، د اروپايي اتحادیې د مصنوعي ذهانت قانون به د "لوړ خطر" مصنوعي ذهانت سیسټمونو باندې اړتیاوې وضع کړي، او د سایبر امنیت مصنوعي ذهانت ممکن پدې کټګورۍ کې راشي. شرکتونه به اړتیا ولري چې دا مقررات تعقیب کړي او ممکن د NIST AI د خطر مدیریت چوکاټ په څیر معیارونو ته غاړه کیږدي ترڅو د تولیدي ذهانت مسؤلیت سره وکاروي ( څنګه کولی شي په سایبر امنیت کې تولیدي ذهانت وکارول شي؟ 10 ریښتینې نړۍ مثالونه ). اطاعت د جواز ورکولو پورې هم غځیږي: د خلاصې سرچینې یا دریمې ډلې ماډلونو کارول ممکن داسې شرایط ولري چې ځینې کارونې محدودوي یا د شریکولو ښه والي ته اړتیا لري.
په لنډه توګه، تولیدي AI د سپینو زرو ګولۍ نه ده - که چیرې په احتیاط سره پلي نشي، نو دا کولی شي نوي کمزورتیاوې معرفي کړي حتی لکه څنګه چې دا نور حل کوي. د 2024 نړیوال اقتصادي فورم مطالعې روښانه کړه چې ~ 47٪ سازمانونه د برید کونکو لخوا د تولیدي AI پرمختګونه د لومړنۍ اندیښنې په توګه یادوي، چې دا "د تولیدي AI ترټولو اندیښنه اغیزه" کوي ( [PDF] د نړیوال سایبر امنیت لید 2025 | نړیوال اقتصادي فورم ) ( په سایبر امنیت کې تولیدي AI: د LLM جامع بیاکتنه ... ). له همدې امله سازمانونه باید متوازن چلند غوره کړي: د AI ګټې ګټه پورته کړئ پداسې حال کې چې د حکومتدارۍ، ازموینې او بشري څارنې له لارې دا خطرونه په کلکه اداره کړئ. موږ به وروسته په دې بحث وکړو چې څنګه په عملي توګه دا توازن ترلاسه کړو.
د راتلونکي لید: د سایبر امنیت په برخه کې د جنریټي مصنوعي ذهانت مخ په ودې رول
په راتلونکي کې، تولیدي مصنوعي ذهانت د سایبر امنیت ستراتیژۍ یوه نه بېلېدونکې برخه ګرځېدو ته چمتو دی - او په ورته ډول، یوه وسیله چې د سایبر مخالفین به یې ګټه پورته کولو ته دوام ورکړي. د پیشو او موږک متحرک به ګړندی شي، د AI سره د کټارې په دواړو خواوو کې. دلته ځینې راتلونکي لیدونه دي چې څنګه تولیدي مصنوعي ذهانت ممکن په راتلونکو کلونو کې د سایبر امنیت بڼه ورکړي:
-
د مصنوعي ذهانت سره سمبال سایبري دفاع معیاري کیږي: تر ۲۰۲۵ او له هغه وروسته، موږ تمه کولی شو چې ډیری منځني او لوی سازمانونه به د مصنوعي ذهانت سره سمبال وسایل په خپلو امنیتي عملیاتو کې شامل کړي. لکه څنګه چې نن ورځ انټي ویروس او فایر والونه معیاري دي، د مصنوعي ذهانت شریک پیلوټان او د بې نظمۍ کشف سیسټمونه ممکن د امنیتي جوړښتونو اساسي برخې شي. دا وسایل به احتمالاً ډیر متخصص شي - د مثال په توګه، د کلاوډ امنیت لپاره ځانګړي مصنوعي ذهانت ماډلونه، د IoT وسیلو څارنې لپاره، د غوښتنلیک کوډ امنیت لپاره، او داسې نور، ټول په ګډه کار کوي. لکه څنګه چې یوه وړاندوینه یادونه کوي، "په ۲۰۲۵ کې، تولیدي مصنوعي ذهانت به د سایبري امنیت لپاره لازمي وي، سازمانونو ته به وړتیا ورکړي چې د پیچلو او پرمختللي ګواښونو په وړاندې په فعاله توګه دفاع وکړي" ( څنګه کولی شي په سایبري امنیت کې تولیدي مصنوعي ذهانت وکارول شي ). مصنوعي ذهانت به د ریښتیني وخت ګواښ کشف ته وده ورکړي، ډیری غبرګوني کړنې اتومات کړي، او د امنیتي ټیمونو سره به د دوی په پرتله د معلوماتو خورا لوی مقدار اداره کولو کې مرسته وکړي.
-
دوامداره زده کړه او تطابق: په سایبر کې راتلونکي تولیدونکي مصنوعي ذهانت سیسټمونه به په چټکۍ سره زده کړه وکړي ، او په نږدې ریښتیني وخت کې به د دوی د پوهې اساس تازه کړي. دا کولی شي د ریښتیني تطبیقي دفاع لامل شي - تصور وکړئ یو مصنوعي ذهانت چې د سهار په وخت کې د بل شرکت سره د نوي فشینګ کمپاین په اړه زده کړه کوي او د ماسپښین لخوا دمخه ستاسو د شرکت بریښنالیک فلټرونه په ځواب کې تنظیم کړي دي. د کلاوډ پر بنسټ مصنوعي ذهانت امنیتي خدمات ممکن د دې ډول ډله ایزې زده کړې اسانتیا برابر کړي، چیرې چې د یوې ادارې څخه نامعلوم بصیرتونه ټولو پیرودونکو ته ګټه رسوي (د ګواښ استخباراتي شریکولو ته ورته، مګر اتومات). په هرصورت، دا به محتاط چلند ته اړتیا ولري ترڅو د حساسو معلوماتو شریکولو څخه مخنیوی وشي او د برید کونکو مخه ونیول شي چې شریک شوي ماډلونو ته خراب معلومات ورکړي.
-
د مصنوعي ذهانت او سایبر امنیت د استعدادونو همغږي: د سایبر امنیت مسلکيانو مهارتونه به د مصنوعي ذهانت او معلوماتو ساینس کې مهارت شاملولو لپاره وده وکړي. لکه څنګه چې د نن ورځې شنونکي د پوښتنې ژبې او سکریپټینګ زده کوي، د سبا شنونکي ممکن په منظم ډول د مصنوعي ذهانت ماډلونه ښه تنظیم کړي یا د مصنوعي ذهانت د اجرا کولو لپاره "لوبې کتابونه" ولیکي. موږ ممکن د "AI امنیت روزونکی" یا "د سایبر امنیت AI انجینر" - هغه خلک چې د یوې ادارې اړتیاو سره د مصنوعي ذهانت وسیلو تطبیقولو، د دوی فعالیت تاییدولو، او ډاډ ترلاسه کولو کې تخصص لري چې دوی په خوندي ډول کار کوي. له بلې خوا، د سایبر امنیت ملاحظات به په زیاتیدونکي توګه د مصنوعي ذهانت پراختیا اغیزه وکړي. د مصنوعي ذهانت سیسټمونه به د امنیتي ځانګړتیاو سره جوړ شي (خوندي جوړښت، د لاسوهنې کشف، د مصنوعي ذهانت پریکړو لپاره د پلټنې لاګونه، او نور)، او د باور وړ مصنوعي ذهانت (عادلانه، تشریح وړ، قوي، او خوندي) به د امنیتي مهمو شرایطو کې د دوی ځای پرځای کولو ته لارښوونه وکړي.
-
نور پیچلي AI-ځواکمن بریدونه: له بده مرغه، د ګواښ منظره به هم د AI سره وده وکړي. موږ د AI ډیر ځله کارولو تمه کوو ترڅو د صفر ورځې زیان منونکي کشف کړو، د لوړ هدف لرونکي سپیر فشینګ رامینځته کړو (د مثال په توګه AI د ټولنیزو رسنیو سکریپ کول ترڅو په بشپړ ډول مناسب بیت رامینځته کړي)، او د قانع کونکي ژور جعلي غږونه یا ویډیوګانې رامینځته کړي ترڅو د بایومیټریک تصدیق څخه تیر شي یا درغلۍ ترسره کړي. اتوماتیک هیکینګ اجنټان ممکن راڅرګند شي چې کولی شي په خپلواکه توګه د څو مرحلو بریدونه (تحقیق، استحصال، اړخ حرکت، او نور) د لږترلږه انساني څارنې سره ترسره کړي. دا به مدافعین فشار راوړي چې په AI باندې هم تکیه وکړي - په اصل کې اتوماتیک د اتوماتیک په مقابل کې . ځینې بریدونه ممکن د ماشین سرعت کې واقع شي، لکه د AI بوټونه د زرګونو فشینګ بریښنالیکونو هڅه کوي ترڅو وګوري چې کوم یو له فلټرونو څخه تیریږي. د سایبر دفاع به اړتیا ولري چې د ساتلو لپاره په ورته سرعت او انعطاف سره کار وکړي ( په سایبر امنیت کې تولیدي AI څه شی دی؟ - پالو الټو شبکې ).
-
په امنیت کې مقررات او اخلاقي مصنوعي ذهانت: لکه څنګه چې مصنوعي ذهانت په سایبر امنیت دندو کې ژور ځای پر ځای کیږي، نو د دې ډاډ ترلاسه کولو لپاره به ډیر تفتیش او احتمالي مقررات وي چې دا مصنوعي ذهانت سیسټمونه په مسؤلیت سره کارول کیږي. موږ کولی شو د امنیتي ذهانت لپاره ځانګړي چوکاټونه او معیارونه تمه وکړو. حکومتونه ممکن د شفافیت لپاره لارښوونې رامینځته کړي - د مثال په توګه، اړتیا لري چې د پام وړ امنیتي پریکړې (لکه د شکمن ناوړه فعالیت لپاره د کارمند لاسرسی پای ته رسول) یوازې د مصنوعي ذهانت لخوا د انساني بیاکتنې پرته نشي کیدی. ممکن د مصنوعي ذهانت د امنیت محصولاتو لپاره تصدیقونه هم وي، ترڅو پیرودونکو ته ډاډ ورکړي چې مصنوعي ذهانت د تعصب، پیاوړتیا او خوندیتوب لپاره ارزول شوی. سربیره پردې، نړیواله همکاري ممکن د مصنوعي ذهانت پورې اړوند سایبر ګواښونو شاوخوا وده وکړي؛ د مثال په توګه، د مصنوعي ذهانت لخوا رامینځته شوي غلط معلومات یا د مصنوعي ذهانت لخوا پرمخ وړل شوي سایبر وسلو په وړاندې نورمونو اداره کولو تړونونه.
-
د پراخو مصنوعي ذهانت او معلوماتي ټکنالوژۍ ایکوسیستمونو سره یوځای کول: په سایبر امنیت کې تولیدي مصنوعي ذهانت به احتمالاً د نورو مصنوعي ذهانت سیسټمونو او معلوماتي ټکنالوژۍ مدیریت وسیلو سره یوځای شي. د مثال په توګه، یو مصنوعي ذهانت چې د شبکې اصلاح اداره کوي کولی شي د امنیتي مصنوعي ذهانت سره کار وکړي ترڅو ډاډ ترلاسه کړي چې بدلونونه نیمګړتیاوې نه پرانیزي. د مصنوعي ذهانت لخوا پرمخ وړل شوي سوداګریز تحلیلونه ممکن د امنیتي مصنوعي ذهانت سره معلومات شریک کړي ترڅو بې نظمۍ سره اړیکه ونیسي (لکه د برید له امله د احتمالي ویب پاڼې مسلې سره د پلور ناڅاپي کمښت). په اصل کې، مصنوعي ذهانت به په سیلو کې ژوند ونکړي - دا به د یوې ادارې د عملیاتو د لوی هوښیار جوړښت برخه وي. دا د هولیسټیک خطر مدیریت لپاره فرصتونه پرانیزي چیرې چې عملیاتي معلومات، د ګواښ معلومات، او حتی فزیکي امنیتي معلومات د مصنوعي ذهانت لخوا یوځای کیدی شي ترڅو د سازماني امنیتي حالت 360 درجې لید ورکړي.
په اوږد مهال کې، هیله دا ده چې تولیدي مصنوعي ذهانت به د مدافعینو په ګټه توازن ته د رسیدو کې مرسته وکړي. د عصري معلوماتي ټکنالوژۍ چاپیریالونو د پیمانه او پیچلتیا په اداره کولو سره، مصنوعي ذهانت کولی شي سایبر سپیس ډیر دفاع وړ کړي. په هرصورت، دا یو سفر دی، او د مخ په زیاتیدونکي دردونو سره به مخ شي ځکه چې موږ دا ټیکنالوژي اصلاح کوو او په مناسب ډول باور کول زده کوو. هغه سازمانونه چې خبر پاتې کیږي او د د مسؤل مصنوعي ذهانت احتمال لري هغه کسان وي چې د راتلونکي ګواښونو سره د مقابلې لپاره غوره موقعیت لري.
لکه څنګه چې د ګارټینر د سایبر امنیت وروستي رجحاناتو راپور یادونه کړې، "د تولیدي AI کارولو قضیو (او خطرونو) راڅرګندیدل د بدلون لپاره فشار رامینځته کوي" ( د سایبر امنیت رجحانات: د بدلون له لارې انعطاف - ګارټینر ). هغه کسان چې تطابق کوي به AI د یو ځواکمن متحد په توګه وکاروي؛ هغه کسان چې وروسته پاتې دي ممکن ځانونه د AI ځواکمنو مخالفینو لخوا له پامه وغورځوي. راتلونکي څو کلونه به د دې تعریف کولو لپاره یو مهم وخت وي چې AI څنګه د سایبر جګړې ډګر بیا شکل ورکوي.
په سایبر امنیت کې د تولیدي مصنوعي ذهانت د غوره کولو لپاره عملي لارښوونې
د هغو سوداګرو لپاره چې د سایبر امنیت ستراتیژۍ کې د تولیدي AI څخه د ګټې اخیستنې ارزونه کوي، دلته ځینې عملي لارښوونې او سپارښتنې چې د مسؤلیت او مؤثره اختیار لارښوونه وکړي:
-
د زده کړې او روزنې سره پیل وکړئ: ډاډ ترلاسه کړئ چې ستاسو امنیتي ټیم (او د معلوماتي ټکنالوژۍ پراخه کارمندان) پوهیږي چې تولیدي AI څه کولی شي او څه نشي کولی. د AI لخوا پرمخ وړل شوي امنیتي وسیلو اساساتو په اړه روزنه ورکړئ او د امنیت پوهاوي پروګرامونه . د مثال په توګه، کارمندانو ته زده کړئ چې څنګه AI کولی شي خورا قانع کونکي فشینګ سکیمونه او ژور جعلي زنګونه رامینځته کړي. په ورته وخت کې، کارمندانو ته د دوی په کار کې د AI وسیلو خوندي او تصویب شوي کارونې په اړه روزنه ورکړئ. ښه باخبره کاروونکي لږ احتمال لري چې AI غلط اداره کړي یا د AI پرمختللي بریدونو قرباني شي ( څنګه کولی شي تولیدي AI په سایبر امنیت کې وکارول شي؟ 10 ریښتینې نړۍ مثالونه ).
-
د مصنوعي ذهانت د کارولو واضحې پالیسۍ تعریف کړئ: د تولیدي ذهانت سره د هرې پیاوړې ټیکنالوژۍ په څیر چلند وکړئ - د حکومتدارۍ سره. داسې پالیسۍ رامینځته کړئ چې مشخص کړي چې څوک کولی شي د مصنوعي ذهانت وسایل وکاروي، کوم وسایل تصویب شوي، او د کومو موخو لپاره. د حساسو معلوماتو اداره کولو په اړه لارښوونې شامل کړئ (د بیلګې په توګه د محرم معلوماتو نه ورکول ) ترڅو د لیکونو مخه ونیسي. د مثال په توګه، تاسو ممکن یوازې د امنیتي ټیم غړو ته اجازه ورکړئ چې د پیښې غبرګون لپاره د داخلي مصنوعي ذهانت مرستیال وکاروي، او بازار موندنه کولی شي د مینځپانګې لپاره تایید شوی مصنوعي ذهانت وکاروي - نور هرڅوک محدود دي. ډیری سازمانونه اوس په خپلو معلوماتي ټکنالوژۍ پالیسیو کې په څرګنده توګه د تولیدي ذهانت په اړه خبرې کوي، او مخکښ معیاري ادارې د مستقیم بندیزونو پرځای د خوندي کارونې پالیسۍ هڅوي ( څنګه کولی شي په سایبر امنیت کې تولیدي ذهانت وکارول شي؟ 10 ریښتینې نړۍ مثالونه ). ډاډ ترلاسه کړئ چې دا قواعد او د دوی تر شا دلیل ټولو کارمندانو ته واستوئ.
-
د "شیډو AI" او د څارنې کارول کم کړئ: د سیډو IT په څیر، "شیډو AI" هغه وخت رامینځته کیږي کله چې کارمندان د IT له پوهې پرته د AI وسیلو یا خدماتو کارول پیل کړي (د بیلګې په توګه یو پراختیا کونکی چې د غیر مجاز AI کوډ معاون کاروي). دا کولی شي نه لیدل شوي خطرونه معرفي کړي. د غیر مجاز AI کارونې کشف او کنټرول . د شبکې څارنه کولی شي د مشهور AI APIs سره اړیکې په نښه کړي، او سروې یا د وسیلو پلټنې کولی شي هغه څه کشف کړي چې کارمندان یې کاروي. تصویب شوي بدیلونه وړاندې کړئ ترڅو ښه معنی لرونکي کارمندان د بدمعاش کیدو لپاره لیوالتیا ونلري (د مثال په توګه، که خلک ګټور ومومي نو د رسمي ChatGPT انټرپرائز حساب چمتو کړئ). د AI کارول په رڼا کې راوستلو سره، امنیتي ټیمونه کولی شي خطر ارزونه او اداره کړي. څارنه هم کلیدي ده - د AI وسیلو فعالیتونه او محصولات څومره چې امکان ولري ثبت کړئ، نو د هغو پریکړو لپاره د پلټنې لاره شتون لري چې AI اغیزمن کړي ( په سایبر امنیت کې څنګه تولیدي AI کارول کیدی شي؟ 10 ریښتینې نړۍ مثالونه ).
-
له مصنوعي ذهانت څخه په دفاعي ډول ګټه پورته کړئ - شاته مه ځه: دا ومنئ چې بریدګر به مصنوعي ذهانت وکاروي، نو ستاسو دفاعي ځواک هم باید وي. یو څو لوړ اغیز لرونکي ساحې وپیژنئ چیرې چې تولیدي مصنوعي ذهانت کولی شي سمدلاسه ستاسو د امنیتي عملیاتو سره مرسته وکړي (ښایي د خبرتیا ټریج، یا اتوماتیک لاګ تحلیل) او د پیلوټ پروژې پرمخ بوځي. د ګړندي حرکت کونکو ګواښونو سره د مقابلې لپاره د مصنوعي ذهانت سرعت او پیمانه سره خپل دفاع زیاته کړئ په سایبر امنیت کې د مصنوعي ذهانت څنګه کارول کیدی شي؟ 10 ریښتینې نړۍ مثالونه ). حتی ساده ادغامونه، لکه د مصنوعي ذهانت کارول د مالویر راپورونو لنډیز کولو یا د ګواښ د ښکار پوښتنو رامینځته کولو لپاره، کولی شي د شنونکو ساعتونه خوندي کړي. کوچني پیل وکړئ، پایلې ارزونه وکړئ، او تکرار کړئ. بریالیتوبونه به د مصنوعي ذهانت پراخه تطبیق لپاره قضیه رامینځته کړي. هدف دا دی چې د ځواک ضرب کونکي په توګه د AI څخه کار واخلئ - د مثال په توګه، که چیرې د فشینګ بریدونه ستاسو د مرستې ډیسک باندې غالب وي، د مصنوعي ذهانت بریښنالیک طبقه بندي ځای په ځای کړئ ترڅو دا حجم په فعاله توګه کم کړئ.
-
په خوندي او اخلاقي مصنوعي ذهانت کړنو کې پانګونه وکړئ: کله چې تولیدي مصنوعي ذهانت پلي کوئ، د خوندي پراختیا او ځای پرځای کولو طریقې تعقیب کړئ. شخصي یا ځان کوربه شوي ماډلونه ترڅو د معلوماتو کنټرول وساتئ. که چیرې د دریمې ډلې مصنوعي ذهانت خدماتو څخه کار واخلئ، نو د دوی د امنیت او محرمیت اقدامات (کوډ کول، د معلوماتو ساتلو پالیسۍ، او نور) بیاکتنه وکړئ. د مصنوعي ذهانت د خطر مدیریت چوکاټونه (لکه د NIST د مصنوعي ذهانت د خطر مدیریت چوکاټ یا ISO/IEC لارښود) شامل کړئ ترڅو په سیستماتیک ډول ستاسو په مصنوعي ذهانت وسیلو کې د تعصب، وضاحت او پیاوړتیا په څیر شیان حل کړئ ( په سایبر امنیت کې د مصنوعي ذهانت څنګه کارول کیدی شي؟ 10 ریښتینې نړۍ مثالونه ). همدارنګه د ساتنې برخې په توګه د ماډل تازه معلوماتو / پیچونو لپاره پلان جوړ کړئ - د مصنوعي ذهانت ماډلونه کولی شي "زیانمنونکي" هم ولري (د مثال په توګه دوی ممکن بیا روزنې ته اړتیا ولري که چیرې دوی حرکت پیل کړي یا که په ماډل باندې د نوي ډول مخالف برید کشف شي). ستاسو د مصنوعي ذهانت کارولو کې د امنیت او اخلاقو په شاملولو سره، تاسو په پایلو باور رامینځته کوئ او د راپورته کیدونکو مقرراتو سره موافقت ډاډمن کوئ.
-
انسانان په لوپ کې وساتئ: د سایبر امنیت کې د انسان قضاوت سره د مرستې لپاره د مصنوعي ذهانت څخه کار واخلئ، نه په بشپړ ډول بدلولو لپاره. د پریکړې ټکي وټاکئ چیرې چې انساني تایید ته اړتیا وي (د مثال په توګه، یو مصنوعي ذهانت ممکن د پیښې راپور مسوده کړي، مګر یو شنونکی د ویشلو دمخه یې بیاکتنه کوي؛ یا مصنوعي ذهانت ممکن د کارونکي حساب بندولو وړاندیز وکړي، مګر یو انسان دا عمل تصویبوي). دا نه یوازې د مصنوعي ذهانت غلطیو مخه نیسي، بلکه ستاسو ټیم سره د مصنوعي ذهانت څخه زده کړه کې هم مرسته کوي او برعکس. د همکارۍ کاري فلو هڅونه وکړئ: شنونکي باید د مصنوعي ذهانت د محصولاتو په اړه پوښتنې کولو او د هوښیارۍ چکونو ترسره کولو کې آرام احساس کړي. د وخت په تیریدو سره، دا ډیالوګ کولی شي د مصنوعي ذهانت (د فیډبیک له لارې) او د شنونکو مهارتونه دواړه ښه کړي. په اصل کې، خپلې پروسې داسې ډیزاین کړئ چې مصنوعي ذهانت او انساني ځواک یو بل بشپړ کړي - مصنوعي ذهانت حجم او سرعت اداره کوي، انسانان ابهام او وروستۍ پریکړې اداره کوي.
-
اندازه کول، څارنه او تنظیم کول: په پای کې، خپل تولیدي AI وسایل د خپل امنیتي ایکوسیستم د ژوندیو برخو په توګه چلند وکړئ. په دوامداره توګه د دوی فعالیت اندازه کړئ - ایا دوی د پیښو غبرګون وختونه کموي؟ د ګواښونو دمخه نیول؟ د غلط مثبت نرخ رجحان څنګه دی؟ د ټیم څخه د نظر غوښتنه وکړئ: ایا د AI سپارښتنې ګټورې دي، یا دا شور رامینځته کوي؟ د ماډلونو د اصلاح کولو، د روزنې معلوماتو تازه کولو، یا د AI مدغم کیدو تنظیم کولو لپاره دا میټریکونه وکاروئ. د سایبر ګواښونه او سوداګرۍ اړتیاوې وده کوي، او ستاسو د AI ماډلونه باید په دوره ایز ډول تازه شي یا بیا روزل شي ترڅو اغیزمن پاتې شي. د ماډل حکومتدارۍ لپاره پلان ولرئ، پشمول د دې ساتنې مسؤلیت څوک دی او څو ځله یې بیاکتنه کیږي. د AI د ژوند دورې په فعاله توګه اداره کولو سره، تاسو ډاډ ترلاسه کوئ چې دا یو شتمني پاتې کیږي، نه مسؤلیت.
په پایله کې، تولیدي مصنوعي ذهانت کولی شي د سایبر امنیت وړتیاوې د پام وړ لوړې کړي، مګر بریالي تطبیق د فکر وړ پلان جوړونې او دوامداره څارنې ته اړتیا لري. هغه سوداګرۍ چې خپلو خلکو ته روزنه ورکوي، روښانه لارښوونې ټاکي، او مصنوعي ذهانت په متوازن، خوندي ډول مدغم کوي، د چټک، هوښیار ګواښ مدیریت جایزې به ترلاسه کړي. دا لارې چارې د سړک نقشه چمتو کوي: د مصنوعي ذهانت اتومات کولو سره د انساني تخصص یوځای کول، د حکومتدارۍ اساسات پوښل، او د مصنوعي ذهانت ټیکنالوژۍ او د ګواښ منظره دواړه په ناڅاپي ډول وده کوي، چټکتیا ساتل.
د دې عملي ګامونو په پورته کولو سره، سازمانونه کولی شي په ډاډ سره دې پوښتنې ته ځواب ووایی چې "څنګه په سایبر امنیت کې تولیدي مصنوعي ذهانت کارول کیدی شي؟" - نه یوازې په تیوري کې، بلکې په ورځني عمل کې - او په دې توګه زموږ په مخ په زیاتیدونکي ډیجیټل او مصنوعي ذهانت پرمختللې نړۍ کې خپل دفاع پیاوړې کړي. ( څنګه په سایبر امنیت کې تولیدي مصنوعي ذهانت کارول کیدی شي )
هغه سپین پاڼې چې تاسو یې له دې وروسته لوستل خوښوئ:
🔗 هغه دندې چې مصنوعي ذهانت یې نشي بدلولی او مصنوعي ذهانت به کومې دندې بدلې کړي؟
د نړیوال لید په اړه وپلټئ چې کوم رولونه د اتومات کولو څخه خوندي دي او کوم نه دي.
🔗 ایا مصنوعي ذهانت د ونډو بازار وړاندوینه کولی شي؟
د بازار د حرکتونو وړاندوینې لپاره د مصنوعي ذهانت د وړتیا په اړه محدودیتونو، پرمختګونو او افسانو ته یوه نږدې کتنه.
🔗 د انسان له مداخلې پرته جنریټيو مصنوعي ذهانت په څه تکیه کولی شي؟
پوه شئ چې مصنوعي ذهانت چیرته په خپلواکه توګه کار کولی شي او چیرې چې انساني څارنه لاهم اړینه ده.