د مصنوعي استخباراتو خطرناکه څېره چې سره ځلیدونکي سترګې لري د مصنوعي استخباراتو د تیاره اړخ سمبول دی.

ولې مصنوعي ذهانت بد دی؟ د مصنوعي ذهانت تیاره اړخ

سره له دې چې ډیری ګټې لري، مصنوعي ذهانت جدي خطرونه هم وړاندې کوي چې اخلاقي، اقتصادي او ټولنیزې اندیښنې راپورته کوي.

د دندې له بې ځایه کیدو څخه تر محرمیت سرغړونو پورې، د مصنوعي ذهانت چټک پرمختګ د هغې د اوږدمهاله پایلو په اړه بحثونه راپورته کوي. نو، ولې مصنوعي ذهانت بد دی؟ راځئ چې هغه مهم دلیلونه وپلټو چې ولې دا ټیکنالوژي تل ګټوره نه وي.

هغه مقالې چې تاسو یې له دې وروسته لوستل خوښولی شئ:

🔗 ولې مصنوعي ذهانت ښه دی؟ – د مصنوعي ذهانت ګټې او راتلونکی – زده کړئ چې مصنوعي ذهانت څنګه صنعتونه ښه کوي، تولید زیاتوي، او یو هوښیار راتلونکی جوړوي.

🔗 ایا مصنوعي ذهانت ښه دی که بد؟ – د مصنوعي ذهانت د ګټو او زیانونو سپړنه – په عصري ټولنه کې د مصنوعي ذهانت د ګټو او خطرونو په اړه متوازن نظر.


🔹 ۱. د دندې له لاسه ورکول او اقتصادي ګډوډي

د مصنوعي ذهانت یو له لویو نیوکو څخه په کارموندنه باندې د هغې اغیز دی. لکه څنګه چې مصنوعي ذهانت او اتومات پرمختګ ته دوام ورکوي، په ملیونونو دندې له خطر سره مخ دي.

🔹 اغیزمن شوي صنعتونه: د مصنوعي ذهانت په واسطه چلول شوی اتوماتیک سیستم د تولید، پیرودونکو خدماتو، ترانسپورت، او حتی د محاسبې او ژورنالیزم په څیر سپین کالر مسلکونو رولونه بدلوي.

🔹 د مهارتونو تشې: پداسې حال کې چې مصنوعي ذهانت نوي دندې فرصتونه رامینځته کوي، دا ډیری وختونه پرمختللي مهارتونو ته اړتیا لري چې ډیری بې ځایه شوي کارګران یې نلري، چې د اقتصادي نابرابرۍ لامل کیږي.

🔹 ټیټ معاشونه: حتی د هغو کسانو لپاره چې خپلې دندې ساتي، د مصنوعي ذهانت پر بنسټ سیالي کولی شي معاشونه کم کړي، ځکه چې شرکتونه د انساني کار پر ځای په ارزانه مصنوعي ذهانت حلونو تکیه کوي.

🔹 د قضیې مطالعه: د نړیوال اقتصادي فورم (WEF) یو راپور اټکل کوي چې مصنوعي ذهانت او اتومات کولی شي تر 2025 پورې 85 ملیون دندې له منځه یوسي، حتی که دوی نوي رولونه رامینځته کړي.


🔹 ۲. اخلاقي ستونزې او تعصبونه

د مصنوعي ذهانت سیسټمونه ډیری وختونه په تعصب لرونکو معلوماتو روزل کیږي، چې غیر عادلانه یا تبعیضي پایلو ته لار هواروي. دا د مصنوعي ذهانت په پریکړه کولو کې د اخلاقو او عدالت په اړه اندیښنې راپورته کوي.

🔹 د الګوریتمیک تبعیض: د ګمارنې، پور ورکولو او قانون پلي کولو کې کارول شوي مصنوعي ذهانت ماډلونه د نژادي او جنسیتي تعصبونو ښودلو لپاره موندل شوي دي.

🔹 د شفافیت نشتوالی: ډیری مصنوعي ذهانت سیسټمونه د "تور بکسونو" په توګه کار کوي، پدې معنی چې حتی پراختیا کونکي هم د دې پوهیدو لپاره مبارزه کوي چې پریکړې څنګه کیږي.

🔹 د حقیقي نړۍ بیلګه: په ۲۰۱۸ کال کې، ایمیزون د مصنوعي ذهانت د استخدام وسیله لغوه کړه ځکه چې دا د ښځینه نوماندانو په وړاندې تعصب ښودلی و، او د ګمارنې د تاریخي معلوماتو پراساس یې نارینه نوماندانو ته ترجیح ورکوله.


🔹 ۳. د محرمیت سرغړونې او د معلوماتو ناوړه ګټه اخیستنه

مصنوعي ذهانت په معلوماتو کې وده کوي، خو دا تکیه د شخصي محرمیت په بیه راځي. ډیری مصنوعي ذهانت لرونکي غوښتنلیکونه د کاروونکو پراخه معلومات راټولوي او تحلیلوي، ډیری وختونه د واضح رضایت پرته.

🔹 ډله ییزه څارنه: حکومتونه او شرکتونه د افرادو د تعقیب لپاره مصنوعي ذهانت کاروي، چې د محرمیت د سرغړونې په اړه اندیښنې راپورته کوي.

🔹 د معلوماتو سرغړونه: هغه مصنوعي ذهانت سیسټمونه چې حساس معلومات اداره کوي د سایبري بریدونو سره مخ دي، چې شخصي او مالي معلومات په خطر کې اچوي.

🔹 ډیپ فیک ټیکنالوژي: د مصنوعي ذهانت لخوا تولید شوي ډیپ فیکونه کولی شي ویډیوګانې او آډیو کنټرول کړي، غلط معلومات خپاره کړي او باور له منځه یوسي.

🔹 په دې اړه یوه بیلګه: په ۲۰۱۹ کال کې، د انګلستان د انرژۍ یوه شرکت د اجرایوي رییس د غږ په تقلید سره د مصنوعي ذهانت لخوا تولید شوي ډیپ فیک آډیو په کارولو سره ۲۴۳،۰۰۰ ډالر غلا کړل.


🔹 ۴. په جګړه او خپلواکو وسلو کې مصنوعي ذهانت

مصنوعي ذهانت په زیاتیدونکې توګه په پوځي غوښتنلیکونو کې مدغم کیږي، چې د خپلواکو وسلو او روبوټیک جګړو ویره زیاتوي.

🔹 وژونکې خودمختار وسلې: د مصنوعي ذهانت په واسطه چلول شوي ډرونونه او روبوټونه کولی شي د انسان له مداخلې پرته د ژوند یا مرګ پریکړې وکړي.

🔹 د شخړو زیاتوالی: مصنوعي ذهانت کولی شي د جګړې لګښت راټیټ کړي، شخړې ډیرې او د اټکل وړ نه وي.

🔹 د حساب ورکولو نشتوالی: کله چې د مصنوعي ذهانت په مرسته وسله ناسم برید وکړي، څوک مسؤل دی؟ د واضح قانوني چوکاټونو نشتوالی اخلاقي ستونزې رامینځته کوي.

🔹 د متخصصینو خبرداری: ایلون مسک او له ۱۰۰ څخه زیاتو مصنوعي ذهانت څېړونکو له ملګرو ملتونو څخه وغوښتل چې وژونکي روباټونه بند کړي، او خبرداری یې ورکړی چې دوی کولی شي "د ترهګرۍ وسلې" شي.


🔹 ۵. غلط معلومات او لاسوهنه

مصنوعي ذهانت د ډیجیټل غلط معلوماتو دور ته وده ورکوي، چې د حقیقت او دوکې توپیر کول یې ستونزمن کوي.

🔹 ډیپ فیک ویډیوګانې: د مصنوعي ذهانت لخوا تولید شوي ډیپ فیکونه کولی شي د خلکو نظر بدل کړي او په ټاکنو اغیزه وکړي.

🔹 د مصنوعي ذهانت په واسطه جوړ شوي جعلي خبرونه: د اتوماتیک منځپانګې تولید کولی شي په بې ساري پیمانه ګمراه کونکي یا په بشپړ ډول غلط خبرونه خپاره کړي.

🔹 د ټولنیزو رسنیو لاسوهنه: د مصنوعي ذهانت لخوا پرمخ وړل شوي روباټونه پروپاګند زیاتوي، د عامه افکارو د نفوذ لپاره جعلي ښکیلتیا رامینځته کوي.

🔹 د قضیې مطالعه: د MIT لخوا یوې مطالعې موندلې چې غلط خبرونه په ټویټر کې د ریښتیني خبرونو په پرتله شپږ ځله ګړندي خپریږي، چې ډیری وختونه د AI ځواک لرونکي الګوریتمونو لخوا پراخ شوي.


🔹 ۶. په مصنوعي ذهانت تکیه او د انساني مهارتونو له لاسه ورکول

لکه څنګه چې مصنوعي ذهانت د مهمو پریکړو کولو پروسو واک په غاړه اخلي، انسانان ممکن په ټیکنالوژۍ ډیر تکیه وکړي، چې د مهارتونو د کمښت لامل کیږي.

🔹 د انتقادي فکر کولو له لاسه ورکول: د مصنوعي ذهانت پر بنسټ اتومات کول د زده کړې، نیویګیشن او پیرودونکو خدماتو په څیر برخو کې د تحلیلي مهارتونو اړتیا کموي.

🔹 د روغتیا پاملرنې خطرونه: په مصنوعي ذهانت تشخیصاتو باندې ډیر تکیه کول ممکن ډاکټران د ناروغانو پاملرنې کې مهم باریکیو ته له پامه غورځولو لامل شي.

🔹 تخلیقیت او نوښت: له موسیقۍ څخه تر هنر پورې، د مصنوعي ذهانت له لارې تولید شوي مواد د انسان د تخلیقیت د کمښت په اړه اندیښنې راپورته کوي.

🔹 مثال: د ۲۰۲۳ کال یوې څېړنې ښودلې چې هغه زده کونکي چې د مصنوعي ذهانت په مرسته د زده کړې وسیلو باندې تکیه کوي د وخت په تیریدو سره د ستونزو د حل کولو وړتیاو کې کمښت ښودلی.


🔹 ۷. بې کنټروله مصنوعي ذهانت او موجود خطرونه

د مصنوعي ذهانت د انساني استخباراتو څخه د لوړېدو ویره - چې ډیری وختونه د "AI واحدیت" - د متخصصینو ترمنځ یوه لویه اندیښنه ده.

🔹 فوق العاده ذهانت: ځینې څېړونکي اندېښمن دي چې مصنوعي ذهانت به بالاخره ډېر ځواکمن شي، چې د انسان له کنټروله بهر دی.

🔹 غیر متوقع چلند: پرمختللي مصنوعي ذهانت سیسټمونه ممکن غیر ارادي اهداف رامینځته کړي، په داسې طریقو عمل وکړي چې انسانان یې تمه نشي کولی.

🔹 د مصنوعي ذهانت د نیولو سناریوګانې: که څه هم دا د ساینسي افسانې په څیر ښکاري، د مصنوعي ذهانت مخکښو متخصصینو، په شمول د سټیفن هاوکینګ، خبرداری ورکړی چې مصنوعي ذهانت کولی شي یوه ورځ انسانیت ته ګواښ وي.

🔹 د ایلون مسک یوه وینا: "د مصنوعي ذهانت (AI) د انساني تمدن د شتون لپاره یو بنسټیز خطر دی."


❓ ایا مصنوعي ذهانت خوندي کېدای شي؟

سره له دې خطرونو، مصنوعي ذهانت په طبیعي ډول بد نه دی - دا پدې پورې اړه لري چې دا څنګه رامینځته کیږي او کارول کیږي.

🔹 مقررات او اخلاق: حکومتونه باید د اخلاقي پرمختګ د ډاډ ترلاسه کولو لپاره د مصنوعي ذهانت سختې پالیسۍ پلي کړي.

🔹 له تعصب څخه پاک روزنیز معلومات: د مصنوعي ذهانت پراختیا کونکي باید د ماشین زده کړې ماډلونو څخه د تعصبونو لرې کولو باندې تمرکز وکړي.

🔹 بشري څارنه: مصنوعي ذهانت باید په مهمو برخو کې د انسان د پریکړې کولو سره مرسته وکړي، نه دا چې ځای یې ونیسي.

🔹 شفافیت: د مصنوعي ذهانت شرکتونه باید الګوریتمونه ډیر د پوهیدو وړ او حساب ورکوونکي کړي.

نو، ولې مصنوعي ذهانت بد دی؟ خطرونه د دندې له بې ځایه کیدو او تعصب څخه نیولې تر غلط معلوماتو، جګړې او موجود ګواښونو پورې دي. پداسې حال کې چې مصنوعي ذهانت د انکار وړ ګټې وړاندې کوي، د هغې تیاره اړخ له پامه غورځول کیدی نشي.

د مصنوعي ذهانت راتلونکی په مسؤلانه پراختیا او تنظیم پورې اړه لري. د سمې څارنې پرته، مصنوعي ذهانت کولی شي د انسانانو لخوا رامینځته شوي ترټولو خطرناک ټیکنالوژیو څخه یو شي.

بیرته بلاګ ته