آیا میتوان با هوش مصنوعی بلایای طبیعی و جنایات را پیشبینی کرد؟
تاریخ انتشار: ۱۸ تیر ۱۴۰۲ | کد خبر: ۳۸۱۷۱۲۹۳
به گزارش خبرنگار خبرگزاری علم و فناوری آنا، براساس تحلیل جدید شرکت تحقیقاتی «اینسایت پارتنرز» (Insight Partners)، پیشبینی میشود که هزینههای آمریکا برای هوش مصنوعی در امنیت عمومی از ۹.۳ میلیارد دلار در سال ۲۰۲۲، تا سال ۲۰۳۰ به ۷۱ میلیارد دلار افزایش یابد.
این مطالعه میگوید که انتظار میرود رونق هفت ساله پیش بینی شده توسط تروریسم جهانی و داخلی، نیاز روزافزون به آموزشهای امنیتی و افزایش تقاضاهای ایمنی عمومی ناشی از این همه گیری تقویت شود.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
از طریق الگوریتمهای پیشرفته، یادگیری ماشینی و تجزیه و تحلیل پیشبینیکننده، هوش مصنوعی میتواند به اولین واکنشدهنده و مقامات ایمنی عمومی کمک کند تا تصمیمات آگاهانهتری بگیرند، سریعتر به شرایط اضطراری واکنش نشان دهند و حتی از وقوع بلایا جلوگیری کنند.
بسیاری از کارشناسان در مورد آسیبهایی فناوری هوش مصنوعی هشدار میدهند. برخی از آنها میگویند هوش مصنوعی در آینده میتواند بشریت را نابود کند.
کلاهبرداری ۱ تریلیون دلاری با کمک هوش مصنوعی
«هیوود تالکو» (Haywood Talcove)، مدیرعامل بخش دولتی «لکسیس نکسیس» (LexisNexis) که در حوزه داده و تجزیه و تحلیل جهانی فعالیت میکند معتقد است اگر کشور اقدام فوری در این زمینه انجام ندهد، در ۱۲ ماه آینده بیش از ۱ تریلیون دلار کلاهبرداری با کمک هوش مصنوعی رخ خواهد داد.
کارشناس میگوید: طرحهای کلاهبرداری با کمک هوش مصنوعی میتواند تنها در یک سال یک تریلیون دلار برای مالیات دهندگان هزینه داشته باشد.
او گفت: «همان فناوری که به کلاهبرداران قدرت میدهد، میتوان برای محافظت از سیستمهای ما استفاده کرد. به عنوان مثال، احراز هویت چندعاملی، همراه با بیومتریک رفتاری، روشی منحصر به فرد و پیچیده برای مبارزه با کلاهبرداری هوش مصنوعی ارائه میدهد که روشهای سنتی نمیتوانند با آن مطابقت کنند.
این اساساً همان چیزی است که تجزیه و تحلیل روی آن متمرکز است - جنبه مثبت آنچه که هوش مصنوعی میتواند در زمینه ایمنی عمومی انجام دهد، که شامل پاسخ به همه چیز از بلایای طبیعی گرفته تا تیراندازیهای جمعی است.
این مطالعه میگوید: «در یک بحران، هر ثانیه مهم است و هوش مصنوعی میتواند به اولین پاسخدهندگان کمک کند سریعتر و کارآمدتر واکنش نشان دهند.» به عنوان مثال، پهپادهای مجهز به هوش مصنوعی میتوانند آسیبهای ناشی از بلایای طبیعی مانند طوفان یا زلزله را ارزیابی کنند و اطلاعات را بلادرنگ در اختیار تیمهای واکنش اضطراری قرار دهند. این ارزیابی هنگام تخصیص منابع و اولویتبندی تلاشهای پاسخ حیاتی است.
بر اساس این مطالعه، الگوریتمهای قدرتمند هوش مصنوعی حتی میتوانند با تجزیه و تحلیل حجم وسیعی از دادهها، مانند الگوهای آبوهوا، فعالیتهای زمینشناسی و شرایط زیرساخت، برای شناسایی خطرات و آسیبپذیریهای احتمالی، بلایا را پیشبینی کرده و از آن جلوگیری کنند».
بر اساس این مطالعه، «مقامات ایمنی عمومی میتوانند از این اطلاعات برای اجرای اقدامات پیشگیرانه مانند تقویت زیرساخت ها، تخلیه ساکنان یا استقرار منابع قبل از وقوع فاجعه استفاده کنند».
محققان میگویند دوربینهای امنیتی مجهز به هوش مصنوعی و تجزیه و تحلیل ویدئویی میتوانند در پلیس پیشگیرانه، تحقیقات جنایی، تحقیقات پروندههای سرد و مبارزه با تروریسم و دهها کاربرد دیگر نیز مورد استفاده قرار گیرند.
هوش مصنوعی کلیدی برای بهبود امنیت عمومی
در این گزارش آمده است: «هوش مصنوعی سازمانها را قادر میسازد تا نگرانیهای ایمنی عمومی را با راهحلهای نوآورانه برطرف کنند. از تقویت امنیت فرودگاه و مبارزه با جرم و جنایت گرفته تا پیشبینی بلایای طبیعی و ردیابی ویروسهای خطرناک، هوش مصنوعی یکی از کلیدهای بهبود امنیت عمومی در جوامع امروز است.
کمیسر اد دیویس، که در بمبگذاری ماراتن بوستون در سال ۲۰۱۳ حضور داشن، میگوید که این فناوری ممکن است با آموزش فعالیتهای عادی» برای آگاه کردن اپراتورها از تحریکها و ناهنجاریها از حملههای مرگبار تروریستی جلوگیری کند.
دیویس در اوایل سال جاری در جلسه استماع کمیته فرعی سنا درباره تهدیدات امنیت ملی در حال ظهور گفت: «از سال ۲۰۱۳، دولت پیشرفتهای قابل توجهی در حوزه اقدامات امنیتی از جمله امنیت سایبری، امنیت مرزی و برنامهریزی در حوزه واکنش اضطراری انجام داده است.این پیشرفتها شامل فناوریهای پیشرفتهتر، برنامهریزی جامعتر و افزایش آموزش و آگاهی عمومی است که توسط بسیاری از روابط عمومی خصوصی و شرکتهای نوآور پشتیبانی میشود.»
انتهای پیام/
منبع: آنا
کلیدواژه: هوش مصنوعی امنیت عمومی پیشگیری کلاهبرداری هوش مصنوعی می تواند تجزیه و تحلیل بلایای طبیعی ایمنی عمومی پیش بینی
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت ana.press دریافت کردهاست، لذا منبع این خبر، وبسایت «آنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۸۱۷۱۲۹۳ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
هوش مصنوعی گرایش سیاسی افراد را از چهرهشان میخواند
ایتنا - مطالعهای جدید میگوید توانایی این الگوریتم در حدس زدن دقیق درباره دیدگاههای سیاسی فرد مشابه این است که چگونه مصاحبههای شغلی میتوانند موفقیت در شغل را پیشبینی کنند یا مصرف الکل میتواند خشونت را تحریک کند.
پس از آنکه نتایج یک پژوهش نشان داد هوش مصنوعی میتواند گرایش سیاسی افراد را از روی چهرههای بدون حالت و بیاحساس پیشبینی کند، محققان هشدار دادند که فناوریهای تشخیص چهره از آنچه قبلا به نظر میرسید، «تهدیدآمیزتر» شده و برای حریم خصوصی چالش جدی به وجود آوردهاند.
مطالعهای جدید که در مجله «روانشناس آمریکایی» (American Psychologist) منتشر شد، میگوید توانایی این الگوریتم در حدس زدن دقیق درباره دیدگاههای سیاسی فرد مشابه این است که چگونه مصاحبههای شغلی میتوانند موفقیت در شغل را پیشبینی کنند یا مصرف الکل میتواند خشونت را تحریک کند.
به گفته مایکل کوزینسکی، نویسنده ارشد این پژوهش، ۵۹۴ شرکتکننده قبل از آنکه هوش مصنوعی آنها را چهرهنگاری (استخراج اطلاعات مخصوص و منحصربهفرد یک چهره مانند اندازه و شکل چشم، بینی، لب) کند، پرسشنامهای درباره گرایش سیاسی خود پر کردند. سپس دادههای چهرهنگاری را با پاسخ پرسشنامههای جهتگیری سیاسی مقایسه کردند تا با استفاده از اطلاعاتی که از چهرهها به دست آورده بود، جهتگیری سیاسی هر شخص را پیشبینی کند.
کوزینسکی میگوید: «فکر میکنم مردم متوجه نیستند با انتشار یک تصویر ساده، در واقع چقدر خود و اطلاعات شخصیشان را برای دیگران فاش میکنند.»
او افزود: «ما میدانیم که گرایش جنسی، سیاسی و تفکرات مذهبی افراد باید محفوظ بماند. این موضوع در گذشته متفاوت بود. در گذشته شما میتوانستید به حساب کاربری فیسبوک افراد وارد شوید و به عنوان مثال گرایشهای سیاسی، آنچه را که پسند میکنند (لایک میزنند) و صفحاتی را که دنبال کردهاند، ببینید. اما فیسبوک سالها پیش آن را بست زیرا برای سیاستگذاران، فیسبوک و روزنامهنگاران واضح و مبرهن بود که این موضوع پذیرفتنی نیست و بسیار خطرناک است.»
کوسینسکی افزود: «در حال حاضر نیز هر کس میتواند به فیسبوک برود و عکس هر فردی را ببیند، حتی اگر آن فرد را هیچوقت ملاقات نکرده و او اجازه دسترسی به عکسش را نداده باشد. این مطالعه نشان میدهد اطلاعاتی که در تصویر افراد وجود دارد، ممکن است مشابه افشای جهتگیری سیاسی آنها باشد.»
محققان میگویند که تصاویر افراد شرکتکننده در این پژوهش را در شرایطی بسیار مشخص و کنترلشده جمعآوری کردند. به این ترتیب که این افراد همگی تیشرتهای مشکی پوشیده و زیورآلاتشان را در آورده بودند و در صورت نیاز ریششان را هم اصلاح کرده بودند. همچنین با دستمال مرطوب آرایش صورتشان را پاک کرده و موهایشان را با کش مو، گیره یا تل سر به عقب کشیده بودند تا اطراف صورت پخش نشوند. سپس چهرهها را از طریق الگوریتم چهره ویجیجی فیس۲ (VGGFace2) بررسی کردند.
محققان هشدار میدهند که فناوریهای نظارت بیومتریکی، به ویژه فناوریهای تشخیص چهره، تهدیدی جدیتر از گذشته برای حریم شخصی افرادند. پژوهشهای پیشتر نیز نشان داده بودند که تصاویر طبیعی چهره میتواند اطلاعات مهمی را درباره جهتگیری سیاسی و ویژگیهای شخصی دیگر انتقال دهند اما مطمئن نبودیم که این پیشبینیها به دلیل نحوه ارائه شخص و ویژگیهای ثابت چهره (خنثی) فعال شدهاند یا هر دو این عوامل. محققان میگویند، نتایج ما نشان میدهند که ویژگیهای ثابت چهره در انتقال این سیگنالها نقش مهمی دارند و افراد روی اطلاعات شخصی و حریم خصوصی خود کمترین کنترل را دارند، زیرا این اطلاعات بدون اجازه و کنترل شخص به دستگاههای نظارتی میرسد.
به گفته کوزینسکی، این الگوریتمها را میتوان بسیار سریع و ارزان برای میلیونها نفر اعمال کرد. به عقیده او این مطالعه بیشتر یک هشدار درباره فناوریهایی است که در گوشیها وجود دارد و به طور گسترده در همهجا استفاده میشود.