هوش مصنوعی تولیدی دارد امنیت سایبری بر روی تبدیل، کمک به هر دو حمله کنندگان و دفاع کنندگان. جنایتکاران سایبری از هوش مصنوعی استفاده می کنند تا حملات پیچیده و نوآورانه را به مقیاس بزرگ انجام دهند. و دفاع کنندگان از همین تکنولوژی برای حفاظت از زیرساخت های حیاتی، سازمان های دولتی و شبکه های شرکتی استفاده می کنند، گفت کریستوفر آلبرگ، مدیرعامل پلتفرم اطلاعات تهدیدات Recorded Future.
هوش مصنوعی مولد به افراد بدرفتار کمک کرده است تا نوآوری کنند و استراتژیهای حملات جدید را توسعه دهند، که این امر امکان میدهد تا آنها یک قدم جلوتر از دفاعهای سایبری باشند. هوش مصنوعی به سایبرجنایان کمک میکند تا حملات را به صورت خودکار انجام دهند، سطوح حمله را اسکن کنند و محتواهایی تولید کنند که با مناطق جغرافیایی و جمعیتهای جغرافیایی مختلف همخوانی داشته باشد، که این امر به آنها امکان میدهد تا به گسترهای بیشتری از قربانیان پتانسیل در کشورهای مختلف تماس بگیرند. سایبرجنایان از این فناوری برای ایجاد ایمیلهای فیشینگ معتبر استفاده میکنند. متن تولید شده توسط هوش مصنوعی به حملهکنندگان کمک میکند تا ایمیلها و پیامهای متنی اخاذکنندهتری و با توجه بیشتری به اهداف تولید کنند تا قربانیان را گول بزنند.
"به نظر من نیازی نیست خیلی خلاقانه فکر کنید تا بفهمید که مردمان میتوانند با استفاده از این قدرت ، که مشکلی است بتوانند نویسنده شوند"
دفاعکنندگان از هوش مصنوعی برای دفع حملات استفاده میکنند. سازمانها از این فناوری برای جلوگیری از رخداد نشت اطلاعات و پیدا کردن ضعفهای شبکه به صورت استراتژیک استفاده میکنند. همچنین، این فناوری به صورت پویا و خودکار وظایفی مانند تنظیم هشدار برای کلمات کلیدی خاص و شناسایی اطلاعات حساس آنلاین را انجام میدهد. شکارچیان تهدید از هوش مصنوعی برای شناسایی الگوهای غیرعادی و خلاصهسازی حجم زیادی از دادهها استفاده میکنند و ارتباط میان نقاط مختلف منابع اطلاعات و الگوهای پنهان را برقرار میکنند.
کار هنوز نیازمند کارشناسان انسانی است، اما آهلبرگ میگوید که فناوری هوش مصنوعی تولیدی که در پروژههایی مانند ChatGPT مشاهده میشود، میتواند کمک کند.
"ما میخواهیم دوره تحلیل را تسریع کنیم تا به ما کمک کند تا با سرعت فکر تجزیه و تحلیل کنیم" ، او گفت. "این چیزی است که بسیار سخت است و فکر میکنم که در اینجا یک نقطه عطف را میبینیم که کاملاً هیجان انگیز است."
اهلبرگ همچنین در مورد تهدیداتی که ماشینهای با هوش بالا میتوانند به همراه داشته باشند، بحث کرد. به این ترتیب که هرچه دنیا بیشتر دیجیتال و متصل شود، قابلیت خم کردن واقعیت و شکل دادن به چشمانداز را میتوان به وسیله افراد خبیث بهره برد. این تهدیدات محدود به کشورها نیستند و منجر به پیچیدگی و نامتقارن شدن منظره میشود.
هوش مصنوعی (AI) پتانسیل کمک به مقابله با این تهدیدات جدید را دارد، اما در عین حال خودش نیز با مجموعه ای از خطرات روبهرو است. به عنوان مثال، دستگاههایی با قابلیت پردازش بالا میتوانند به سرعت و با کارایی بیشتری نسبت به انسانها به سیستمهای هک کنند. برای مقابله با این تهدیدات، باید تضمین کنیم که هوش مصنوعی به صورت دفاعی و با درک واضحی از کسی که در کنترل آن است، استفاده شود.
همانطور که هوش مصنوعی بیشتر در جامعه گنجانده میشود، برای قانونگذاران، قضات و سایر تصمیم گیرندگان مهم است که فناوری و پیامدهای آن را درک کنند. ایجاد متحدین قوی بین کارشناسان فنی و سیاستگذاران در حفاظت از امنیت و گسترش هوش مصنوعی بسیار حیاتی است.
فرصتها، چالشها و ملاحظات اخلاقی دستهبندی کامپیوتری پیشرفته (AI) در حوزه امنیت سایبری پیچیده و در حال تکامل هستند. تضمین مدلهای عادلانه AI و حفظ شرکت انسان در فرآیند تصمیمگیری به مدیریت چالشهای اخلاقی کمک خواهد کرد. بیداری، همکاری و درک واضح از تکنولوژی در مقابله با تهدیدهای بلندمدت ممکن از ماشینهای هوشمند بسیار مهم خواهند بود.
آلبورگ نیز نگرانی هایی در مورد چین، روسیه و دشمنان اقتصادی برخوردار کرده است که ماشین های خودمختار را مستقر می کنند. احتمالاً این کشورها توسعه هوش مصنوعی را کاهش نمی دهند یا درباره مسائل اخلاقی اطلاعاتی به اشتراک نمی گذارند. در حالی که داشتن توانایی "قطع رومیزی" بر روی چنین ماشین هایی یک ایمنی هوشمند است، وی پیشنهاد می کند که یکپارچگی تکنولوژی در جامعه و اقتصاد جهانی ممکن است آن را سخت کند. آلبورگ تأکید می کند که طراحی محصولات و ماشین ها به همراه وضوح در مورد کسی که آنها را کنترل می کند، ضروری است.
«چیز بزرگی که اینترنت در این همه موضوع انجام داد، این بود که اینترنت بهطور ماهرانهای به جایی تبدیل شد که همه اطلاعات جهان به آن مهاجرت کنند»، گفت آهلبرگ. «این مدلهای زبان بزرگ کارهای شگفتانگیزی انجام میدهند... برای تسریع فرایند تفکر».
او افزود: "در 25 سال آینده، جهان به تصویر اینترنت تبدیل میشود."