چت جیپیتی که توسط OpenAI ساخته شد، با عرضهی خودش در نوامبر ۲۰۲۲ دنیای نرمافزار رو تکون داد و باعث یک رقابت برای هوش مصنوعیِ تولیدکننده (Generative AI) شد. حالا شرکتهای نرمافزاری تحتِ فشار هستند تا ابزارهاشون رو با قابلیتهای جدید هوش مصنوعی برای افزایش بهرهوری آپدیت کنن.
این ابزارهای هوش مصنوعیِ تولیدکننده به خیلی از کارها کمک میکنن، از جمله اینکه برنامهنویسها راحتتر نرمافزار بسازن، تیمهای فروش راحتتر ایمیل بنویسن، بازاریابها با هزینهی کم محتواهای جدید تولید کنن و تیمهای خلاقانه راحتتر ایدهپردازی کنن.
محصولات جدید و مهمی که با هوش مصنوعیِ تولیدکننده ساخته شدن شامل Microsoft 365 Copilot، GitHub Copilot و Salesforce Einstein GPT هستن. نکتهی مهم اینه که این ابزارها از شرکتهای نرمافزاری معروف، پولی هستن. این نشون میده که هیچ شرکتی نمیخواد از سود هوش مصنوعیِ تولیدکننده جا بمونه. گوگل هم بهزودی یه پلتفرم به اسم SGE (تجربهی جستجوی تولیدکننده) معرفی میکنه که خلاصههای ساختهشده با هوش مصنوعی رو به جای لیست سایتها ارائه میده.
با این سرعتی که میره، بهزودی هوش مصنوعی یه قابلیت استاندارد توی نرمافزارهای تحتِ وب میشه.
اما این پیشرفت هوش مصنوعی تو فضای ابری، بدون ریسک و مشکل برای کاربرها نیست. استفادهی زیاد از برنامههای هوش مصنوعیِ تولیدکننده توی محیط کار، نگرانیهایی رو دربارهی امنیت سایبری و خطرات جدید به وجود آورده.
فرض کنید جنای (GenAI) یک نرم افزار است که با اطلاعاتی که کاربران به آن میدهند، دادههای جدیدی شبیه به دادههای اصلی تولید میکند.
مثل این میماند که یک نفر با خواندن کتابهای زیادی، بتواند خودش داستانهای جدیدی بنویسد. اما مشکل اینجاست که این نرمافزار ممکن است اطلاعات مهم و محرمانه شما را هم بخواند و یاد بگیرد.
به همین خاطر، خیلی از سازمانها دیگر از جنای استفاده نمیکنند چون میترسند اطلاعات مهمشان مثل اطلاعات مشتریان یا اختراعاتشان لو برود. حتی بعضی از کلاهبرداران میتوانند از این اطلاعات برای فریب دادن دیگران استفاده کنند.
برای همین، خیلی از کشورها و شرکتها دیگر اجازه استفاده از جنای را نمیدهند. مثلا توی بانکها دیگر کسی نمیتواند از این نرمافزار استفاده کند. حتی دولت آمریکا هم استفاده از یک نرمافزار شبیه به جنای را در تمام ادارات دولتی ممنوع کرده است.
فعلا که برنامههای هوش مصنوعی تحویل (Generative AI) رو نمیشه به راحتی کنترل کرد. این برنامهها بدون آموزش دیدن، نظارت یا اطلاع کارفرما وارد محیط کار میشن و سازمانها رو با مشکل مواجه میکنن.
طبق یک تحقیق جدید، بیشتر از نصف سازمانهایی که از هوش مصنوعی تحویل استفاده میکنن، از ابزارهای تأیید نشده استفاده میکنن. این تحقیق نشون میده که نبود قوانین مشخص برای استفاده از این هوش مصنوععی، ممکنه کسب و کارها رو به خطر بندازه.
خبر خوب اینه که اگه کارفرماها از دستورالعملهای جدید دولت آمریکا برای مدیریت بهتر هوش مصنوعی پیروی کنن، اوضاع میتونه بهتر بشه.
معاون رئیس جمهور آمریکا، خانم کامالا هریس، اخیرا دستور داده که همه سازمانهای دولتی یک مسئول هوش مصنوعی انتخاب کنن. این مسئول باید تجربه، دانش و اختیار لازم برای نظارت بر تمام فناوریهای هوش مصنوعی رو داشته باشه تا مطمئن بشه از این فناوری به صورت مسئولانه استفاده میشه.
حالا که دولت آمریکا پیش قدم شده تا استفاده مسئولانه از هوش مصنوعی رو ترویج بده و منابعی برای مدیریت خطرات اون اختصاص داده، قدم بعدی پیدا کردن روشهای ایمن برای مدیریت این برنامههاست.
فناوری هوش مصنوعی تولیدکننده (GenAI) در حال پیشرفت است، اما خطرات آن هنوز کاملا شناخته شده نیست. روشهای قدیمی برای امن کردن اطلاعات (مثل دیوار کشیدن دور سازمان) دیگر کافی نیستند.
حالا مجرمهای اینترنتی به دنبال نقاط ضعف سازمانها هستند، مثل رمزهای عبور ضعیف، هویتهای کاربری غیرقابل اعتماد و برنامههای اشتراکی ناامن. حتی دولتها از روشهایی مثل حدس زدن رمز عبور و فریبکاری برای حمله به این برنامهها استفاده میکنند.
استفاده از هوش مصنوعی در شرکتها باید زنگ خطری باشد. سازمانها باید ببینند ابزارهای امنیتیشان برای مقابله با تهدیدهای جدید کافی هستند یا نه.