جنبه تاریک هوش مصنوعی را بشناسید

GenAI

چت‌ جی‌پی‌تی که توسط OpenAI ساخته شد، با عرضه‌ی خودش در نوامبر ۲۰۲۲ دنیای نرم‌افزار رو تکون داد و باعث یک رقابت برای هوش مصنوعیِ تولیدکننده (Generative AI) شد. حالا شرکت‌های نرم‌افزاری تحتِ فشار هستند تا ابزارهاشون رو با قابلیت‌های جدید هوش مصنوعی برای افزایش بهره‌وری آپدیت کنن.

این ابزارهای هوش مصنوعیِ تولیدکننده به خیلی از کارها کمک می‌کنن، از جمله اینکه برنامه‌نویس‌ها راحت‌تر نرم‌افزار بسازن، تیم‌های فروش راحت‌تر ایمیل بنویسن، بازاریاب‌ها با هزینه‌ی کم محتواهای جدید تولید کنن و تیم‌های خلاقانه راحت‌تر ایده‌پردازی کنن.

محصولات جدید و مهمی که با هوش مصنوعیِ تولیدکننده ساخته شدن شامل Microsoft 365 Copilot، GitHub Copilot و Salesforce Einstein GPT هستن. نکته‌ی مهم اینه که این ابزارها از شرکت‌های نرم‌افزاری معروف، پولی هستن. این نشون میده که هیچ شرکتی نمی‌خواد از سود هوش مصنوعیِ تولیدکننده جا بمونه. گوگل هم به‌زودی یه پلتفرم به اسم SGE (تجربه‌ی جستجوی تولیدکننده) معرفی می‌کنه که خلاصه‌های ساخته‌شده با هوش مصنوعی رو به جای لیست سایت‌ها ارائه میده.

با این سرعتی که می‌ره، به‌زودی هوش مصنوعی یه قابلیت استاندارد توی نرم‌افزارهای تحتِ وب میشه.

اما این پیشرفت هوش مصنوعی تو فضای ابری، بدون ریسک و مشکل برای کاربرها نیست. استفاده‌ی زیاد از برنامه‌های هوش مصنوعیِ تولیدکننده توی محیط کار، نگرانی‌هایی رو درباره‌ی امنیت سایبری و خطرات جدید به وجود آورده.

فرض کنید جن‌ای (GenAI) یک نرم افزار است که با اطلاعاتی که کاربران به آن می‌دهند، داده‌های جدیدی شبیه به داده‌های اصلی تولید می‌کند.

مثل این می‌ماند که یک نفر با خواندن کتاب‌های زیادی، بتواند خودش داستان‌های جدیدی بنویسد. اما مشکل اینجاست که این نرم‌افزار ممکن است اطلاعات مهم و محرمانه شما را هم بخواند و یاد بگیرد.

به همین خاطر، خیلی از سازمان‌ها دیگر از جن‌ای استفاده نمی‌کنند چون می‌ترسند اطلاعات مهم‌شان مثل اطلاعات مشتریان یا اختراعات‌شان لو برود. حتی بعضی از کلاهبرداران می‌توانند از این اطلاعات برای فریب دادن دیگران استفاده کنند.

برای همین، خیلی از کشورها و شرکت‌ها دیگر اجازه استفاده از جن‌ای را نمی‌دهند. مثلا توی بانک‌ها دیگر کسی نمی‌تواند از این نرم‌افزار استفاده کند. حتی دولت آمریکا هم استفاده از یک نرم‌افزار شبیه به جن‌ای را در تمام ادارات دولتی ممنوع کرده است.

فعلا که برنامه‌های هوش مصنوعی تحویل (Generative AI) رو نمیشه به راحتی کنترل کرد. این برنامه‌ها بدون آموزش دیدن، نظارت یا اطلاع کارفرما وارد محیط کار میشن و سازمان‌ها رو با مشکل مواجه می‌کنن.

طبق یک تحقیق جدید، بیشتر از نصف سازمان‌هایی که از هوش مصنوعی تحویل استفاده می‌کنن، از ابزارهای تأیید نشده استفاده می‌کنن. این تحقیق نشون می‌ده که نبود قوانین مشخص برای استفاده از این هوش مصنوععی، ممکنه کسب و کارها رو به خطر بندازه.

خبر خوب اینه که اگه کارفرماها از دستورالعمل‌های جدید دولت آمریکا برای مدیریت بهتر هوش مصنوعی پیروی کنن، اوضاع می‌تونه بهتر بشه.

معاون رئیس جمهور آمریکا، خانم کامالا هریس، اخیرا دستور داده که همه سازمان‌های دولتی یک مسئول هوش مصنوعی انتخاب کنن. این مسئول باید تجربه، دانش و اختیار لازم برای نظارت بر تمام فناوری‌های هوش مصنوعی رو داشته باشه تا مطمئن بشه از این فناوری به صورت مسئولانه استفاده می‌شه.

حالا که دولت آمریکا پیش قدم شده تا استفاده مسئولانه از هوش مصنوعی رو ترویج بده و منابعی برای مدیریت خطرات اون اختصاص داده، قدم بعدی پیدا کردن روش‌های ایمن برای مدیریت این برنامه‌هاست.

فناوری هوش مصنوعی تولیدکننده (GenAI) در حال پیشرفت است، اما خطرات آن هنوز کاملا شناخته شده نیست. روش‌های قدیمی برای امن کردن اطلاعات (مثل دیوار کشیدن دور سازمان) دیگر کافی نیستند.

حالا مجرم‌های اینترنتی به دنبال نقاط ضعف سازمان‌ها هستند، مثل رمزهای عبور ضعیف، هویت‌های کاربری غیرقابل اعتماد و برنامه‌های اشتراکی ناامن. حتی دولت‌ها از روش‌هایی مثل حدس زدن رمز عبور و فریب‌کاری برای حمله به این برنامه‌ها استفاده می‌کنند.

استفاده از هوش مصنوعی در شرکت‌ها باید زنگ خطری باشد. سازمان‌ها باید ببینند ابزارهای امنیتی‌شان برای مقابله با تهدیدهای جدید کافی هستند یا نه.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *