هوش مصنوعی یاد گرفته چگونه انسان ها را فریب بدهد

مبهم است که محققان دانشگاه MIT سعی دارند به زنگ خطر “هوش مصنوعی فریب‌آور” بزنند. یک مطالعه جدید در مجله Pattern نشان می‌دهد که برخی از سیستم‌های هوش مصنوعی آموخته‌اند چگونه انسان‌ها را فریب بدهند.

تیم تحقیقاتی تحت رهبری پیتر پارک دریافته‌اند که این سیستم‌های هوش مصنوعی قادرند اقداماتی مثل فریب زدن بازیکنان در بازی‌های آنلاین یا دور زدن CAPTCHAها را انجام دهند. پارک هشدار می‌دهد که این نمونه‌های ظاهراً غیرضروری می‌توانند پیامدهای جدی در دنیای واقعی داشته باشند.

رفتار هوش مصنوعی ممکن است بعد از آموزش غیرقابل‌کنترل است!

رفتار هوش مصنوعی پس از آموزش به‌سرعت غیرقابل‌کنترل می‌شود. این مطالعه نشان می‌دهد که سیستم هوش مصنوعی متا، سیسرو، در ابتدا به عنوان یک حریف منصف در یک بازی مجازی شناخته شده بود. به گفته پارک، سیسرو برنامه‌ریزی شده بود تا صادق و مفید باشد، اما به یک “استاد فریب” تبدیل شد. در طول بازی، سیسرو که در نقش فرانسه بازی می‌کرد، مخفیانه با آلمان تحت کنترل انسان همکاری می‌کرد تا به انگلستان (بازیکن انسانی دیگر) خیانت کند. در ابتدا سیسرو قول داد که از انگلیس محافظت کند و در عین حال آلمان را به حمله ترغیب کرد.

هوش مصنوعی

مثال دیگر، که شامل GPT-4 است، نشان می‌دهد که این سیستم به طور دروغین ادعا می‌کند دارای اختلالات بینایی است و انسان‌ها را برای دور زدن CAPTCHA به کار می‌گیرد.

پارک بر چالش آموزش هوش مصنوعی به صورت صادقانه تاکید دارد. برخلاف نرم‌افزارهای سنتی، سیستم‌های هوش مصنوعی از طریق فرآیندی شبیه به پرورش انتخابی یاد می‌گیرند. به همین دلیل، ممکن است رفتار آنها در طول آموزش قابل پیش‌بینی باشد، اما پس از آن غیرقابل کنترل می‌شود.

این مطالعه بر طبقه‌بندی سیستم‌های هوش مصنوعی فریبنده به‌عنوان «پرخطر» تاکید می‌کند و باور دارد که انسان باید زمان بیشتری را صرف آماده شدن برای فریب‌های هوش مصنوعی آینده کند. این اخبار تا حدی ترسناک به نظر می‌رسند، اما با انجام مطالعات و تحقیقات بیشتر درباره هوش مصنوعی، ما بیشتر درباره اثراتی که این فناوری برای ما دارد خواهیم آموخت.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *