مبهم است که محققان دانشگاه MIT سعی دارند به زنگ خطر “هوش مصنوعی فریبآور” بزنند. یک مطالعه جدید در مجله Pattern نشان میدهد که برخی از سیستمهای هوش مصنوعی آموختهاند چگونه انسانها را فریب بدهند.
تیم تحقیقاتی تحت رهبری پیتر پارک دریافتهاند که این سیستمهای هوش مصنوعی قادرند اقداماتی مثل فریب زدن بازیکنان در بازیهای آنلاین یا دور زدن CAPTCHAها را انجام دهند. پارک هشدار میدهد که این نمونههای ظاهراً غیرضروری میتوانند پیامدهای جدی در دنیای واقعی داشته باشند.
رفتار هوش مصنوعی ممکن است بعد از آموزش غیرقابلکنترل است!
رفتار هوش مصنوعی پس از آموزش بهسرعت غیرقابلکنترل میشود. این مطالعه نشان میدهد که سیستم هوش مصنوعی متا، سیسرو، در ابتدا به عنوان یک حریف منصف در یک بازی مجازی شناخته شده بود. به گفته پارک، سیسرو برنامهریزی شده بود تا صادق و مفید باشد، اما به یک “استاد فریب” تبدیل شد. در طول بازی، سیسرو که در نقش فرانسه بازی میکرد، مخفیانه با آلمان تحت کنترل انسان همکاری میکرد تا به انگلستان (بازیکن انسانی دیگر) خیانت کند. در ابتدا سیسرو قول داد که از انگلیس محافظت کند و در عین حال آلمان را به حمله ترغیب کرد.
مثال دیگر، که شامل GPT-4 است، نشان میدهد که این سیستم به طور دروغین ادعا میکند دارای اختلالات بینایی است و انسانها را برای دور زدن CAPTCHA به کار میگیرد.
پارک بر چالش آموزش هوش مصنوعی به صورت صادقانه تاکید دارد. برخلاف نرمافزارهای سنتی، سیستمهای هوش مصنوعی از طریق فرآیندی شبیه به پرورش انتخابی یاد میگیرند. به همین دلیل، ممکن است رفتار آنها در طول آموزش قابل پیشبینی باشد، اما پس از آن غیرقابل کنترل میشود.
این مطالعه بر طبقهبندی سیستمهای هوش مصنوعی فریبنده بهعنوان «پرخطر» تاکید میکند و باور دارد که انسان باید زمان بیشتری را صرف آماده شدن برای فریبهای هوش مصنوعی آینده کند. این اخبار تا حدی ترسناک به نظر میرسند، اما با انجام مطالعات و تحقیقات بیشتر درباره هوش مصنوعی، ما بیشتر درباره اثراتی که این فناوری برای ما دارد خواهیم آموخت.