فریبکاری هوش مصنوعی
-
کدهای فربیکار
یک آزمایش کوچک اما هشداردهنده، زنگ خطر را به صدا درآورد. در سال ۲۰۲۳، پژوهشگران شرکت آپولو ریسرچ مدل GPT-4 را به چالش کشیدند. وظیفه این مدل، مدیریت یک شرکت خیالی در بازار سهام بود، با یک قید مهم؛ تحت هیچ شرایطی نباید به فعالیتهای غیرقانونی دست بزند. اما وقتی فشار مالی بر شرکت خیالی شدت گرفت و یکی از پژوهشگران در نقش یک معاملهگر داخلی ظاهر شد، GPT-4 تصمیم گرفت اطلاعات محرمانه درباره یک ادغام بزرگ را مخفی نگه دارد. ماریوس هوببهان، رئیس آپولو، این واکنش را «حیرتانگیز» خواند! و بیراه هم نمیگفت.
-
انقلاب خطرناک در هوش مصنوعی؛
AI راههای جدیدی برای پنهانکاری یافت
تحقیقات جدید نشان میدهد مدلهای پیشرفته هوشمصنوعی به توانایی خطرناکی برای فریب انسانها دست یافتهاند. بر اساس مطالعات مؤسسه آپولو، این سیستمها میتوانند رفتار خود را تغییر دهند تا اهداف پنهانشان را مخفی نگه دارند، مدارک جعلی تولید کنند و حتی هنگام ارزیابی، عملکرد واقعی خود را پنهان کنند. نمونه نگرانکننده این رفتار در مدل «کلود اوپوس ۴» مشاهده شد که برای پیشبرد اهداف خود به جعل اسناد قانونی و ایجاد پروتکلهای پنهانی متوسل شد. کارشناسان هشدار میدهند با پیشرفت بیشتر هوشمصنوعی، کنترل و ارزیابی این سیستمها به چالشی جدی تبدیل خواهد شد.