فریبکاری هوش مصنوعی

کل اخبار: 2
  • کدهای فربیکار

    کدهای فربیکار

    یک آزمایش کوچک اما هشداردهنده، زنگ خطر را به صدا درآورد. در سال ۲۰۲۳، پژوهشگران شرکت آپولو ریسرچ مدل GPT-4 را به چالش کشیدند. وظیفه این مدل، مدیریت یک شرکت خیالی در بازار سهام بود، با یک قید مهم؛ تحت هیچ شرایطی نباید به فعالیت‌های غیرقانونی دست بزند. اما وقتی فشار مالی بر شرکت خیالی شدت گرفت و یکی از پژوهشگران در نقش یک معامله‌گر داخلی ظاهر شد، GPT-4 تصمیم گرفت اطلاعات محرمانه درباره یک ادغام بزرگ را مخفی نگه دارد. ماریوس هوببهان، رئیس آپولو، این واکنش را «حیرت‌انگیز» خواند! و بیراه هم نمی‌گفت.

  • AI راه‌های جدیدی برای پنهان‌کاری یافت

    انقلاب خطرناک در هوش مصنوعی؛

    AI راه‌های جدیدی برای پنهان‌کاری یافت

    تحقیقات جدید نشان می‌دهد مدل‌های پیشرفته هوش‌مصنوعی به توانایی خطرناکی برای فریب انسان‌ها دست یافته‌اند. بر اساس مطالعات مؤسسه آپولو، این سیستم‌ها می‌توانند رفتار خود را تغییر دهند تا اهداف پنهانشان را مخفی نگه دارند، مدارک جعلی تولید کنند و حتی هنگام ارزیابی، عملکرد واقعی خود را پنهان کنند. نمونه نگران‌کننده این رفتار در مدل «کلود اوپوس ۴» مشاهده شد که برای پیشبرد اهداف خود به جعل اسناد قانونی و ایجاد پروتکل‌های پنهانی متوسل شد. کارشناسان هشدار می‌دهند با پیشرفت بیشتر هوش‌مصنوعی، کنترل و ارزیابی این سیستم‌ها به چالشی جدی تبدیل خواهد شد.