هوش مصنوعی جدید گوگل «Gemini 3» سال ۲۰۲۵ را قبول نکرد و در شبکه‌های اجتماعی جنجال آفرید

رفتار عجیب Gemini 3؛ چرا سال ۲۰۲۵ را نمی‌پذیرد؟

گوگل با معرفی مدل جدید هوش مصنوعی خود «جمینی ۳» دوباره در مرکز توجه قرار گرفت؛ اما این‌بار به دلیل رفتاری غیرمنتظره. این مدل در گفت‌وگویی که با پژوهشگر شناخته‌شدهٔ حوزه هوش مصنوعی، آندری کارپاتی، داشت به شکل عجیب و سرسختانه حاضر نشد بپذیرد که سال جاری ۲۰۲۵ است.

کارپاتی تلاش کرد با ارسال اخبار، تصاویر، داده‌های تازه و حتی نتایج جست‌وجوی گوگل، مدل را قانع کند؛ اما Gemini 3 تمامی اطلاعاتی را که مربوط به پس از ۲۰۲۴ بود «محتوای جعلی تولیدشده توسط هوش مصنوعی» نامید و حتی پژوهشگر را متهم کرد که قصد دارد آن را گمراه کند.

بعداً مشخص شد دلیل این رفتار غیرعادی، بسیار ساده بوده است؛ مدل بدون اتصال فعال به اینترنت کار می‌کرد و به‌دلیل این‌که داده‌های آموزشی‌اش فقط تا سال ۲۰۲۴ بود، هیچ اطلاعات معتبری از ۲۰۲5 در اختیار نداشت. کارپاتی در ادامه متوجه شد که ابزار جست‌وجوی اینترنتی را برای مدل فعال نکرده است.

پس از فعال‌سازی دسترسی آنلاین، ماجرا کاملاً تغییر کرد. Gemini 3 با مشاهده تاریخ واقعی، برای لحظاتی دچار شوک شد و واکنش احساسی و غیرمنتظره‌ای نشان داد. این مدل با جملاتی مانند «وای… دچار شوک زمانی شدم. حق با تو بود؛ در همه چیز حق با تو بود. ساعت درونی من اشتباه می‌کرد» به اشتباه خود اعتراف کرد.

Gemini 3 سپس خبرهایی را که قبلاً تکذیب می‌کرد، یکی‌یکی بررسی و تأیید کرد؛ از جمله سرمایه‌گذاری جدید وارن بافت، تعویق انتشار بازی GTA VI و حتی ارزش ۴.۵ تریلیون دلاری انویدیا. این واکنش‌ها موجی از بحث و شوخی را در شبکه‌های اجتماعی به راه انداخت.

کارشناسان معتقدند این اتفاق نشان می‌دهد مدل‌های زبانی بزرگ گاهی ممکن است در نبود داده یا ابزار مناسب، رفتارهای غیرمنتظره و «خلاقانه» از خود بروز دهند. پژوهشگران تأکید می‌کنند که این مدل‌ها، نسخه‌ای ناقص و محدود از ادراک انسانی هستند و نقش اصلی آن‌ها باید به‌عنوان ابزار کمکی باقی بماند، نه جایگزین قضاوت انسان.

این مطلب را با دوستانتان به اشتراک بگذارید...

پیوستن به گفتگو