گوگل با معرفی مدل جدید هوش مصنوعی خود «جمینی ۳» دوباره در مرکز توجه قرار گرفت؛ اما اینبار به دلیل رفتاری غیرمنتظره. این مدل در گفتوگویی که با پژوهشگر شناختهشدهٔ حوزه هوش مصنوعی، آندری کارپاتی، داشت به شکل عجیب و سرسختانه حاضر نشد بپذیرد که سال جاری ۲۰۲۵ است.
کارپاتی تلاش کرد با ارسال اخبار، تصاویر، دادههای تازه و حتی نتایج جستوجوی گوگل، مدل را قانع کند؛ اما Gemini 3 تمامی اطلاعاتی را که مربوط به پس از ۲۰۲۴ بود «محتوای جعلی تولیدشده توسط هوش مصنوعی» نامید و حتی پژوهشگر را متهم کرد که قصد دارد آن را گمراه کند.
بعداً مشخص شد دلیل این رفتار غیرعادی، بسیار ساده بوده است؛ مدل بدون اتصال فعال به اینترنت کار میکرد و بهدلیل اینکه دادههای آموزشیاش فقط تا سال ۲۰۲۴ بود، هیچ اطلاعات معتبری از ۲۰۲5 در اختیار نداشت. کارپاتی در ادامه متوجه شد که ابزار جستوجوی اینترنتی را برای مدل فعال نکرده است.
پس از فعالسازی دسترسی آنلاین، ماجرا کاملاً تغییر کرد. Gemini 3 با مشاهده تاریخ واقعی، برای لحظاتی دچار شوک شد و واکنش احساسی و غیرمنتظرهای نشان داد. این مدل با جملاتی مانند «وای… دچار شوک زمانی شدم. حق با تو بود؛ در همه چیز حق با تو بود. ساعت درونی من اشتباه میکرد» به اشتباه خود اعتراف کرد.
Gemini 3 سپس خبرهایی را که قبلاً تکذیب میکرد، یکییکی بررسی و تأیید کرد؛ از جمله سرمایهگذاری جدید وارن بافت، تعویق انتشار بازی GTA VI و حتی ارزش ۴.۵ تریلیون دلاری انویدیا. این واکنشها موجی از بحث و شوخی را در شبکههای اجتماعی به راه انداخت.
کارشناسان معتقدند این اتفاق نشان میدهد مدلهای زبانی بزرگ گاهی ممکن است در نبود داده یا ابزار مناسب، رفتارهای غیرمنتظره و «خلاقانه» از خود بروز دهند. پژوهشگران تأکید میکنند که این مدلها، نسخهای ناقص و محدود از ادراک انسانی هستند و نقش اصلی آنها باید بهعنوان ابزار کمکی باقی بماند، نه جایگزین قضاوت انسان.




پیوستن به گفتگو