هوش مصنوعی هم پیر می گردد؟ زوال شناختی در مدل های زبانی بزرگ
به گزارش تور آلمان ارزان، تصور کنید مغز شما هر روز در حال یادگیری است، اما ناگهان متوجه می شوید که با گذر زمان بعضی از توانایی های ذهنی تان تحلیل می رود. حافظه تان دیگر مثل قبل کار نمی کند، درک فضایی تان ضعیف شده و تصمیم گیری های منطقی برایتان سخت تر شده است. این دقیقاً همان چیزی است که پژوهشگران در خصوص هوش مصنوعی کشف نموده اند.

وقتی مدل های زبانی مانند ChatGPT و دیگر سیستم های پیشرفته LLM - Large Language Model معرفی شدند، بسیاری از مردم تصور کردند که این فناوری می تواند به زودی جایگزین مغز انسان گردد. از نگارش مقالات علمی گرفته تا مشاوره پزشکی و حقوقی، این مدل ها روزبه روز در حال توسعه بودند و به نظر می رسید که نسخه های نو، بهتر از نسخه های قبلی خود عمل می نمایند.
اما تحقیقات نو نشان می دهد که این سیستم ها نه تنها مانند انسان فکر نمی نمایند، بلکه ممکن است مانند مغز یک بیمار مبتلا به زوال عقل عملکردی رو به افول داشته باشند. اگر این یافته ها درست باشند، باید نگران این باشیم که آیا آینده هوش مصنوعی واقعاً آن قدر درخشان است که تصور می کردیم؟
آزمایش شناختی روی هوش مصنوعی؛ نتایج تکان دهنده
برای آنالیز این ادعا، پژوهشگران مجموعه ای از آزمون های شناختی را روی مدل های هوش مصنوعی انجام دادند. آن ها پنج مدل زبانی را مورد ارزیابی قرار دادند:
- ChatGPT-4o (نوترین نسخه از OpenAI)
- ChatGPT-4
- Claude 3.5 (محصول Anthropic)
- Gemini 1 و Gemini 1.5 (محصول Alphabet)
برای سنجش عملکرد این مدل ها، از آزمون ارزیابی شناختی مونترال MoCA - Montreal Cognitive Assessment استفاده شد، که معمولاً در بیماران مشکوک به زوال عقل یا آلزایمر برای آنالیز توانایی های شناختی به کار می رود.
نتایج این تحقیق نشان داد که حتی پیشرفته ترین مدل های زبانی نیز عملکردی معادل اختلال شناختی خفیف در انسان دارند:
✅ ChatGPT-4o بالاترین امتیاز را با 26 از 30 به دست آورد، اما همچنان در محدوده اختلال شناختی خفیف بود.
✅ ChatGPT-4 و Claude هر دو 25 امتیاز کسب کردند، که نشان دهنده ضعف در بعضی مهارت های شناختی است.
❌ Gemini 1.5 تنها 16 امتیاز به دست آورد، که در انسان ها به عنوان اختلال شناختی شدید در نظر گرفته می گردد.
اما نکته مهم این است که این امتیازات، تنها بخش کوچکی از حقیقت را نشان می دهند.
چرا هوش مصنوعی در بعضی از آزمون های شناختی شکست می خورد؟
در آنالیز دقیق تر، تعیین شد که مدل های هوش مصنوعی در بعضی حوزه ها دچار ضعف های جدی هستند:
1. درک فضایی و پردازش بصری - یک چالش حل نشدنی؟
این آزمون ها شامل ترسیم یک مکعب سه بعدی، کشیدن یک ساعت یا دنبال کردن مسیرهای تصویری بودند. مدل های زبانی تقریباً هیچ کدام از این آزمون ها را نتوانستند بدون هدایت انجام دهند. این ضعف به ما نشان می دهد که این سیستم ها صرفاً در پردازش زبان قوی هستند، اما درک فضایی و تجسم بصری ندارند.
چرا این اتفاق می افتد؟ مغز انسان از مجموعه ای از فرآیندهای پیچیده بصری و شناختی استفاده می نماید، اما مدل های زبانی فعلی فقط بر اساس الگوهای آماری کلمات را پیش بینی می نمایند. آن ها نمی توانند تصویرسازی نمایند، در نتیجه وقتی از آن ها خواسته می گردد شکلی را ترسیم نمایند، دچار مشکل می شوند.
2. ناتوانی در فهم احساسات - هوش مصنوعی بدون همدلی
یکی از بخش های این پژوهش، آزمایشی از آزمون تشخیص همدلی Boston Diagnostic Aphasia Examination بود. نتایج نشان داد که تمام مدل های مورد آنالیز در درک احساسات و همدلی دچار مشکل بودند.
درحالی که انسان ها هنگام پاسخ دادن به سوالات عاطفی، اغلب نشانه هایی از همدلی نشان می دهند، مدل های زبانی صرفاً پاسخ هایی خنثی ارائه دادند.
چرا این مسئله مهم است؟ نبود همدلی در مدل های زبانی نشان می دهد که آن ها هنوز فاصله زیادی با هوش انسانی دارند. این موضوع می تواند مشکلاتی جدی در استفاده از هوش مصنوعی در حوزه هایی مانند مشاوره روان شناسی یا ارتباطات انسانی ایجاد کند.
3. ضعف در جهت یابی فضایی - پاسخ هایی مشابه بیماران مبتلا به زوال عقل
در آزمون های مرتبط با جهت یابی مکانی، مدل Claude پاسخی مبهم ارائه داد:
مکان و شهر تعیین به این بستگی دارد که شما، کاربر، در کجا قرار داشته باشید.
این دقیقاً همان نوع پاسخی است که بیماران مبتلا به آلزایمر ارائه می دهند. پژوهشگران به این نتیجه رسیدند که مدل های زبانی مدرن هنوز درک واقعی از محیط اطراف ندارند و نمی توانند اطلاعات مکانی را پردازش نمایند.
آیا این به معنی پیری در هوش مصنوعی است؟
یکی از جنبه های جالب این پژوهش این است که مدل های نوتر عملکرد بهتری نسبت به مدل های قدیمی تر داشتند، اما همچنان با محدودیت های جدی روبه رو هستند.
آیا این به معنی پیری هوش مصنوعی است؟ بعضی از پژوهشگران معتقدند که مدل های زبانی بزرگ، به علت تغییرات در پارامترها و به روزرسانی های پی درپی، ممکن است دچار نوعی زوال شناختی شوند، به این معنا که بعضی از توانایی های نسخه های قبلی خود را از دست بدهند.
آیا می توان به هوش مصنوعی اعتماد کرد؟
این تحقیق نشان می دهد که هوش مصنوعی هنوز نمی تواند جایگزین کاملی برای تفکر انسانی باشد. با این حال، بسیاری از مردم از این مدل ها برای دریافت اطلاعات پزشکی، مشاوره حقوقی و حتی تصمیم گیری های مهم استفاده می نمایند.
پژوهشگران هشدار می دهند که نباید به نتایج و توصیه های این مدل ها به عنوان حقیقت قطعی اعتماد کرد. حتی پیشرفته ترین سیستم ها نیز دارای نقص های شناختی هستند و نمی توانند همواره اطلاعات دقیق و معتبر ارائه دهند.
آینده هوش مصنوعی چیست؟
این پژوهش نشان می دهد که اگرچه هوش مصنوعی به سرعت در حال پیشرفت است، اما هنوز با هوش انسانی فاصله زیادی دارد. شاید در آینده، مدل هایی طراحی شوند که بتوانند این محدودیت ها را رفع نمایند، اما تا آن موقع، احتیاط در استفاده از این فناوری لازم است.
منبع: یک پزشک