چطور یک مسئله ۲۴۰۰ ساله نشان می‌دهد ChatGPT چقدر به هوش انسانی نزدیک است

آیا می‌توان با یک مسئله‌ی فلسفی از دوران سقراط، میزان شباهت ChatGPT به ذهن انسان را سنجید؟ پژوهشگران دانشگاه عبری اورشلیم و کمبریج دقیقاً همین کار را کردند. آن‌ها مسئله‌ی معروف «دو برابر کردن مساحت مربع» را که ریشه در گفت‌وگوهای سقراط دارد، از ChatGPT پرسیدند.

در داستان اصلی، شاگرد سقراط برای دو برابر کردن مساحت مربع، طول ضلع را دو برابر می‌کند، اما سقراط نشان می‌دهد پاسخ درست در واقع از طریق استفاده از قطر مربع به‌دست می‌آید. هدف سقراط آموزش ریاضی نبود، بلکه می‌خواست نشان دهد انسان‌ها دانش لازم را در خود دارند و فقط باید از راه استدلال آن را بازیابی کنند.

 

اما آیا هوش مصنوعی هم چنین قابلیتی دارد؟
پژوهشگران باور داشتند چون ChatGPT بر اساس متن آموزش دیده، نه تصاویر، اگر بتواند راه‌حل را بیابد، نشان می‌دهد منطق ریاضی می‌تواند «آموختنی» باشد، نه ذاتی.

 

نتیجه شگفت‌انگیز بود: ChatGPT پاسخ نادرستی داد، اما نوع اشتباهش بسیار شبیه به اشتباه انسان بود! این یعنی ChatGPT در حال بداهه‌سازی بوده، نه صرفاً تکرار داده‌های قبلی. دکتر «نداو مارکو» توضیح می‌دهد که احتمال این‌که پاسخ اشتباه از داده‌های آموزشی آمده باشد «بسیار ناچیز» است — در واقع ChatGPT در حال استدلال بود، نه تقلید.

 

پژوهشگران این رفتار را شبیه به «منطقه‌ی رشد بالقوه» در انسان‌ها دانستند — فاصله‌ای میان آنچه می‌دانیم و آنچه می‌توانیم با راهنمایی یاد بگیریم. به نظر می‌رسد ChatGPT نیز در حال پر کردن این فاصله با استدلال زبانی است، بدون آن‌که تجربه‌ای واقعی از جهان داشته باشد.

 

در نهایت، محققان نتیجه گرفتند که ChatGPT هنوز مانند انسان تفکر واقعی ندارد، اما رفتارهایش نشانه‌ای از یادگیری و استدلال ابتدایی شبیه انسان است — گامی کوچک اما قابل توجه در مسیر هوش مصنوعی شبیه به انسان.

 

۵
از ۵
۱ مشارکت کننده
سبد خرید