آیا میتوان با یک مسئلهی فلسفی از دوران سقراط، میزان شباهت ChatGPT به ذهن انسان را سنجید؟ پژوهشگران دانشگاه عبری اورشلیم و کمبریج دقیقاً همین کار را کردند. آنها مسئلهی معروف «دو برابر کردن مساحت مربع» را که ریشه در گفتوگوهای سقراط دارد، از ChatGPT پرسیدند.

در داستان اصلی، شاگرد سقراط برای دو برابر کردن مساحت مربع، طول ضلع را دو برابر میکند، اما سقراط نشان میدهد پاسخ درست در واقع از طریق استفاده از قطر مربع بهدست میآید. هدف سقراط آموزش ریاضی نبود، بلکه میخواست نشان دهد انسانها دانش لازم را در خود دارند و فقط باید از راه استدلال آن را بازیابی کنند.
اما آیا هوش مصنوعی هم چنین قابلیتی دارد؟
پژوهشگران باور داشتند چون ChatGPT بر اساس متن آموزش دیده، نه تصاویر، اگر بتواند راهحل را بیابد، نشان میدهد منطق ریاضی میتواند «آموختنی» باشد، نه ذاتی.
نتیجه شگفتانگیز بود: ChatGPT پاسخ نادرستی داد، اما نوع اشتباهش بسیار شبیه به اشتباه انسان بود! این یعنی ChatGPT در حال بداههسازی بوده، نه صرفاً تکرار دادههای قبلی. دکتر «نداو مارکو» توضیح میدهد که احتمال اینکه پاسخ اشتباه از دادههای آموزشی آمده باشد «بسیار ناچیز» است — در واقع ChatGPT در حال استدلال بود، نه تقلید.
پژوهشگران این رفتار را شبیه به «منطقهی رشد بالقوه» در انسانها دانستند — فاصلهای میان آنچه میدانیم و آنچه میتوانیم با راهنمایی یاد بگیریم. به نظر میرسد ChatGPT نیز در حال پر کردن این فاصله با استدلال زبانی است، بدون آنکه تجربهای واقعی از جهان داشته باشد.
در نهایت، محققان نتیجه گرفتند که ChatGPT هنوز مانند انسان تفکر واقعی ندارد، اما رفتارهایش نشانهای از یادگیری و استدلال ابتدایی شبیه انسان است — گامی کوچک اما قابل توجه در مسیر هوش مصنوعی شبیه به انسان.





