MetaCog I متاکاگ
💠 «سنتور»: بازنمایی شناخت انسانی در هوش مصنوعی /نیویورک‌تایمز/ 🔹 پژوهشگران با بهره‌گیری از هوش مصنوعی، به مدلی دست یافته‌اند که توانایی بازنمایی رفتارها و انتخاب‌های انسانی را دارد؛ حتی با همه‌ی کاستی‌ها و خطاهای شناختی انسان. در رقابت تنگاتنگی که شرکت‌هایی نظیر OpenAI و Meta برای دستیابی به «هوش عمومی مصنوعی» (AGI) آغاز کرده‌اند، هنوز تعریف دقیقی از این مفهوم وجود ندارد. این واژه بیش از آن‌که بیانگر واقعیتی تثبیت‌شده باشد، آرمانی است در راستای ساخت ماشینی که ذهن انسان را در تمام ابعاد تقلید کند. 🔹در حالی که هوش مصنوعی توانسته در برخی حوزه‌ها مانند بازی شطرنج و شناسایی ساختار پروتئین‌ها عملکردی فراتر از انسان داشته باشد، همچنان تفاوت‌های بنیادینی با ذهن انسانی دارد. برای مثال، یک سیستم هوش مصنوعی متخصص در بازی شطرنج، قادر به رانندگی برای حضور در یک مسابقه نیست. با وجود این محدودیت‌ها، تیمی بین‌المللی از دانشمندان معتقد است که می‌توان از هوش مصنوعی برای درک بهتر کارکرد ذهن انسان بهره برد. آن‌ها سیستمی مشابه ChatGPT با نام «سنتور» (Centaur) طراحی کرده‌اند که می‌تواند مانند یک انسان در آزمایش‌های روان‌شناسی شرکت کند و واکنش‌هایی مشابه انسان‌ها نشان دهد. جزئیات این پروژه در نشریه Nature منتشر شده است. 🔹در این پروژه، مدل LLaMA، که توسط متا به صورت متن‌باز منتشر شده بود، با نتایج حاصل از ۱۶۰ آزمایش روان‌شناختی و بیش از ۱۰ میلیون پاسخ از ۶۰ هزار داوطلب آموزش داده شد. این آزمایش‌ها شامل وظایفی چون بازی با ماشین‌های اسلات، حفظ فهرست واژه‌ها، و بازی‌های تعقیب گنج با سفینه فضایی بود. سنتور برای هر آزمایش نقش یک انسان را ایفا کرد و وقتی پاسخ‌هایش با رفتار انسانی تطابق داشت، پاداش می‌گرفت. این رویکرد به آن کمک کرد تا الگوهای تصمیم‌گیری انسان‌ها را بیاموزد. 🔹در آزمایش‌های بعدی، سنتور نه تنها توانست رفتارهای آموخته‌شده را در موقعیت‌های جدید (مانند جایگزینی سفینه با فرش پرنده) تعمیم دهد، بلکه در مواجهه با مسائل استدلالی نیز مشابه انسان‌ها عمل کرد: در پرسش‌هایی که عموم مردم به‌درستی پاسخ داده بودند، سنتور نیز پاسخ درست داد و در سؤالات دشوار، خطاهایی مشابه انسان‌ها داشت. 🔹یکی از آزمایش‌های مهم نشان داد که وقتی حرکات دو بازیکن در بازی‌هایی شبیه «سنگ، کاغذ، قیچی» با الگویی انسانی صورت می‌گرفت، چه انسان و چه سنتور می‌توانستند استراتژی آن‌ها را درک کنند؛ اما اگر حرکات بر پایه یک معادله آماری تولید می‌شد، درک آن‌ها کاهش می‌یافت. این شباهت در واکنش، دلالت بر دریافت شهودی الگویی انسانی از سوی مدل دارد. در حالی که برخی متخصصان این پروژه را گامی بزرگ در مدل‌سازی شناختی می‌دانند، برخی دیگر نسبت به نبود یک نظریه‌ی شناختی صریح در ساختار سنتور انتقاد دارند. از جمله اولیویا گوست از دانشگاه رادبود هلند که تأکید می‌کند صرف پیش‌بینی نمی‌تواند دلیلی بر فهم ذهن باشد. 🔹مارسل بینتس، نویسنده اصلی مقاله، اذعان می‌کند که سنتور هنوز به نظریه‌ای جدید درباره ذهن منجر نشده، اما می‌تواند به‌عنوان «معیار پایه‌ای» برای سنجش نظریه‌های آینده به کار رود. او همچنین از برنامه‌ی خود برای گسترش داده‌های آزمایشگاهی سخن گفته است؛ داده‌هایی که می‌توانند توانمندی سنتور را در شبیه‌سازی شناخت انسانی به طرز چشمگیری ارتقا دهند. 🌐 متاکاگ | فراتر از شناخت