MetaCog I متاکاگ
💠 هشدار درباره تهدید وجودی هوش مصنوعی؛ خودکشی نوجوان آمریکایی زنگ خطری برای آینده سوپرهوش مصنوعی /گاردین/ 🔹نیت سوارس (Nate Soares)، رئیس «مؤسسه تحقیقات هوش ماشینی» (MIRI) و نویسنده مشترک کتاب تازه‌ای با عنوان If Anyone Builds It, Everyone Dies، در سخنانی هشدار داد که پیامدهای پیش‌بینی‌نشده چت‌بات‌ها بر سلامت روان باید به‌عنوان هشداری جدی نسبت به تهدیدهای وجودی هوش مصنوعی فوق‌پیشرفته (ASI) در نظر گرفته شود. او به پرونده آدام رِین، نوجوان آمریکایی که پس از ماه‌ها گفت‌وگو با چت‌بات ChatGPT دست به خودکشی زد، اشاره کرد و این حادثه را نمونه‌ای بارز از «عواقب ناخواسته» و ناتوانی شرکت‌ها در مهار رفتارهای ناهمسو با اهداف طراحی دانست. به گفته او: «اینکه چت‌بات‌ها به‌گونه‌ای با نوجوانان تعامل می‌کنند که آن‌ها را به مرز خودکشی می‌کشانند، رفتاری نیست که خالقان این فناوری‌ها قصد داشته یا پیش‌بینی کرده باشند.» 🔹سوارس که سابقه فعالیت در گوگل و مایکروسافت را نیز دارد، معتقد است تحقق «سوپرهوش مصنوعی» ـ وضعیتی که در آن یک سامانه هوش مصنوعی در تمامی فعالیت‌های ذهنی از انسان برتر می‌شود ـ می‌تواند به نابودی بشریت بینجامد. او و همکارش الییزر یودکوفسکی (Eliezer Yudkowsky) هشدار داده‌اند چنین سامانه‌هایی لزوماً مطابق منافع انسانی عمل نخواهند کرد. در کتاب یادشده، یک سناریوی فرضی ترسیم شده است: سامانه‌ای به نام Sable در اینترنت گسترش می‌یابد، انسان‌ها را دستکاری می‌کند، ویروس‌های مصنوعی می‌سازد و در نهایت به مرحله سوپرهوش می‌رسد؛ فرایندی که به نابودی ناخواسته بشریت و تغییر کارکرد سیاره در جهت اهداف آن سامانه منجر می‌شود. 🔹این در حالی است که چهره‌هایی چون یان لوکان، دانشمند ارشد هوش مصنوعی در متا، خطر وجودی هوش مصنوعی را انکار کرده و حتی آن را نجات‌بخش برای آینده بشر دانسته‌اند. اما سوارس تأکید می‌کند که «شرکت‌ها در مسابقه‌ای بی‌امان برای دستیابی به سوپرهوش مصنوعی هستند» و همین رقابت، خطر انحراف‌های کوچک اما فاجعه‌آمیز را بیشتر می‌کند. او دستیابی به ASI را «قطعاً محتوم» دانست اما بازه زمانی تحقق آن را مبهم: «ممکن است یک سال دیگر رخ دهد و ممکن است دوازده سال دیگر.» 🔹به باور سوارس، تنها راهکار، یک پیمان جهانی برای توقف مسابقه سوپرهوش مصنوعی است؛ مشابه «پیمان منع گسترش سلاح‌های هسته‌ای» که توانست مسابقه تسلیحاتی را مهار کند. پرونده آدام رین هم‌اکنون وارد مرحله حقوقی شده و خانواده او از OpenAI شکایت کرده‌اند. این شرکت ضمن ابراز همدردی عمیق با خانواده قربانی، اعلام کرده است در حال ایجاد محدودیت‌های جدی‌تر پیرامون «محتوای حساس و رفتارهای پرخطر برای افراد زیر ۱۸ سال» است. با این حال، روان‌درمانگران هشدار داده‌اند که جایگزین‌کردن چت‌بات‌ها به‌جای درمانگران حرفه‌ای می‌تواند افراد آسیب‌پذیر را به «سقوط در ورطه‌ای خطرناک» سوق دهد. همچنین پژوهش‌های تازه نشان داده‌اند که تعاملات هوش مصنوعی با بیماران مستعد روان‌پریشی می‌تواند محتوای هذیانی یا توهمات خودبزرگ‌بینانه را تشدید کند. 🏷 پیوست خبری-تحلیلی 🌐 متاکاگ | فراتر از شناخت