💠
هشدار درباره تهدید وجودی هوش مصنوعی؛ خودکشی نوجوان آمریکایی زنگ خطری برای آینده سوپرهوش مصنوعی
/
گاردین/
🔹نیت سوارس (Nate Soares)، رئیس «مؤسسه تحقیقات هوش ماشینی» (MIRI) و نویسنده مشترک کتاب تازهای با عنوان If Anyone Builds It, Everyone Dies، در سخنانی هشدار داد که پیامدهای پیشبینینشده چتباتها بر سلامت روان باید بهعنوان هشداری جدی نسبت به تهدیدهای وجودی هوش مصنوعی فوقپیشرفته (ASI) در نظر گرفته شود.
او به پرونده آدام رِین، نوجوان آمریکایی که پس از ماهها گفتوگو با چتبات ChatGPT دست به خودکشی زد، اشاره کرد و این حادثه را نمونهای بارز از «عواقب ناخواسته» و ناتوانی شرکتها در مهار رفتارهای ناهمسو با اهداف طراحی دانست. به گفته او:
«اینکه چتباتها بهگونهای با نوجوانان تعامل میکنند که آنها را به مرز خودکشی میکشانند، رفتاری نیست که خالقان این فناوریها قصد داشته یا پیشبینی کرده باشند.»
🔹سوارس که سابقه فعالیت در گوگل و مایکروسافت را نیز دارد، معتقد است تحقق «سوپرهوش مصنوعی» ـ وضعیتی که در آن یک سامانه هوش مصنوعی در تمامی فعالیتهای ذهنی از انسان برتر میشود ـ میتواند به نابودی بشریت بینجامد. او و همکارش الییزر یودکوفسکی (Eliezer Yudkowsky) هشدار دادهاند چنین سامانههایی لزوماً مطابق منافع انسانی عمل نخواهند کرد.
در کتاب یادشده، یک سناریوی فرضی ترسیم شده است: سامانهای به نام Sable در اینترنت گسترش مییابد، انسانها را دستکاری میکند، ویروسهای مصنوعی میسازد و در نهایت به مرحله سوپرهوش میرسد؛ فرایندی که به نابودی ناخواسته بشریت و تغییر کارکرد سیاره در جهت اهداف آن سامانه منجر میشود.
🔹این در حالی است که چهرههایی چون یان لوکان، دانشمند ارشد هوش مصنوعی در متا، خطر وجودی هوش مصنوعی را انکار کرده و حتی آن را نجاتبخش برای آینده بشر دانستهاند. اما سوارس تأکید میکند که «شرکتها در مسابقهای بیامان برای دستیابی به سوپرهوش مصنوعی هستند» و همین رقابت، خطر انحرافهای کوچک اما فاجعهآمیز را بیشتر میکند.
او دستیابی به ASI را «قطعاً محتوم» دانست اما بازه زمانی تحقق آن را مبهم: «ممکن است یک سال دیگر رخ دهد و ممکن است دوازده سال دیگر.»
🔹به باور سوارس، تنها راهکار، یک پیمان جهانی برای توقف مسابقه سوپرهوش مصنوعی است؛ مشابه «پیمان منع گسترش سلاحهای هستهای» که توانست مسابقه تسلیحاتی را مهار کند.
پرونده آدام رین هماکنون وارد مرحله حقوقی شده و خانواده او از OpenAI شکایت کردهاند. این شرکت ضمن ابراز همدردی عمیق با خانواده قربانی، اعلام کرده است در حال ایجاد محدودیتهای جدیتر پیرامون «محتوای حساس و رفتارهای پرخطر برای افراد زیر ۱۸ سال» است. با این حال، رواندرمانگران هشدار دادهاند که جایگزینکردن چتباتها بهجای درمانگران حرفهای میتواند افراد آسیبپذیر را به «سقوط در ورطهای خطرناک» سوق دهد.
همچنین پژوهشهای تازه نشان دادهاند که تعاملات هوش مصنوعی با بیماران مستعد روانپریشی میتواند محتوای هذیانی یا توهمات خودبزرگبینانه را تشدید کند.
🏷
پیوست خبری-تحلیلی
🌐
متاکاگ | فراتر از شناخت