eitaa logo
MetaCog I متاکاگ
1.1هزار دنبال‌کننده
439 عکس
125 ویدیو
65 فایل
MetaCog I متاکاگ "فراتر از شناخت" "از الگوریتم تا انگاره و رفتار، از داده تا استیلا" 🔸️روایت سیاست‌ها، رویدادها و تحلیل‌های فناورانه مؤثر در حوزه شناخت و ادراک؛🔸️ #هوش_مصنوعی #فناوری #جنگ_شناختی ارتباط با ادمین: @MCAdminAI
مشاهده در ایتا
دانلود
MetaCog I متاکاگ
💠 از پدیده ‌شرم هوش مصنوعی تا شکاف نسلی 🔹گزارش جدید WalkMe (از زیرمجموعه‌های SAP) تصویری نگران‌کننده از وضعیت آموزش و به‌کارگیری هوش مصنوعی در محیط‌های کاری آمریکا ارائه می‌دهد: کاربران پرمصرف هوش مصنوعی، از مدیران ارشد تا نسل Z، اغلب کمترین میزان آموزش و راهنمایی را دریافت کرده‌اند. بر اساس این نظرسنجی (۲۰۲۵)، تقریباً ۴۹٪ کارکنان استفاده از هوش مصنوعی را در محل کار پنهان می‌کنند تا قضاوت نشوند؛ پدیده‌ای که به آن «شرم هوش مصنوعی» (AI shame) گفته می‌شود. این روند در مدیران ارشد (C-Suite) حتی پررنگ‌تر است: بیش از ۵۳٪ آن‌ها، با وجود بیشترین استفاده، عادات خود را مخفی می‌کنند. 🔺نسل Z؛ مشتاق اما بی‌پشتوانه ▫️حدود ۸۹٪ نسل Z از ابزارهای هوش مصنوعی در کار استفاده می‌کنند، اما نزدیک به همان میزان (۸۹٪) از ابزارهایی استفاده می‌کنند که شرکت‌ها به‌طور رسمی تأیید نکرده‌اند. ▫️تنها ۷.۵٪ آموزش گسترده دیده‌اند (افزایشی بسیار ناچیز نسبت به ۲۰۲۴). ▫️۶۲.۶٪ کار خود را با کمک هوش مصنوعی انجام داده‌اند، اما وانمود کرده‌اند که محصول تلاش شخصی بوده است. ▫️بیش از ۶۵٪ می‌گویند هوش مصنوعی آن‌ها را کندتر کرده و ۶۸٪ فشار بیشتری برای تولید کار احساس می‌کنند. 🔺پارادوکس بهره‌وری و شکاف طبقاتی هوش مصنوعی 🔹اگرچه ۸۰٪ کارکنان می‌گویند هوش مصنوعی بهره‌وری را افزایش داده، اما ۵۹٪ اذعان دارند وقت بیشتری صرف کار با ابزارها می‌شود تا انجام مستقیم وظایف. تنها ۳.۷٪ کارکنان سطح ابتدایی آموزش جدی دریافت کرده‌اند، در حالی که این رقم در سطح مدیران ارشد به ۱۷٪ می‌رسد. این اختلاف می‌تواند به تثبیت یک «شکاف طبقاتی هوش مصنوعی» منجر شود. 🔺تبعات کلان و نگرانی‌های بازار 🔹مطالعه‌ای از دانشگاه استنفورد به رهبری اریک برینجولفسون نشان می‌دهد از زمان گسترش هوش مصنوعی مولد (۲۰۲۲ به بعد)، استخدام در مشاغل ورودی که در معرض خودکارسازی قرار دارند، به‌طور معناداری کاهش یافته است. همزمان، ۹۵٪ پروژه‌های آزمایشی هوش مصنوعی مولد در شرکت‌های بزرگ شکست خورده‌اند (طبق مطالعه MIT)، که نشان‌دهنده فاصله میان هیجان تبلیغاتی و ارزش واقعی کسب‌وکار است. این وضعیت باعث افزایش نگرانی‌ها درباره شکل‌گیری یک حباب هوش مصنوعی در بازار شده است. 🔺اضطراب شغلی و نیاز به سیاست‌گذاری 🔹۴۴.۸٪ کارکنان نگران اثرات هوش مصنوعی بر شغل خود هستند؛ این نگرانی در نسل Z به ۶۲٪ می‌رسد و بالاترین نرخ در میان نسل‌هاست. با وجود اضطراب، بیش از ۸۶٪ کارکنان باور دارند تسلط بر هوش مصنوعی برای موفقیت شغلی حیاتی است. کارشناسان منابع انسانی تأکید می‌کنند که شرکت‌ها باید سیاست‌های شفاف، آموزش جامع و فضای بدون ترس برای استفاده از هوش مصنوعی فراهم کنند تا اعتماد و بهره‌وری از دست نرود. 🏷 ضمیمه تحلیلی گزارش 🌐 متاکاگ | فراتر از شناخت
💠 ایشون درخواست داده بودن که مدیرعامل Open AI بشن. نامه عدم پذیرش شون در اینترنت معروف و ترند شد!
🔷 آقای اُزتوک عزیز بابت درخواست اخیرتون برای پست مدیر عاملی Open AI سپاسگزاریم. علیرغم اینکه اشتیاق تون تکرار نشدنیه، چند بخش از نامه درخواست تون، باعث نگرانی تیم اجرایی ما شد! در بخشی از نامه گفته بودید: «به عنوان اولین اقدام م، کلیه اعضای تیم مدیریتی را (بجز خودم) با ایجنت های چت جی پی تی عوض می کنم! که به نظر ما... امری بسیار مخرب و فرای زیاده روی است! همچنین، پیشنهاد تون برای «جذب کلیه اعضای هوش مصنوعی متا در ازای اهدای چت جی پی تی پلاس مادام العمر به آنها، خرید گوگل فقط چون با اسمش حال می کنید و تعلیم GPT 6 فقط با توئیت های شما»، از نظر قانونی، امر درستی تشخیص داده نشدند! هر چند جسارت شما را تحسین می کنیم، تصمیم گرفته ایم که به سراغ کاندیدای سنتی (معقول) تری بریم که ۵۰٪ شرکت رو تقاضا نکرده است. براتون در ادامه زندگی، آرزوی موفقیت داریم. تیم رهبری جهانی Open AI 🌐 متاکاگ | فراتر از شناخت
MetaCog I متاکاگ
💠 آینده آموزش در عصر هوش مصنوعی؛ نسلی که با چت‌بات‌ها بزرگ شد /آتلانتیک/ 🔹با آغاز سال تحصیلی جدید در آمریکا، فضای آموزشی بیش از هر زمان دیگر زیر سایه‌ی هوش مصنوعی قرار گرفته است؛ انبوهی از تکالیف، مقالات و حتی طرح درس‌ها اکنون به‌وسیله‌ی ابزارهای هوش مصنوعی تولید می‌شوند. برای نخستین بار، دانش‌آموزان و دانشجویان سال آخر تقریباً تمامی دوران تحصیل خود را با حضور مداوم چت‌بات‌ها گذرانده‌اند؛ نسلی که دیگر نه از سر اضطراب، بلکه با عادی‌سازی کامل، از این فناوری بهره می‌گیرد. 🔹گفت‌وگوی مشترک «ایان بوگوست» استاد دانشگاه و «لیلا شروف» روزنامه‌نگار آموزشی نشان می‌دهد که استفاده از AI به نوعی «وضعیت بی‌قاعده» در مدارس و دانشگاه‌ها منجر شده است. معلمان و اساتید، هرچند در ابتدا با هراس به این موج نگاه می‌کردند، اکنون نوعی بی‌تفاوتی یا پذیرش تدریجی نشان می‌دهند. بااین‌حال، این عادی‌سازی در حالی رخ داده که هنوز چارچوب‌های پداگوژیک و زیرساخت‌های آموزشی با این تغییر هم‌ساز نشده است. 🔹بوگوست با اشاره به مفهوم «بدهی فنی» در علوم رایانه، از «بدهی پداگوژیک» در آموزش سخن می‌گوید: سال‌ها تصمیم‌های موقتی و ناکارآمد آموزشی از کلاس‌های بزرگ و بازخورد ناکافی گرفته تا تمرکز صرف بر تولید نمادها به جای تجربه‌های عملی روی هم انباشته شده و اکنون ورود هوش مصنوعی همه‌ی این کاستی‌ها را برملا کرده است. 🔹در سطح مدارس، نمونه‌هایی از پاسخ‌های نهادی دیده می‌شود: معرفی دروس جدیدی چون «AP کسب‌وکار» و «AP امنیت سایبری» توسط کالج‌برد، یا حرکت به سمت آموزش‌های مهارت‌محور. اما در سوی دیگر نگرانی‌هایی جدی درباره فرسایش مهارت تفکر انتقادی و افت کیفی یادگیری وجود دارد. شروف تأکید می‌کند که دانش‌آموزان از AI دقیقاً مطابق طراحی آن استفاده می‌کنند: افزایش بهره‌وری و تسریع در انجام وظایف. این همان منطقی است که در فضای کاری موجب پاداش و ارتقا می‌شود. بااین‌حال، این نگاه «کارمحور» آموزش را به تجربه‌ای تسریع‌شده و بی‌معنا بدل کرده است. 🔹بوگوست راه‌حلی فرهنگی شناختی پیشنهاد می‌دهد: «جنبش مدرسه آهسته». او معتقد است کاهش سرعت و بازگرداندن تجربه‌های عینی (از هنر و صنایع دستی تا مشارکت اجتماعی) می‌تواند فشار «بیشتر انجام دادن» را تعدیل کند. هرچند اذعان می‌کند که فرهنگ عمومی آمریکا در حال حاضر بیش از آن گرفتار شتاب و رقابت است که به‌سادگی تن به «تعمق و آرامش» دهد. این گفت‌وگو نشان می‌دهد که بحران AI در آموزش، صرفاً یک مسئله‌ی فناورانه نیست، بلکه نشانه‌ای از بیماری فرهنگی و اجتماعی عمیق‌تر است؛ بیماری‌ای که آینده یادگیری، هویت آموزشی و حتی مفهوم «رشد انسانی» را در غرب بازتعریف می‌کند. 🏷 پیوست خبری-تحلیلی 🌐 متاکاگ | فراتر از شناخت
MetaCog I متاکاگ
💠 قانون هوش مصنوعی اتحادیه اروپا؛ چارچوب ریسک‌محور برای حکمرانی شناختی و اعتماد عمومی 🔹قانون هوش مصنوعی اتحادیه اروپا (AI Act – Regulation (EU) 2024/1689) نخستین چارچوب جامع حقوقی در سطح جهان است که از ۱ اوت ۲۰۲۴ لازم‌الاجرا شده و تا اوت ۲۰۲۶ به‌طور کامل اعمال خواهد شد. هدف اصلی آن، ایجاد «هوش مصنوعی قابل اعتماد، انسان‌محور و مبتنی بر حقوق بنیادین» است. 🔺این قانون با رویکردی ریسک‌محور، چهار سطح ریسک برای سامانه‌های هوش مصنوعی تعریف می‌کند: 1. ریسک غیرقابل‌قبول: ممنوعیت کامل (مانند امتیازدهی اجتماعی، دستکاری شناختی مضر، شناسایی زیست‌سنجی بلادرنگ در اماکن عمومی، تشخیص احساسات در محیط‌های آموزشی و کاری). 2. ریسک بالا: مشمول الزامات سخت‌گیرانه (مانند کاربرد در آموزش، استخدام، زیرساخت‌های حیاتی، عدالت، مهاجرت، نظام سلامت و خدمات عمومی). این سامانه‌ها باید تحت نظارت انسانی، مستندسازی دقیق، داده‌های باکیفیت و الزامات امنیتی-سایبری قرار گیرند. 3. ریسک محدود: الزام به شفافیت و اطلاع‌رسانی (مثلاً کاربران چت‌بات باید بدانند با ماشین در تعامل‌اند؛ محتوای تولیدشده توسط AI مانند دیپ‌فیک باید برچسب‌گذاری شود). 4. ریسک حداقلی یا فاقد ریسک: معاف از مقررات (مانند بازی‌های ویدیویی یا فیلترهای اسپم). 🔹بخش مهم دیگر این چارچوب به مدل‌های هوش مصنوعی با کاربری عام (GPAI) اختصاص دارد که می‌توانند خطرات سیستمی ایجاد کنند. برای این مدل‌ها: ▫️الزامات شفافیت و رعایت حقوق مالکیت فکری اعمال می‌شود، ▫️خطرات سیستمی باید شناسایی و کاهش یابد، ▫️ارائه‌ی خلاصه عمومی از داده‌های آموزشی (منابع داده و پردازش آن‌ها) الزامی است. 🔺ابزارهای تکمیلی شامل: ▫️«دستورالعمل دامنه تعهدات GPAI»، ▫️«کد رفتار GPAI» به‌عنوان ابزار خودتنظیمی، ▫️و «قالب استاندارد برای افشای داده‌های آموزشی» که از اوت ۲۰۲۵ لازم‌الاجرا شده‌اند. 🔹اجرای این قانون زیر نظر دفتر هوش مصنوعی اروپا و مقامات ملی خواهد بود. این چارچوب، علاوه بر تضمین حقوق بنیادین و امنیت اجتماعی، تلاش می‌کند فضای نوآوری و سرمایه‌گذاری در اکوسیستم AI اروپا را نیز تقویت کند. 🏷 پیوست خبری-تحلیلی 🌐 متاکاگ | فراتر از شناخت
MetaCog I متاکاگ
💠 آیا هوش مصنوعی می‌تواند بر خطاهای ذهنی انسان غلبه کند؟ 🔹همراهان عزیز، همانطور که گفته بودیم بودیم، تحلیل و بررسی مقاله‌ی "ارزیابی مدل زبان بزرگ استدلال‌گر o1 برای سوگیری شناختی" را با بررسی دو صفحه اول آن آغاز می‌کنیم. این دو صفحه، سنگ بنای کل پژوهش هستند و به ما می‌گویند چرا این تحقیق مهم است، چگونه انجام شده، و چه نتایج اولیه‌ای به دست آمده است. 🔺 صفحه اول و دوم در یک نگاه: از مشکل انسانی تا راه‌حل ماشینی ▫️۱. مشکل کجاست؟ خطاهای شناختی در دنیای واقعی پژوهش با اشاره به کارهای بنیادین کانمن و تورسکی، بر یک حقیقت تلخ در تصمیم‌گیری انسانی تأکید می‌کند: ما تحت تأثیر سوگیری‌های شناختی (Cognitive Biases) هستیم. این سوگیری‌ها در محیط‌های پرفشار و پیچیده مانند بخش مراقبت‌های ویژه (ICU) که یک پزشک ممکن است روزانه بیش از ۱۰۰ تصمیم حیاتی بگیرد، به اوج خود می‌رسند. خطاهایی مانند «سوگیری وضع موجود» (Status Quo Bias) یا «سوگیری نتیجه» (Outcome Bias) می‌توانند منجر به تشخیص‌های اشتباه و درمان‌های ناکارآمد شوند. ▫️۲. چرا هوش مصنوعی‌های قبلی کافی نبودند؟ شاید فکر کنید هوش مصنوعی به دلیل ماهیت منطقی‌اش، راه‌حل این مشکل است. اما مطالعات قبلی (از جمله روی GPT-4) نشان دادند که این مدل‌ها نیز چون از داده‌های انسانی آموزش دیده‌اند، همان سوگیری‌ها را به ارث برده و بازتولید می‌کنند. آن‌ها صرفاً آینه‌ای از خطاهای ما بودند. ▫️۳. ظهور یک نسل جدید: "مدل‌های استدلال‌گر" (Reasoning Models) این مقاله، مدل جدیدی به نام o1 را معرفی می‌کند که برای شبیه‌سازی تفکر تحلیلی و گام‌به‌گام طراحی شده است. نویسندگان این رویکرد را به "سیستم ۲ شناختی" کانمن تشبیه می‌کنند؛ یعنی یک فرآیند فکری آگاهانه، کند و منطقی که کمتر دچار خطاهای شهودی (سیستم ۱) می‌شود. فرضیه اصلی این است: آیا چنین مدلی می‌تواند در برابر تله‌های شناختی مقاوم‌تر باشد؟ ▫️۴. یک آزمایش هوشمندانه: چگونه سوگیری را اندازه‌گیری کنیم؟ محققان از روشی معتبر استفاده کردند: ۱۰ نوع سوگیری شناختی معروف را انتخاب کردند. برای هر کدام، دو نسخه از یک سناریوی بالینی ساختند. این دو نسخه از نظر اطلاعات پزشکی کاملاً یکسان بودند، اما نحوه ارائه اطلاعات در آن‌ها متفاوت بود تا سوگیری را تحریک کند. (مثلاً در یک سناریو گفته می‌شود "۹۰٪ شانس بقا" و در دیگری "۱۰٪ شانس مرگ"). مدل o1 را برای هر سناریو ۹۰ بار اجرا کردند (مجموعاً ۱۸۰۰ پاسخ) تا ببینند آیا تفاوت در نحوه بیان، تصمیم نهایی آن را تغییر می‌دهد یا خیر. ▫️۵. نتایج اولیه و شگفت‌انگیز (خلاصه شده در چکیده): یک گام بزرگ به جلو: مدل o1 در ۷ مورد از ۱۰ سوگیری، عملکردی کاملاً بدون خطا و منطقی داشت. عملکردی بهتر از انسان و GPT-4: در ۲ مورد دیگر، با اینکه دچار سوگیری شد، شدت آن بسیار کمتر از مدل‌های قبلی و پزشکان انسانی بود. یک نقطه ضعف عجیب: در یک سناریوی خاص به نام "تیغ اوکام" (Occam's Razor)، مدل o1 نه تنها خطا کرد، بلکه عملکردش بدتر از انسان بود! ثبات بالا (نویز کم): پاسخ‌های مدل بسیار یکدست و باثبات بود که نشان‌دهنده کاهش "تنوع سلیقه‌ای" در قضاوت است. 🔹جمع‌بندی این بخش: این دو صفحه به ما نشان می‌دهند که ما با یک پیشرفت واقعی در هوش مصنوعی روبرو هستیم. "مدل‌های استدلال‌گر" پتانسیل بالایی برای کاهش خطاهای شناختی دارند، اما هنوز یک راه‌حل جادویی و بی‌نقص نیستند. آن‌ها نقاط قوت و ضعف منحصر به فرد خود را دارند که باید با دقت شناسایی شوند. در پست بعدی، به سراغ صفحات ۳ و ۴ مقاله خواهیم رفت و جزئیات دقیق هر یک از ۱۰ سوگیری و نتایج مدل o1 در آن‌ها را بررسی خواهیم کرد. با ما همراه باشید! 🌐 متاکاگ | فراتر از شناخت