eitaa logo
MetaCog I متاکاگ
1.1هزار دنبال‌کننده
449 عکس
130 ویدیو
65 فایل
MetaCog I متاکاگ "فراتر از شناخت" "از الگوریتم تا انگاره و رفتار، از داده تا استیلا" 🔸️روایت سیاست‌ها، رویدادها و تحلیل‌های فناورانه مؤثر در حوزه شناخت و ادراک؛🔸️ #هوش_مصنوعی #فناوری #جنگ_شناختی ارتباط با ادمین: @MCAdminAI
مشاهده در ایتا
دانلود
MetaCog I متاکاگ
💠 هوش مصنوعی و آموزش؛ چرا یادگیری واقعی تنها در بستر تلاش شناختی شکل می‌گیرد؟ 🔹با گسترش سریع ابزارهای هوش مصنوعی مولد در آموزش، پرسشی اساسی پیش روی دانشگاهیان و سیاست‌گذاران قرار گرفته است: آیا این ابزارها واقعاً یادگیری را تقویت می‌کنند یا برعکس، موجب تحلیل رفتن توانایی‌های شناختی دانش‌آموزان و دانشجویان می‌شوند؟ در مقاله‌ای منتشرشده در The Conversation، «برایان دبلیو. استون» روان‌شناس شناختی دانشگاه بویسی استیت، توضیح می‌دهد که یادگیری پایدار تنها زمانی اتفاق می‌افتد که کار دشوار و پرزحمت باشد. او با بهره‌گیری از نظریه «دو نظام پردازشی» (System 1 و System 2) توضیح می‌دهد: ▫️نظام ۱ سریع، شهودی و مبتنی بر الگوهاست. ◽️نظام ۲ آهسته، نیازمند تلاش ذهنی و پردازش آگاهانه است و بنیان یادگیری عمیق و مهارت‌های پایدار را می‌سازد. 🔹به تعبیر او، اگر یادگیری مانند پرورش عضله باشد، تلاش ذهنی همان وزنه‌برداری است. حال اگر ماشین به جای فرد وزنه‌ها را بلند کند، عضلات او به‌تدریج تحلیل می‌رود. به همین ترتیب، استفاده ابزاری و سطحی از چت‌بات‌ها، بار شناختی را کاهش داده و دانشجویان را از تمرین‌های حیاتی ذهنی محروم می‌کند؛ نتیجه آن، ضعف در حافظه، تحلیل انتقادی و قضاوت عقلانی است. 🔹مطالعات تازه نشان می‌دهد: دانشجویانی که برای پژوهش تنها از ChatGPT استفاده کرده‌اند، سطح بار شناختی کمتری تجربه کرده‌اند اما درک و استدلال ضعیف‌تری نسبت به کسانی داشته‌اند که از جست‌وجوی سنتی بهره برده‌اند. در بازنویسی مقالات با کمک AI، اگرچه نمرات اولیه بالاتر بوده، اما هیچ پیشرفت معناداری در انتقال دانش و مهارت‌های بلندمدت حاصل نشده است. این پدیده به «تن‌آسایی فراشناختی» (metacognitive laziness) تعبیر می‌شود. 🔹در عین حال، اگر هوش مصنوعی به‌مثابه «مربی شخصی» طراحی شود مانند حالت‌های آموزشی جدید OpenAI یا Anthropic که بر دیالوگ سقراطی و پرسش‌محوری تمرکز دارند، می‌تواند در مسیر یادگیری نقش پشتیبان ایفا کند. اما حتی در این حالت نیز خطر خطاهای فراشناختی باقی است؛ بسیاری از دانش‌آموزان و دانشجویان به‌اشتباه تصور می‌کنند عملکردشان بهتر شده، در حالی که در آزمون‌های مستقل، نتایج ضعیف‌تری گرفته‌اند. این پژوهش‌ها پیام روشنی دارند: هوش مصنوعی می‌تواند ابزار تقویت یادگیری باشد، اما تنها زمانی که بنیادهای شناختی و مهارت‌های اولیه از طریق تلاش واقعی شکل گرفته باشند. در غیر این صورت، استفاده زودهنگام یا افراطی از AI، به جای تقویت «توان ذهنی»، آن را تضعیف خواهد کرد. 🏷 پیوست خبری 🌐 متاکاگ | فراتر از شناخت
MetaCog I متاکاگ
💠 انقلاب شناختی در میدان نبرد: معمای کنترل انسانی، سوگیری اتوماسیون و آینده جنگ 🔹در قسمت‌های قبل دیدیم که چگونه هوش مصنوعی می‌تواند «زنجیره کشتار» را از طریق پردازش سریع داده‌ها متحول کند. اما در این قسمت پایانی، به پیچیده‌ترین و شاید نگران‌کننده‌ترین جنبه این انقلاب فناورانه می‌پردازیم: رابطه انسان و ماشین در فرآیند تصمیم‌گیری‌های حیاتی و مرگبار. آیا ادغام هوش مصنوعی در جنگ، به معنای حذف کامل انسان از چرخه تصمیم‌گیری است؟ شاشانک جوشی، دبیر دفاعی اکونومیست، استدلال می‌کند که مسئله پیچیده‌تر از یک «بله» یا «خیر» ساده است. چالش اصلی، فهم دقیق محدودیت‌ها و نقاط قوت سیستم‌های هوش مصنوعی توسط فرماندهان انسانی است. 🔹در این قسمت، به یک مفهوم کلیدی در علوم شناختی می‌پردازیم: «سوگیری اتوماسیون» (Automation Bias). این سوگیری به تمایل شناختی انسان‌ها برای اعتماد بیش از حد به خروجی سیستم‌های خودکار اشاره دارد، حتی زمانی که شواهد متناقضی وجود دارد. آیا یک فرمانده می‌تواند پیشنهاد یک الگوریتم را که مبتنی بر تحلیل میلیون‌ها داده است، به چالش بکشد؟ یا صرفاً به یک «تأییدکننده» تصمیمات ماشین تبدیل خواهد شد؟ 🔹این ویدئو با نگاهی به نمونه‌های واقعی از جمله جنگ اوکراین و سیستم‌های توسعه‌یافته توسط شرکت‌هایی مانند پالانتیر (Palantir)، نشان می‌دهد که این آینده دیگر یک سناریوی علمی-تخیلی نیست. نرم‌افزارها و الگوریتم‌ها در حال تبدیل شدن به هسته اصلی قدرت نظامی هستند و عملیات‌هایی که در گذشته به هزاران نفر نیاز داشتند، اکنون توسط تیم‌های کوچکی با پشتیبانی هوش مصنوعی انجام می‌شوند. این مجموعه با این پرسش حیاتی به پایان می‌رسد: در دنیایی که ماشین‌ها می‌توانند سریع‌تر و (شاید) دقیق‌تر از انسان‌ها تصمیم بگیرند، نقش قضاوت اخلاقی، شهود و مسئولیت‌پذیری انسانی چه خواهد بود؟ آینده جنگ در گرو تعامل پیچیده بین هوش انسانی و هوش مصنوعی است. 🌐 متاکاگ | فراتر از شناخت
MetaCog I متاکاگ
🔺برای دسترسی سریع به بخش‌های کلیدی ویدیو، می‌توانید روی این زمان‌ها کلیک کنید: 00:00 - پرسش کلیدی: "آیا الگوریتم‌های هوش مصنوعی در حال حاضر برای انتخاب اهداف در میدان نبرد استفاده می‌شوند؟" 00:05 - اوکراین به عنوان میدان آزمایش: "اوکراین، بیش از هر جای دیگر، به میدان اصلی آزمایش پیشرفته‌ترین هوش مصنوعی نظامی تبدیل شده است." 00:17 - نوآوری در پهپادها: نمایش پهپادهای دستکاری شده که قابلیت‌های پیشرفته‌ای پیدا کرده‌اند. 00:49 - خودمختاری در جنگ مدرن: "همه چیز درباره خودمختاری است، و این بیش از هر چیز دیگری توسط نرم‌افزار ارائه خواهد شد." 01:00 - پروژه‌های نظامی آمریکا: معرفی سیستم هوشمند Maven که حجم عظیمی از داده‌های هوایی و ماهواره‌ای را برای شناسایی اهداف تحلیل می‌کند. 01:21 - نقش شرکت‌های فناوری: اشاره به نقش شرکت‌هایی مانند پالانتیر (Palantir)، آمازون و مایکروسافت در توسعه فناوری‌های دفاعی. 01:43 - جام مقدس هوش مصنوعی نظامی: "جام مقدس برای هر ارتشی... این است که تمام داده‌ها را از همه سنسورهای متعدد خود در یک پلتفرم یکپارچه جمع‌آوری کند." 02:31 - چالش‌های اخلاقی و قانونی: "آیا این کار اخلاقی است؟ آیا قانونی است؟ آیا امن است؟ آیا ممکن است از کنترل خارج شود؟" 02:55 - مسئله کنترل انسانی: بحث در مورد اینکه آیا انسان باید همیشه کنترل نهایی بر تصمیم استفاده از نیروی مرگبار را حفظ کند. 03:20 - سوگیری اتوماسیون: "آیا ترجیح می‌دهیم فرماندهی داشته باشیم که دکمه قرمز را برای تأیید هدفی که کامپیوتر به او پیشنهاد کرده فشار می‌دهد...؟ این به نظر من کنترل انسانی نیست." 04:35 - اهمیت درک سیستم: "این بحث بسیار پیچیده‌تر از سپردن کار به ربات‌های قاتل است یا نه. مسئله این است که چه زمانی به سیستم‌ها اعتماد می‌کنید، چه چیزی درباره آن‌ها می‌دانید، و آیا آن‌ها را برای درک نقاط ضعفشان مورد بازجویی قرار داده‌اید؟" 05:40 - اشتباهات ماشین در برابر انسان: "ماشین‌ها اشتباه خواهند کرد... اما انسان‌ها هم همینطور. سؤال این است که آیا ماشین‌ها وقوع این موارد را کاهش خواهند داد؟" 06:11 - نتیجه‌گیری نهایی: "آینده، انسان‌هایی خواهند بود که با هوش مصنوعی برای جنگیدن همکاری می‌کنند." 🌐 متاکاگ | فراتر از شناخت
2.27M حجم رسانه بالاست
مشاهده در ایتا
💠 مصاحبه Demis Hassabis مدیرعامل Google DeepMind در خصوص هوش مصنوعی 🔷 هوش مصنوعی فعلی می تواند لحظه ای با دانش سطح دکتری خود شما را حیرت زده کند و در لحظه ای دیگر ریاضی دبیرستان را هم درست انجام نمی دهد. 🔷 هوش مصنوعی عمومی حقیقی اشتباهات پیش پا افتاده نمی کند. استدلال کرده، انطباق داده، و به طور مستمر یاد می گیرد. هنوز ۵ تا ۱۰ سال با آن فاصله داریم. 🔶 مخاطب سخنان او افرادی از جمله ایلان ماسک و سم آلتمن بودند که در مصاحبات بسیاری اذعان داشتند Grok 4 و Chat GPT 5 دقیقا مانند یک فرد دارای مدرک دکتری در تمامی زمینه ها فکر و عمل می کند! دمیس می گوید که هوش مصنوعی کنونی شاید دارای اطلاعات و مثلا متن کتب و مقاله های در سطح PhD باشد اما اینکه بتواند از آنها به طور کارآمدی بهره ببرد و طرز فکر یک شخص دارای دکتری و تخصص را داشته باشد، مسئله ای کاملا جدا و دور از دسترس در حال حاضر است! 🌐 متاکاگ | فراتر از شناخت