eitaa logo
MetaCog I متاکاگ
1.1هزار دنبال‌کننده
452 عکس
130 ویدیو
65 فایل
MetaCog I متاکاگ "فراتر از شناخت" "از الگوریتم تا انگاره و رفتار، از داده تا استیلا" 🔸️روایت سیاست‌ها، رویدادها و تحلیل‌های فناورانه مؤثر در حوزه شناخت و ادراک؛🔸️ #هوش_مصنوعی #فناوری #جنگ_شناختی ارتباط با ادمین: @MCAdminAI
مشاهده در ایتا
دانلود
💠 وزارت تحول دیجیتال لبنان؛ از تقلید منطقه‌ای تا ساختن مدلی بومی برای آینده 🔹با اعلام رسمی تأسیس وزارت تحول دیجیتال، هوش مصنوعی و نوآوری (MITAI)، لبنان گامی تازه در مسیر بازآفرینی حکمرانی خود برداشت؛ گامی که هدف آن نه صرفاً دیجیتالی‌سازی خدمات، بلکه قرار دادن لبنان در جایگاه قطب منطقه‌ای فناوری و نوآوری است. به گفته کمال شحاده، وزیر MITAI، این نهاد نوپا با سه اولویت فوری آغاز به کار کرده است: ▫️1. ایجاد ساختارهای قانونی و مالی شفاف برای حمایت از دگرگونی دیجیتال ▫️2. ارائه خدمات دولتی کارآمد، محترمانه و شفاف برای شهروندان؛ ▫️3. خلق فضایی برای بازگشت و سرمایه‌گذاری نخبگان لبنانی داخل و خارج کشور. 🔹شحاده تأکید می‌کند که روند تحول از هم‌اکنون آغاز شده است: پروژه‌هایی چون دیجیتالی‌سازی پرونده‌های سلامت، ساده‌سازی خدمات ثبت احوال و همکاری با شهرداری‌ها در حال اجراست. اما بزرگ‌ترین چالش، به گفته وزیر، سرعت است: «لبنان زمان زیادی از دست داده است. ما نقشه راه و استعداد را داریم، اما باید جهش کنیم، نه گام‌به‌گام حرکت کنیم. قوانین کلیدی در حال نهایی شدن است، مشارکت‌های جهانی فعال شده و ما با فوریت در حال جبران عقب‌ماندگی هستیم.» لبنان با نگاه به الگوهای منطقه‌ای، قصد تقلید صرف ندارد. به گفته شحاده: «کشورهای منطقه حمایت خود را اعلام کرده‌اند و نمونه‌های موفقی برای ما وجود دارد. اما لبنان مأموریت دارد با نوآوری و نگاه انسان‌محور رهبری کند. دارایی اصلی ما، مردم ما هستند: تاب‌آوری، خلاقیت و ظرفیت انسانی آن‌ها.» 🔹موفقیت وزارت جدید نه با شمار سامانه‌های دیجیتال یا تعداد قوانین، بلکه با شاخص‌هایی ملموس سنجیده خواهد شد: آیا شهروند می‌تواند فرزند خود را آنلاین ثبت‌نام کند؟ آیا خدمات سلامت دیجیتال شده‌اند؟ آیا کارآفرین می‌تواند بدون گرفتار شدن در بوروکراسی، کسب‌وکار جدیدی راه‌اندازی کند؟ اگر این چشم‌انداز محقق شود، لبنان می‌تواند از وضعیتی ایستا به رهبری منطقه‌ای در عرصه تحول دیجیتال برسد؛ نه با تقلید از دیگران، بلکه با خلق مدلی بومی و جسورانه از حکمرانی فناورانه. 🏷 پیوست خبری-تحلیلی 🌐 متاکاگ | فراتر از شناخت
3.15M حجم رسانه بالاست
مشاهده در ایتا
💎 پیشرفتی دیگر در صنعت ویدیوسازی هوش مصنوعی 📘 با استفاده از سایت Higgsfield و ابزار Veo3 می توانید ویدیوهای عمودی درست کنید، شاهکار های سینمایی درست کنید، ویدیوهای تبلیغاتی درست کنید، اشیای داخل ویدیو را با استفاده از NanoBanana عوض کنید. 🔶 همه و همه فقط با یک پرامپت ساده! 🌐 متاکاگ | فراتر از شناخت
MetaCog I متاکاگ
💠 هشدار درباره تهدید وجودی هوش مصنوعی؛ خودکشی نوجوان آمریکایی زنگ خطری برای آینده سوپرهوش مصنوعی /گاردین/ 🔹نیت سوارس (Nate Soares)، رئیس «مؤسسه تحقیقات هوش ماشینی» (MIRI) و نویسنده مشترک کتاب تازه‌ای با عنوان If Anyone Builds It, Everyone Dies، در سخنانی هشدار داد که پیامدهای پیش‌بینی‌نشده چت‌بات‌ها بر سلامت روان باید به‌عنوان هشداری جدی نسبت به تهدیدهای وجودی هوش مصنوعی فوق‌پیشرفته (ASI) در نظر گرفته شود. او به پرونده آدام رِین، نوجوان آمریکایی که پس از ماه‌ها گفت‌وگو با چت‌بات ChatGPT دست به خودکشی زد، اشاره کرد و این حادثه را نمونه‌ای بارز از «عواقب ناخواسته» و ناتوانی شرکت‌ها در مهار رفتارهای ناهمسو با اهداف طراحی دانست. به گفته او: «اینکه چت‌بات‌ها به‌گونه‌ای با نوجوانان تعامل می‌کنند که آن‌ها را به مرز خودکشی می‌کشانند، رفتاری نیست که خالقان این فناوری‌ها قصد داشته یا پیش‌بینی کرده باشند.» 🔹سوارس که سابقه فعالیت در گوگل و مایکروسافت را نیز دارد، معتقد است تحقق «سوپرهوش مصنوعی» ـ وضعیتی که در آن یک سامانه هوش مصنوعی در تمامی فعالیت‌های ذهنی از انسان برتر می‌شود ـ می‌تواند به نابودی بشریت بینجامد. او و همکارش الییزر یودکوفسکی (Eliezer Yudkowsky) هشدار داده‌اند چنین سامانه‌هایی لزوماً مطابق منافع انسانی عمل نخواهند کرد. در کتاب یادشده، یک سناریوی فرضی ترسیم شده است: سامانه‌ای به نام Sable در اینترنت گسترش می‌یابد، انسان‌ها را دستکاری می‌کند، ویروس‌های مصنوعی می‌سازد و در نهایت به مرحله سوپرهوش می‌رسد؛ فرایندی که به نابودی ناخواسته بشریت و تغییر کارکرد سیاره در جهت اهداف آن سامانه منجر می‌شود. 🔹این در حالی است که چهره‌هایی چون یان لوکان، دانشمند ارشد هوش مصنوعی در متا، خطر وجودی هوش مصنوعی را انکار کرده و حتی آن را نجات‌بخش برای آینده بشر دانسته‌اند. اما سوارس تأکید می‌کند که «شرکت‌ها در مسابقه‌ای بی‌امان برای دستیابی به سوپرهوش مصنوعی هستند» و همین رقابت، خطر انحراف‌های کوچک اما فاجعه‌آمیز را بیشتر می‌کند. او دستیابی به ASI را «قطعاً محتوم» دانست اما بازه زمانی تحقق آن را مبهم: «ممکن است یک سال دیگر رخ دهد و ممکن است دوازده سال دیگر.» 🔹به باور سوارس، تنها راهکار، یک پیمان جهانی برای توقف مسابقه سوپرهوش مصنوعی است؛ مشابه «پیمان منع گسترش سلاح‌های هسته‌ای» که توانست مسابقه تسلیحاتی را مهار کند. پرونده آدام رین هم‌اکنون وارد مرحله حقوقی شده و خانواده او از OpenAI شکایت کرده‌اند. این شرکت ضمن ابراز همدردی عمیق با خانواده قربانی، اعلام کرده است در حال ایجاد محدودیت‌های جدی‌تر پیرامون «محتوای حساس و رفتارهای پرخطر برای افراد زیر ۱۸ سال» است. با این حال، روان‌درمانگران هشدار داده‌اند که جایگزین‌کردن چت‌بات‌ها به‌جای درمانگران حرفه‌ای می‌تواند افراد آسیب‌پذیر را به «سقوط در ورطه‌ای خطرناک» سوق دهد. همچنین پژوهش‌های تازه نشان داده‌اند که تعاملات هوش مصنوعی با بیماران مستعد روان‌پریشی می‌تواند محتوای هذیانی یا توهمات خودبزرگ‌بینانه را تشدید کند. 🏷 پیوست خبری-تحلیلی 🌐 متاکاگ | فراتر از شناخت
MetaCog I متاکاگ
💠 هوش مصنوعی و آموزش؛ چرا یادگیری واقعی تنها در بستر تلاش شناختی شکل می‌گیرد؟ 🔹با گسترش سریع ابزارهای هوش مصنوعی مولد در آموزش، پرسشی اساسی پیش روی دانشگاهیان و سیاست‌گذاران قرار گرفته است: آیا این ابزارها واقعاً یادگیری را تقویت می‌کنند یا برعکس، موجب تحلیل رفتن توانایی‌های شناختی دانش‌آموزان و دانشجویان می‌شوند؟ در مقاله‌ای منتشرشده در The Conversation، «برایان دبلیو. استون» روان‌شناس شناختی دانشگاه بویسی استیت، توضیح می‌دهد که یادگیری پایدار تنها زمانی اتفاق می‌افتد که کار دشوار و پرزحمت باشد. او با بهره‌گیری از نظریه «دو نظام پردازشی» (System 1 و System 2) توضیح می‌دهد: ▫️نظام ۱ سریع، شهودی و مبتنی بر الگوهاست. ◽️نظام ۲ آهسته، نیازمند تلاش ذهنی و پردازش آگاهانه است و بنیان یادگیری عمیق و مهارت‌های پایدار را می‌سازد. 🔹به تعبیر او، اگر یادگیری مانند پرورش عضله باشد، تلاش ذهنی همان وزنه‌برداری است. حال اگر ماشین به جای فرد وزنه‌ها را بلند کند، عضلات او به‌تدریج تحلیل می‌رود. به همین ترتیب، استفاده ابزاری و سطحی از چت‌بات‌ها، بار شناختی را کاهش داده و دانشجویان را از تمرین‌های حیاتی ذهنی محروم می‌کند؛ نتیجه آن، ضعف در حافظه، تحلیل انتقادی و قضاوت عقلانی است. 🔹مطالعات تازه نشان می‌دهد: دانشجویانی که برای پژوهش تنها از ChatGPT استفاده کرده‌اند، سطح بار شناختی کمتری تجربه کرده‌اند اما درک و استدلال ضعیف‌تری نسبت به کسانی داشته‌اند که از جست‌وجوی سنتی بهره برده‌اند. در بازنویسی مقالات با کمک AI، اگرچه نمرات اولیه بالاتر بوده، اما هیچ پیشرفت معناداری در انتقال دانش و مهارت‌های بلندمدت حاصل نشده است. این پدیده به «تن‌آسایی فراشناختی» (metacognitive laziness) تعبیر می‌شود. 🔹در عین حال، اگر هوش مصنوعی به‌مثابه «مربی شخصی» طراحی شود مانند حالت‌های آموزشی جدید OpenAI یا Anthropic که بر دیالوگ سقراطی و پرسش‌محوری تمرکز دارند، می‌تواند در مسیر یادگیری نقش پشتیبان ایفا کند. اما حتی در این حالت نیز خطر خطاهای فراشناختی باقی است؛ بسیاری از دانش‌آموزان و دانشجویان به‌اشتباه تصور می‌کنند عملکردشان بهتر شده، در حالی که در آزمون‌های مستقل، نتایج ضعیف‌تری گرفته‌اند. این پژوهش‌ها پیام روشنی دارند: هوش مصنوعی می‌تواند ابزار تقویت یادگیری باشد، اما تنها زمانی که بنیادهای شناختی و مهارت‌های اولیه از طریق تلاش واقعی شکل گرفته باشند. در غیر این صورت، استفاده زودهنگام یا افراطی از AI، به جای تقویت «توان ذهنی»، آن را تضعیف خواهد کرد. 🏷 پیوست خبری 🌐 متاکاگ | فراتر از شناخت
MetaCog I متاکاگ
💠 انقلاب شناختی در میدان نبرد: معمای کنترل انسانی، سوگیری اتوماسیون و آینده جنگ 🔹در قسمت‌های قبل دیدیم که چگونه هوش مصنوعی می‌تواند «زنجیره کشتار» را از طریق پردازش سریع داده‌ها متحول کند. اما در این قسمت پایانی، به پیچیده‌ترین و شاید نگران‌کننده‌ترین جنبه این انقلاب فناورانه می‌پردازیم: رابطه انسان و ماشین در فرآیند تصمیم‌گیری‌های حیاتی و مرگبار. آیا ادغام هوش مصنوعی در جنگ، به معنای حذف کامل انسان از چرخه تصمیم‌گیری است؟ شاشانک جوشی، دبیر دفاعی اکونومیست، استدلال می‌کند که مسئله پیچیده‌تر از یک «بله» یا «خیر» ساده است. چالش اصلی، فهم دقیق محدودیت‌ها و نقاط قوت سیستم‌های هوش مصنوعی توسط فرماندهان انسانی است. 🔹در این قسمت، به یک مفهوم کلیدی در علوم شناختی می‌پردازیم: «سوگیری اتوماسیون» (Automation Bias). این سوگیری به تمایل شناختی انسان‌ها برای اعتماد بیش از حد به خروجی سیستم‌های خودکار اشاره دارد، حتی زمانی که شواهد متناقضی وجود دارد. آیا یک فرمانده می‌تواند پیشنهاد یک الگوریتم را که مبتنی بر تحلیل میلیون‌ها داده است، به چالش بکشد؟ یا صرفاً به یک «تأییدکننده» تصمیمات ماشین تبدیل خواهد شد؟ 🔹این ویدئو با نگاهی به نمونه‌های واقعی از جمله جنگ اوکراین و سیستم‌های توسعه‌یافته توسط شرکت‌هایی مانند پالانتیر (Palantir)، نشان می‌دهد که این آینده دیگر یک سناریوی علمی-تخیلی نیست. نرم‌افزارها و الگوریتم‌ها در حال تبدیل شدن به هسته اصلی قدرت نظامی هستند و عملیات‌هایی که در گذشته به هزاران نفر نیاز داشتند، اکنون توسط تیم‌های کوچکی با پشتیبانی هوش مصنوعی انجام می‌شوند. این مجموعه با این پرسش حیاتی به پایان می‌رسد: در دنیایی که ماشین‌ها می‌توانند سریع‌تر و (شاید) دقیق‌تر از انسان‌ها تصمیم بگیرند، نقش قضاوت اخلاقی، شهود و مسئولیت‌پذیری انسانی چه خواهد بود؟ آینده جنگ در گرو تعامل پیچیده بین هوش انسانی و هوش مصنوعی است. 🌐 متاکاگ | فراتر از شناخت
MetaCog I متاکاگ
🔺برای دسترسی سریع به بخش‌های کلیدی ویدیو، می‌توانید روی این زمان‌ها کلیک کنید: 00:00 - پرسش کلیدی: "آیا الگوریتم‌های هوش مصنوعی در حال حاضر برای انتخاب اهداف در میدان نبرد استفاده می‌شوند؟" 00:05 - اوکراین به عنوان میدان آزمایش: "اوکراین، بیش از هر جای دیگر، به میدان اصلی آزمایش پیشرفته‌ترین هوش مصنوعی نظامی تبدیل شده است." 00:17 - نوآوری در پهپادها: نمایش پهپادهای دستکاری شده که قابلیت‌های پیشرفته‌ای پیدا کرده‌اند. 00:49 - خودمختاری در جنگ مدرن: "همه چیز درباره خودمختاری است، و این بیش از هر چیز دیگری توسط نرم‌افزار ارائه خواهد شد." 01:00 - پروژه‌های نظامی آمریکا: معرفی سیستم هوشمند Maven که حجم عظیمی از داده‌های هوایی و ماهواره‌ای را برای شناسایی اهداف تحلیل می‌کند. 01:21 - نقش شرکت‌های فناوری: اشاره به نقش شرکت‌هایی مانند پالانتیر (Palantir)، آمازون و مایکروسافت در توسعه فناوری‌های دفاعی. 01:43 - جام مقدس هوش مصنوعی نظامی: "جام مقدس برای هر ارتشی... این است که تمام داده‌ها را از همه سنسورهای متعدد خود در یک پلتفرم یکپارچه جمع‌آوری کند." 02:31 - چالش‌های اخلاقی و قانونی: "آیا این کار اخلاقی است؟ آیا قانونی است؟ آیا امن است؟ آیا ممکن است از کنترل خارج شود؟" 02:55 - مسئله کنترل انسانی: بحث در مورد اینکه آیا انسان باید همیشه کنترل نهایی بر تصمیم استفاده از نیروی مرگبار را حفظ کند. 03:20 - سوگیری اتوماسیون: "آیا ترجیح می‌دهیم فرماندهی داشته باشیم که دکمه قرمز را برای تأیید هدفی که کامپیوتر به او پیشنهاد کرده فشار می‌دهد...؟ این به نظر من کنترل انسانی نیست." 04:35 - اهمیت درک سیستم: "این بحث بسیار پیچیده‌تر از سپردن کار به ربات‌های قاتل است یا نه. مسئله این است که چه زمانی به سیستم‌ها اعتماد می‌کنید، چه چیزی درباره آن‌ها می‌دانید، و آیا آن‌ها را برای درک نقاط ضعفشان مورد بازجویی قرار داده‌اید؟" 05:40 - اشتباهات ماشین در برابر انسان: "ماشین‌ها اشتباه خواهند کرد... اما انسان‌ها هم همینطور. سؤال این است که آیا ماشین‌ها وقوع این موارد را کاهش خواهند داد؟" 06:11 - نتیجه‌گیری نهایی: "آینده، انسان‌هایی خواهند بود که با هوش مصنوعی برای جنگیدن همکاری می‌کنند." 🌐 متاکاگ | فراتر از شناخت
2.27M حجم رسانه بالاست
مشاهده در ایتا
💠 مصاحبه Demis Hassabis مدیرعامل Google DeepMind در خصوص هوش مصنوعی 🔷 هوش مصنوعی فعلی می تواند لحظه ای با دانش سطح دکتری خود شما را حیرت زده کند و در لحظه ای دیگر ریاضی دبیرستان را هم درست انجام نمی دهد. 🔷 هوش مصنوعی عمومی حقیقی اشتباهات پیش پا افتاده نمی کند. استدلال کرده، انطباق داده، و به طور مستمر یاد می گیرد. هنوز ۵ تا ۱۰ سال با آن فاصله داریم. 🔶 مخاطب سخنان او افرادی از جمله ایلان ماسک و سم آلتمن بودند که در مصاحبات بسیاری اذعان داشتند Grok 4 و Chat GPT 5 دقیقا مانند یک فرد دارای مدرک دکتری در تمامی زمینه ها فکر و عمل می کند! دمیس می گوید که هوش مصنوعی کنونی شاید دارای اطلاعات و مثلا متن کتب و مقاله های در سطح PhD باشد اما اینکه بتواند از آنها به طور کارآمدی بهره ببرد و طرز فکر یک شخص دارای دکتری و تخصص را داشته باشد، مسئله ای کاملا جدا و دور از دسترس در حال حاضر است! 🌐 متاکاگ | فراتر از شناخت