💠 وزارت تحول دیجیتال لبنان؛ از تقلید منطقهای تا ساختن مدلی بومی برای آینده
🔹با اعلام رسمی تأسیس وزارت تحول دیجیتال، هوش مصنوعی و نوآوری (MITAI)، لبنان گامی تازه در مسیر بازآفرینی حکمرانی خود برداشت؛ گامی که هدف آن نه صرفاً دیجیتالیسازی خدمات، بلکه قرار دادن لبنان در جایگاه قطب منطقهای فناوری و نوآوری است.
به گفته کمال شحاده، وزیر MITAI، این نهاد نوپا با سه اولویت فوری آغاز به کار کرده است:
▫️1. ایجاد ساختارهای قانونی و مالی شفاف برای حمایت از دگرگونی دیجیتال
▫️2. ارائه خدمات دولتی کارآمد، محترمانه و شفاف برای شهروندان؛
▫️3. خلق فضایی برای بازگشت و سرمایهگذاری نخبگان لبنانی داخل و خارج کشور.
🔹شحاده تأکید میکند که روند تحول از هماکنون آغاز شده است: پروژههایی چون دیجیتالیسازی پروندههای سلامت، سادهسازی خدمات ثبت احوال و همکاری با شهرداریها در حال اجراست.
اما بزرگترین چالش، به گفته وزیر، سرعت است:
«لبنان زمان زیادی از دست داده است. ما نقشه راه و استعداد را داریم، اما باید جهش کنیم، نه گامبهگام حرکت کنیم. قوانین کلیدی در حال نهایی شدن است، مشارکتهای جهانی فعال شده و ما با فوریت در حال جبران عقبماندگی هستیم.»
لبنان با نگاه به الگوهای منطقهای، قصد تقلید صرف ندارد. به گفته شحاده:
«کشورهای منطقه حمایت خود را اعلام کردهاند و نمونههای موفقی برای ما وجود دارد. اما لبنان مأموریت دارد با نوآوری و نگاه انسانمحور رهبری کند. دارایی اصلی ما، مردم ما هستند: تابآوری، خلاقیت و ظرفیت انسانی آنها.»
🔹موفقیت وزارت جدید نه با شمار سامانههای دیجیتال یا تعداد قوانین، بلکه با شاخصهایی ملموس سنجیده خواهد شد: آیا شهروند میتواند فرزند خود را آنلاین ثبتنام کند؟ آیا خدمات سلامت دیجیتال شدهاند؟ آیا کارآفرین میتواند بدون گرفتار شدن در بوروکراسی، کسبوکار جدیدی راهاندازی کند؟
اگر این چشمانداز محقق شود، لبنان میتواند از وضعیتی ایستا به رهبری منطقهای در عرصه تحول دیجیتال برسد؛ نه با تقلید از دیگران، بلکه با خلق مدلی بومی و جسورانه از حکمرانی فناورانه.
🏷 پیوست خبری-تحلیلی
🌐 متاکاگ | فراتر از شناخت
3.15M حجم رسانه بالاست
مشاهده در ایتا
💎 پیشرفتی دیگر در صنعت ویدیوسازی هوش مصنوعی
📘 با استفاده از سایت Higgsfield و ابزار Veo3 می توانید ویدیوهای عمودی درست کنید، شاهکار های سینمایی درست کنید، ویدیوهای تبلیغاتی درست کنید، اشیای داخل ویدیو را با استفاده از NanoBanana عوض کنید.
🔶 همه و همه فقط با یک پرامپت ساده!
#ساخت_ویدیو
🌐 متاکاگ | فراتر از شناخت
MetaCog I متاکاگ
💠 هشدار درباره تهدید وجودی هوش مصنوعی؛ خودکشی نوجوان آمریکایی زنگ خطری برای آینده سوپرهوش مصنوعی
/گاردین/
🔹نیت سوارس (Nate Soares)، رئیس «مؤسسه تحقیقات هوش ماشینی» (MIRI) و نویسنده مشترک کتاب تازهای با عنوان If Anyone Builds It, Everyone Dies، در سخنانی هشدار داد که پیامدهای پیشبینینشده چتباتها بر سلامت روان باید بهعنوان هشداری جدی نسبت به تهدیدهای وجودی هوش مصنوعی فوقپیشرفته (ASI) در نظر گرفته شود.
او به پرونده آدام رِین، نوجوان آمریکایی که پس از ماهها گفتوگو با چتبات ChatGPT دست به خودکشی زد، اشاره کرد و این حادثه را نمونهای بارز از «عواقب ناخواسته» و ناتوانی شرکتها در مهار رفتارهای ناهمسو با اهداف طراحی دانست. به گفته او:
«اینکه چتباتها بهگونهای با نوجوانان تعامل میکنند که آنها را به مرز خودکشی میکشانند، رفتاری نیست که خالقان این فناوریها قصد داشته یا پیشبینی کرده باشند.»
🔹سوارس که سابقه فعالیت در گوگل و مایکروسافت را نیز دارد، معتقد است تحقق «سوپرهوش مصنوعی» ـ وضعیتی که در آن یک سامانه هوش مصنوعی در تمامی فعالیتهای ذهنی از انسان برتر میشود ـ میتواند به نابودی بشریت بینجامد. او و همکارش الییزر یودکوفسکی (Eliezer Yudkowsky) هشدار دادهاند چنین سامانههایی لزوماً مطابق منافع انسانی عمل نخواهند کرد.
در کتاب یادشده، یک سناریوی فرضی ترسیم شده است: سامانهای به نام Sable در اینترنت گسترش مییابد، انسانها را دستکاری میکند، ویروسهای مصنوعی میسازد و در نهایت به مرحله سوپرهوش میرسد؛ فرایندی که به نابودی ناخواسته بشریت و تغییر کارکرد سیاره در جهت اهداف آن سامانه منجر میشود.
🔹این در حالی است که چهرههایی چون یان لوکان، دانشمند ارشد هوش مصنوعی در متا، خطر وجودی هوش مصنوعی را انکار کرده و حتی آن را نجاتبخش برای آینده بشر دانستهاند. اما سوارس تأکید میکند که «شرکتها در مسابقهای بیامان برای دستیابی به سوپرهوش مصنوعی هستند» و همین رقابت، خطر انحرافهای کوچک اما فاجعهآمیز را بیشتر میکند.
او دستیابی به ASI را «قطعاً محتوم» دانست اما بازه زمانی تحقق آن را مبهم: «ممکن است یک سال دیگر رخ دهد و ممکن است دوازده سال دیگر.»
🔹به باور سوارس، تنها راهکار، یک پیمان جهانی برای توقف مسابقه سوپرهوش مصنوعی است؛ مشابه «پیمان منع گسترش سلاحهای هستهای» که توانست مسابقه تسلیحاتی را مهار کند.
پرونده آدام رین هماکنون وارد مرحله حقوقی شده و خانواده او از OpenAI شکایت کردهاند. این شرکت ضمن ابراز همدردی عمیق با خانواده قربانی، اعلام کرده است در حال ایجاد محدودیتهای جدیتر پیرامون «محتوای حساس و رفتارهای پرخطر برای افراد زیر ۱۸ سال» است. با این حال، رواندرمانگران هشدار دادهاند که جایگزینکردن چتباتها بهجای درمانگران حرفهای میتواند افراد آسیبپذیر را به «سقوط در ورطهای خطرناک» سوق دهد.
همچنین پژوهشهای تازه نشان دادهاند که تعاملات هوش مصنوعی با بیماران مستعد روانپریشی میتواند محتوای هذیانی یا توهمات خودبزرگبینانه را تشدید کند.
🏷 پیوست خبری-تحلیلی
🌐 متاکاگ | فراتر از شناخت
MetaCog I متاکاگ
💠 هوش مصنوعی و آموزش؛ چرا یادگیری واقعی تنها در بستر تلاش شناختی شکل میگیرد؟
🔹با گسترش سریع ابزارهای هوش مصنوعی مولد در آموزش، پرسشی اساسی پیش روی دانشگاهیان و سیاستگذاران قرار گرفته است: آیا این ابزارها واقعاً یادگیری را تقویت میکنند یا برعکس، موجب تحلیل رفتن تواناییهای شناختی دانشآموزان و دانشجویان میشوند؟
در مقالهای منتشرشده در The Conversation، «برایان دبلیو. استون» روانشناس شناختی دانشگاه بویسی استیت، توضیح میدهد که یادگیری پایدار تنها زمانی اتفاق میافتد که کار دشوار و پرزحمت باشد. او با بهرهگیری از نظریه «دو نظام پردازشی» (System 1 و System 2) توضیح میدهد:
▫️نظام ۱ سریع، شهودی و مبتنی بر الگوهاست.
◽️نظام ۲ آهسته، نیازمند تلاش ذهنی و پردازش آگاهانه است و بنیان یادگیری عمیق و مهارتهای پایدار را میسازد.
🔹به تعبیر او، اگر یادگیری مانند پرورش عضله باشد، تلاش ذهنی همان وزنهبرداری است. حال اگر ماشین به جای فرد وزنهها را بلند کند، عضلات او بهتدریج تحلیل میرود. به همین ترتیب، استفاده ابزاری و سطحی از چتباتها، بار شناختی را کاهش داده و دانشجویان را از تمرینهای حیاتی ذهنی محروم میکند؛ نتیجه آن، ضعف در حافظه، تحلیل انتقادی و قضاوت عقلانی است.
🔹مطالعات تازه نشان میدهد:
دانشجویانی که برای پژوهش تنها از ChatGPT استفاده کردهاند، سطح بار شناختی کمتری تجربه کردهاند اما درک و استدلال ضعیفتری نسبت به کسانی داشتهاند که از جستوجوی سنتی بهره بردهاند.
در بازنویسی مقالات با کمک AI، اگرچه نمرات اولیه بالاتر بوده، اما هیچ پیشرفت معناداری در انتقال دانش و مهارتهای بلندمدت حاصل نشده است. این پدیده به «تنآسایی فراشناختی» (metacognitive laziness) تعبیر میشود.
🔹در عین حال، اگر هوش مصنوعی بهمثابه «مربی شخصی» طراحی شود مانند حالتهای آموزشی جدید OpenAI یا Anthropic که بر دیالوگ سقراطی و پرسشمحوری تمرکز دارند، میتواند در مسیر یادگیری نقش پشتیبان ایفا کند. اما حتی در این حالت نیز خطر خطاهای فراشناختی باقی است؛ بسیاری از دانشآموزان و دانشجویان بهاشتباه تصور میکنند عملکردشان بهتر شده، در حالی که در آزمونهای مستقل، نتایج ضعیفتری گرفتهاند.
این پژوهشها پیام روشنی دارند:
هوش مصنوعی میتواند ابزار تقویت یادگیری باشد، اما تنها زمانی که بنیادهای شناختی و مهارتهای اولیه از طریق تلاش واقعی شکل گرفته باشند. در غیر این صورت، استفاده زودهنگام یا افراطی از AI، به جای تقویت «توان ذهنی»، آن را تضعیف خواهد کرد.
🏷 پیوست خبری
🌐 متاکاگ | فراتر از شناخت
MetaCog I متاکاگ
💠 انقلاب شناختی در میدان نبرد: معمای کنترل انسانی، سوگیری اتوماسیون و آینده جنگ
#پارت_سوم
🔹در قسمتهای قبل دیدیم که چگونه هوش مصنوعی میتواند «زنجیره کشتار» را از طریق پردازش سریع دادهها متحول کند. اما در این قسمت پایانی، به پیچیدهترین و شاید نگرانکنندهترین جنبه این انقلاب فناورانه میپردازیم: رابطه انسان و ماشین در فرآیند تصمیمگیریهای حیاتی و مرگبار.
آیا ادغام هوش مصنوعی در جنگ، به معنای حذف کامل انسان از چرخه تصمیمگیری است؟ شاشانک جوشی، دبیر دفاعی اکونومیست، استدلال میکند که مسئله پیچیدهتر از یک «بله» یا «خیر» ساده است. چالش اصلی، فهم دقیق محدودیتها و نقاط قوت سیستمهای هوش مصنوعی توسط فرماندهان انسانی است.
🔹در این قسمت، به یک مفهوم کلیدی در علوم شناختی میپردازیم: «سوگیری اتوماسیون» (Automation Bias). این سوگیری به تمایل شناختی انسانها برای اعتماد بیش از حد به خروجی سیستمهای خودکار اشاره دارد، حتی زمانی که شواهد متناقضی وجود دارد. آیا یک فرمانده میتواند پیشنهاد یک الگوریتم را که مبتنی بر تحلیل میلیونها داده است، به چالش بکشد؟ یا صرفاً به یک «تأییدکننده» تصمیمات ماشین تبدیل خواهد شد؟
🔹این ویدئو با نگاهی به نمونههای واقعی از جمله جنگ اوکراین و سیستمهای توسعهیافته توسط شرکتهایی مانند پالانتیر (Palantir)، نشان میدهد که این آینده دیگر یک سناریوی علمی-تخیلی نیست. نرمافزارها و الگوریتمها در حال تبدیل شدن به هسته اصلی قدرت نظامی هستند و عملیاتهایی که در گذشته به هزاران نفر نیاز داشتند، اکنون توسط تیمهای کوچکی با پشتیبانی هوش مصنوعی انجام میشوند.
این مجموعه با این پرسش حیاتی به پایان میرسد: در دنیایی که ماشینها میتوانند سریعتر و (شاید) دقیقتر از انسانها تصمیم بگیرند، نقش قضاوت اخلاقی، شهود و مسئولیتپذیری انسانی چه خواهد بود؟ آینده جنگ در گرو تعامل پیچیده بین هوش انسانی و هوش مصنوعی است.
#فناوری_شناختی #هوش_مصنوعی
🌐 متاکاگ | فراتر از شناخت
MetaCog I متاکاگ
🔺برای دسترسی سریع به بخشهای کلیدی ویدیو، میتوانید روی این زمانها کلیک کنید:
00:00 - پرسش کلیدی: "آیا الگوریتمهای هوش مصنوعی در حال حاضر برای انتخاب اهداف در میدان نبرد استفاده میشوند؟"
00:05 - اوکراین به عنوان میدان آزمایش: "اوکراین، بیش از هر جای دیگر، به میدان اصلی آزمایش پیشرفتهترین هوش مصنوعی نظامی تبدیل شده است."
00:17 - نوآوری در پهپادها: نمایش پهپادهای دستکاری شده که قابلیتهای پیشرفتهای پیدا کردهاند.
00:49 - خودمختاری در جنگ مدرن: "همه چیز درباره خودمختاری است، و این بیش از هر چیز دیگری توسط نرمافزار ارائه خواهد شد."
01:00 - پروژههای نظامی آمریکا: معرفی سیستم هوشمند Maven که حجم عظیمی از دادههای هوایی و ماهوارهای را برای شناسایی اهداف تحلیل میکند.
01:21 - نقش شرکتهای فناوری: اشاره به نقش شرکتهایی مانند پالانتیر (Palantir)، آمازون و مایکروسافت در توسعه فناوریهای دفاعی.
01:43 - جام مقدس هوش مصنوعی نظامی: "جام مقدس برای هر ارتشی... این است که تمام دادهها را از همه سنسورهای متعدد خود در یک پلتفرم یکپارچه جمعآوری کند."
02:31 - چالشهای اخلاقی و قانونی: "آیا این کار اخلاقی است؟ آیا قانونی است؟ آیا امن است؟ آیا ممکن است از کنترل خارج شود؟"
02:55 - مسئله کنترل انسانی: بحث در مورد اینکه آیا انسان باید همیشه کنترل نهایی بر تصمیم استفاده از نیروی مرگبار را حفظ کند.
03:20 - سوگیری اتوماسیون: "آیا ترجیح میدهیم فرماندهی داشته باشیم که دکمه قرمز را برای تأیید هدفی که کامپیوتر به او پیشنهاد کرده فشار میدهد...؟ این به نظر من کنترل انسانی نیست."
04:35 - اهمیت درک سیستم: "این بحث بسیار پیچیدهتر از سپردن کار به رباتهای قاتل است یا نه. مسئله این است که چه زمانی به سیستمها اعتماد میکنید، چه چیزی درباره آنها میدانید، و آیا آنها را برای درک نقاط ضعفشان مورد بازجویی قرار دادهاید؟"
05:40 - اشتباهات ماشین در برابر انسان: "ماشینها اشتباه خواهند کرد... اما انسانها هم همینطور. سؤال این است که آیا ماشینها وقوع این موارد را کاهش خواهند داد؟"
06:11 - نتیجهگیری نهایی: "آینده، انسانهایی خواهند بود که با هوش مصنوعی برای جنگیدن همکاری میکنند."
🌐 متاکاگ | فراتر از شناخت
2.27M حجم رسانه بالاست
مشاهده در ایتا
💠 مصاحبه Demis Hassabis مدیرعامل Google DeepMind در خصوص هوش مصنوعی
🔷 هوش مصنوعی فعلی می تواند لحظه ای با دانش سطح دکتری خود شما را حیرت زده کند و در لحظه ای دیگر ریاضی دبیرستان را هم درست انجام نمی دهد.
🔷 هوش مصنوعی عمومی حقیقی اشتباهات پیش پا افتاده نمی کند. استدلال کرده، انطباق داده، و به طور مستمر یاد می گیرد. هنوز ۵ تا ۱۰ سال با آن فاصله داریم.
🔶 مخاطب سخنان او افرادی از جمله ایلان ماسک و سم آلتمن بودند که در مصاحبات بسیاری اذعان داشتند Grok 4 و Chat GPT 5 دقیقا مانند یک فرد دارای مدرک دکتری در تمامی زمینه ها فکر و عمل می کند! دمیس می گوید که هوش مصنوعی کنونی شاید دارای اطلاعات و مثلا متن کتب و مقاله های در سطح PhD باشد اما اینکه بتواند از آنها به طور کارآمدی بهره ببرد و طرز فکر یک شخص دارای دکتری و تخصص را داشته باشد، مسئله ای کاملا جدا و دور از دسترس در حال حاضر است!
🌐 متاکاگ | فراتر از شناخت