eitaa logo
اندیشکده حقوق عمومی و فضای مجازی
1.2هزار دنبال‌کننده
2.4هزار عکس
911 ویدیو
236 فایل
کانال دکتر سیدعلیرضا طباطبایی (عضو هیئت علمی دانشگاه علوم قضائی و خدمات اداری) #دانش‌آموخته‌حوزه‌علمیه‌قم #دکتری‌حقوق‌عمومی #دکتری‌حقوق‌فضای‌مجازی #مبلغ_زبان‌دان ارتباط با کانال: @OMRJ96 مهدی زاده فقاهتی @radasabz برهانی @Borhani_99
مشاهده در ایتا
دانلود
دیسکورد قابلیت اسکن چهره برای تأیید سن را آزمایش می‌کند 🔹 دیسکورد اخیرا آزمایش یک قابلیت جدید را آغاز کرده است که بر اساس آن، کاربران برای دسترسی به محتوایی که فقط برای افراد بالای یک سن خاص قابل مشاهده است (مثل چت‌ها یا سرورهای مخصوص بزرگسالان) باید چهره‌ی خود را اسکن کنند‍! 🇮🇷 اندیشکده‌حقوق‌عمومی‌وفضای‌مجازی 🆔 https://eitaa.com/joinchat/359333911Cd8a553d432
مدل‌های هوش مصنوعی استدلالگر جدید OpenAI بیشتر دچار توهم می‌شوند 🔹۲ مدل استدلا‌لگر o3 و o4-mini شرکت OpenAI توهم زیادی دارند. طبق تست‌های OpenAI، این ۲ مدل استدلالگر بیشتر از مدل‌های استدلالگر قبلی شرکت، o1 ،o1-mini و o3-mini، همچنین مدل‌های معمولی OpenAI مانند GPT-4o توهم ایجاد می‌کنند. 🔹درکل توهمات یکی از بزرگ‌ترین مسائل هوش مصنوعی است که برطرف‌کردن آنها بسیار دشوار است. بااین‌حال مدل‌های جدید کمی در بخش توهم بهبود می‌یابند و کمتر از مدل قبلی خود دچار توهم می‌شوند اما این امر درباره o3 و o4-mini صادق نیست. 🔹نکته نگران‌کننده‌تر این است که OpenAI واقعاً نمی‌داند چرا این اتفاق می‌افتد. سازنده ChatGPT در گزارش فنی خود برای o3 و o4-mini می‌نویسد: 🔹«به تحقیقات بیشتری نیاز است تا بفهمیم چرا توهمات با پیشرفت مدل‌های استدلالی افزایش یافته است.» 🔹شرکت می‌گوید o3 در پاسخ به ۳۳ درصد سؤالات PersonQA (بنچمارک داخلی شرکت برای سنجش دقت دانش مدل درباره اشخاص) توهم ایجاد می‌کند. 🇮🇷 اندیشکده‌حقوق‌عمومی‌وفضای‌مجازی 🆔 https://eitaa.com/joinchat/359333911Cd8a553d432
رقابت ربات‌ها در کنار انسان‌ها در نیمه ماراتن چین 🔹در نیمه ماراتن پکن، ۲۱ ربات انسان‌نما برای اولین بار در کنار دوندگان انسانی در یک مسیر ۲۱ کیلومتری به رقابت پرداختند و توانایی‌های رو به رشد رباتیک چین را به نمایش گذاشتند، اما در نهایت انسان با زمان ۱ ساعت و ۲ دقیقه به عنوان برنده این رقابت شناخته شد. ربات‌ها با اشکال و اندازه‌های مختلف، از جمله رباتی با ظاهر تقریباً انسانی، در این مسابقه شرکت کردند. ربات “تیانگونگ اولترا” بهترین زمان را در میان ربات‌ها با ۲ ساعت و ۴۰ دقیقه ثبت کرد، در حالی که برخی دیگر از ربات‌ها در طول مسابقه با مشکلاتی مواجه شدند. این رویداد به عنوان آزمایشی جدی برای فناوری رباتیک تلقی شد، اگرچه برخی کارشناسان معتقدند که این مسابقات لزوماً نشان‌دهنده پتانسیل صنعتی ربات‌ها نیست. هدف نهایی، توسعه کاربردهای صنعتی برای ربات‌های انسان‌نما در کارخانه‌ها و زندگی روزمره است. 🇮🇷 اندیشکده‌حقوق‌عمومی‌وفضای‌مجازی 🆔 https://eitaa.com/joinchat/359333911Cd8a553d432
کلیات طرح ملی هوش مصنوعی در کمیسیون صنایع مجلس تصویب شد 🔹رییس کمیته ارتباطات و فناوری اطلاعات کمیسیون صنایع و معادن مجلس، از تصویب کلیات و جزییات طرح ملی هوش مصنوعی در نشست امروز کمیسیون صنایع خبر داد و افزود: در این طرح تاکید شده سازمان ملی هوش مصنوعی زیر نظر رئیس جمهور تشکیل شود که چهار بخش برای فعالیت آن پیش‌بینی شده است./ایرنا 🇮🇷 اندیشکده‌حقوق‌عمومی‌وفضای‌مجازی 🆔 https://eitaa.com/joinchat/359333911Cd8a553d432
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
روحش شاد، یادش گرامی و راهش پر رهرو باد! 🇮🇷 اندیشکده‌حقوق‌عمومی‌وفضای‌مجازی 🆔 https://eitaa.com/joinchat/359333911Cd8a553d432
✅ جلسه دفاع از پایان‌نامه •┈••••✾•💞🌺💞•✾•••┈┈• 📱کانال رسمی دانشگاه علوم قضائی https://eitaa.com/ujsas_ac_ir
10.5M حجم رسانه بالاست
مشاهده در ایتا
🎥 از گارد شاهنشاهی تا قائم‌مقامی در سپاه! 📣 به مناسبت سالروز تشکیل سپاه پاسداران گرامی‌ میداریم یاد شهید ؛ از بنیان‌گذاران و قائم‌مقام فرمانده سپاه پاسداران 🇮🇷 🇮🇷 اندیشکده‌حقوق‌عمومی‌وفضای‌مجازی 🆔 https://eitaa.com/joinchat/359333911Cd8a553d432
چرا سوگیری‌های شناختی در هوش مصنوعی اهمیت دارند؟ 🧠 هوش مصنوعی، به‌عنوان بازتابی از داده‌ها و تصمیمات انسانی، ممکن است همان سوگیری‌هایی را که در ذهن انسان‌ها وجود دارد، بازتولید کند. این سوگیری‌ها، که به‌عنوان سوگیری‌های شناختی شناخته می‌شوند، می‌توانند به تصمیمات ناعادلانه و حتی تقویت نابرابری‌ها منجر شوند. 📊 چه نوع سوگیری‌هایی در هوش مصنوعی دیده می‌شود؟ 1️⃣ سوگیری داده‌ها: داده‌های آموزشی ناکافی یا غیردقیق ممکن است به پیش‌بینی‌های اشتباه منجر شوند. 2️⃣ سوگیری الگوریتمی: طراحی یا انتخاب الگوریتم‌ها می‌تواند نتایج را به‌سمت نابرابری هدایت کند. 3️⃣ سوگیری تأییدی: مدل‌ها به داده‌هایی که فرضیات موجود را تأیید می‌کنند، اولویت می‌دهند. 4️⃣ سوگیری نمایش: اگر ویژگی‌های خاصی در داده‌ها به‌اندازه کافی نمایش داده نشوند، مدل‌ها نمی‌توانند به‌خوبی تعمیم دهند. 🚨 چرا مهم است؟ این سوگیری‌ها نه‌تنها می‌توانند تصمیمات اشتباه را تقویت کنند، بلکه اعتماد عمومی به فناوری را نیز تضعیف می‌کنند. 📢 به این سوال فکر کنید: آیا هوش مصنوعی می‌تواند واقعاً بی‌طرف باشد؟ 🇮🇷 پایگاه اندیشه حقوق عمومی و فضای مجازی 🆔 Eitaa.com/TABATABAEI_IR
چطور سوگیری‌ها در هوش مصنوعی ایجاد می‌شوند؟ 📚 هوش مصنوعی بر اساس داده‌های انسانی آموزش می‌بیند. این داده‌ها می‌توانند شامل پیش‌داوری‌های اجتماعی، فرهنگی و تاریخی باشند. به همین دلیل: 1️⃣ مدل‌های استخدام ممکن است مردان را به زنان ترجیح دهند. 2️⃣ سیستم‌های قضایی مبتنی بر هوش مصنوعی ممکن است احکام ناعادلانه صادر کنند. 3️⃣ الگوریتم‌های تبلیغاتی ممکن است کلیشه‌های جنسیتی یا نژادی را بازتولید کنند. 💡 هوش مصنوعی، اگرچه پیشرفته به نظر می‌رسد، اما به جای "فکر کردن" به شناسایی الگوهای آماری محدود است. 📊 یک مثال قابل توجه: سیستم استخدامی آمازون که به دلیل ترجیح دادن مردان، کنار گذاشته شد. دلیل؟ داده‌های آموزشی‌اش از الگوهای گذشته الهام گرفته بود. ⚠️ نتیجه‌گیری: سوگیری‌های موجود در داده‌ها می‌توانند به سوگیری در تصمیمات هوش مصنوعی تبدیل شوند. 🇮🇷 پایگاه اندیشه حقوق عمومی و فضای مجازی 🆔 Eitaa.com/TABATABAEI_IR
✨ آیا راه‌حلی برای کاهش سوگیری‌های هوش مصنوعی وجود دارد؟ ✅ بله! محققان و متخصصان پیشنهادهای متنوعی ارائه کرده‌اند: 1️⃣ طراحی داده‌های متنوع و جامع: داده‌ها باید نمایانگر تمام گروه‌ها و جمعیت‌ها باشند. 2️⃣ الگوریتم‌های شفاف: مدل‌هایی که تصمیماتشان قابل توضیح باشد، اعتماد بیشتری ایجاد می‌کنند. 3️⃣ نظارت مستمر: پس از اجرای مدل‌ها، عملکردشان باید ارزیابی و تنظیم شود. 4️⃣ همکاری بین‌رشته‌ای: متخصصان فناوری، اخلاق و قانون باید با هم کار کنند. 📢 چشم‌انداز آینده: یک اکوسیستم قابل اعتماد که از شفافیت، اخلاق و عدالت حمایت می‌کند. آیا این هدف قابل دستیابی است؟ شما چه فکر می‌کنید؟ 🇮🇷 پایگاه اندیشه حقوق عمومی و فضای مجازی 🆔 Eitaa.com/TABATABAEI_IR
چرا سوگیری‌های هوش مصنوعی مسئله‌ای جهانی است؟ ⚖️ سوگیری‌های هوش مصنوعی می‌توانند نابرابری‌های اجتماعی را افزایش دهند: در سیستم‌های قضایی: تصمیمات ناعادلانه علیه گروه‌های خاص. در خدمات مالی: عدم تخصیص وام به افراد کم‌درآمد. در پزشکی: ارائه درمان‌های نابرابر برای گروه‌های مختلف. 🔗 پیامدهای اخلاقی: عدم توجه به این مسائل می‌تواند اعتماد عمومی را به فناوری تضعیف کند و چالش‌های قانونی و اجتماعی ایجاد کند. 📢 راه‌حل چیست؟ با افزایش آگاهی عمومی و ایجاد قوانین جامع، می‌توان هوش مصنوعی را به ابزاری عادلانه تبدیل کرد. 🇮🇷 پایگاه اندیشه حقوق عمومی و فضای مجازی 🆔 Eitaa.com/TABATABAEI_IR
چالش‌های اخلاقی سوگیری در هوش مصنوعی 🔍 چه کسانی مسئول هستند؟ 1️⃣ توسعه‌دهندگان فناوری: اطمینان از طراحی سیستم‌های عادلانه. 2️⃣ سیاست‌گذاران: ایجاد قوانین شفاف برای کنترل فناوری. 3️⃣ کاربران: بررسی نتایج و بازخورد دادن. 💡 چرا این مهم است؟ هوش مصنوعی نباید ابزاری برای تقویت نابرابری‌ها باشد. تنها با یک تلاش جمعی می‌توانیم آینده‌ای شفاف‌تر و عادلانه‌تر بسازیم. ✨ چشم‌انداز: هوش مصنوعی، نه‌تنها پیشرفته بلکه اخلاقی. 🇮🇷 پایگاه اندیشه حقوق عمومی و فضای مجازی 🆔 Eitaa.com/TABATABAEI_IR