دیسکورد قابلیت اسکن چهره برای تأیید سن را آزمایش میکند
🔹 دیسکورد اخیرا آزمایش یک قابلیت جدید را آغاز کرده است که بر اساس آن، کاربران برای دسترسی به محتوایی که فقط برای افراد بالای یک سن خاص قابل مشاهده است (مثل چتها یا سرورهای مخصوص بزرگسالان) باید چهرهی خود را اسکن کنند!
🇮🇷 اندیشکدهحقوقعمومیوفضایمجازی
🆔 https://eitaa.com/joinchat/359333911Cd8a553d432
مدلهای هوش مصنوعی استدلالگر جدید OpenAI بیشتر دچار توهم میشوند
🔹۲ مدل استدلالگر o3 و o4-mini شرکت OpenAI توهم زیادی دارند. طبق تستهای OpenAI، این ۲ مدل استدلالگر بیشتر از مدلهای استدلالگر قبلی شرکت، o1 ،o1-mini و o3-mini، همچنین مدلهای معمولی OpenAI مانند GPT-4o توهم ایجاد میکنند.
🔹درکل توهمات یکی از بزرگترین مسائل هوش مصنوعی است که برطرفکردن آنها بسیار دشوار است. بااینحال مدلهای جدید کمی در بخش توهم بهبود مییابند و کمتر از مدل قبلی خود دچار توهم میشوند اما این امر درباره o3 و o4-mini صادق نیست.
🔹نکته نگرانکنندهتر این است که OpenAI واقعاً نمیداند چرا این اتفاق میافتد. سازنده ChatGPT در گزارش فنی خود برای o3 و o4-mini مینویسد:
🔹«به تحقیقات بیشتری نیاز است تا بفهمیم چرا توهمات با پیشرفت مدلهای استدلالی افزایش یافته است.»
🔹شرکت میگوید o3 در پاسخ به ۳۳ درصد سؤالات PersonQA (بنچمارک داخلی شرکت برای سنجش دقت دانش مدل درباره اشخاص) توهم ایجاد میکند.
🇮🇷 اندیشکدهحقوقعمومیوفضایمجازی
🆔 https://eitaa.com/joinchat/359333911Cd8a553d432
رقابت رباتها در کنار انسانها در نیمه ماراتن چین
🔹در نیمه ماراتن پکن، ۲۱ ربات انساننما برای اولین بار در کنار دوندگان انسانی در یک مسیر ۲۱ کیلومتری به رقابت پرداختند و تواناییهای رو به رشد رباتیک چین را به نمایش گذاشتند، اما در نهایت انسان با زمان ۱ ساعت و ۲ دقیقه به عنوان برنده این رقابت شناخته شد. رباتها با اشکال و اندازههای مختلف، از جمله رباتی با ظاهر تقریباً انسانی، در این مسابقه شرکت کردند. ربات “تیانگونگ اولترا” بهترین زمان را در میان رباتها با ۲ ساعت و ۴۰ دقیقه ثبت کرد، در حالی که برخی دیگر از رباتها در طول مسابقه با مشکلاتی مواجه شدند. این رویداد به عنوان آزمایشی جدی برای فناوری رباتیک تلقی شد، اگرچه برخی کارشناسان معتقدند که این مسابقات لزوماً نشاندهنده پتانسیل صنعتی رباتها نیست. هدف نهایی، توسعه کاربردهای صنعتی برای رباتهای انساننما در کارخانهها و زندگی روزمره است.
🇮🇷 اندیشکدهحقوقعمومیوفضایمجازی
🆔 https://eitaa.com/joinchat/359333911Cd8a553d432
کلیات طرح ملی هوش مصنوعی در کمیسیون صنایع مجلس تصویب شد
🔹رییس کمیته ارتباطات و فناوری اطلاعات کمیسیون صنایع و معادن مجلس، از تصویب کلیات و جزییات طرح ملی هوش مصنوعی در نشست امروز کمیسیون صنایع خبر داد و افزود: در این طرح تاکید شده سازمان ملی هوش مصنوعی زیر نظر رئیس جمهور تشکیل شود که چهار بخش برای فعالیت آن پیشبینی شده است./ایرنا
🇮🇷 اندیشکدهحقوقعمومیوفضایمجازی
🆔 https://eitaa.com/joinchat/359333911Cd8a553d432
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
روحش شاد، یادش گرامی و راهش پر رهرو باد!
🇮🇷 اندیشکدهحقوقعمومیوفضایمجازی
🆔 https://eitaa.com/joinchat/359333911Cd8a553d432
✅ جلسه دفاع از پایاننامه
•┈••••✾•💞🌺💞•✾•••┈┈•
📱کانال رسمی دانشگاه علوم قضائی
https://eitaa.com/ujsas_ac_ir
10.5M حجم رسانه بالاست
مشاهده در ایتا
🎥 از گارد شاهنشاهی تا قائممقامی در سپاه!
📣 به مناسبت سالروز تشکیل سپاه پاسداران گرامی میداریم یاد شهید #یوسف_کلاهدوز؛ از بنیانگذاران و قائممقام فرمانده سپاه پاسداران
#فرزند_ایران 🇮🇷
🇮🇷 اندیشکدهحقوقعمومیوفضایمجازی
🆔 https://eitaa.com/joinchat/359333911Cd8a553d432
چرا سوگیریهای شناختی در هوش مصنوعی اهمیت دارند؟
🧠 هوش مصنوعی، بهعنوان بازتابی از دادهها و تصمیمات انسانی، ممکن است همان سوگیریهایی را که در ذهن انسانها وجود دارد، بازتولید کند. این سوگیریها، که بهعنوان سوگیریهای شناختی شناخته میشوند، میتوانند به تصمیمات ناعادلانه و حتی تقویت نابرابریها منجر شوند.
📊 چه نوع سوگیریهایی در هوش مصنوعی دیده میشود؟
1️⃣ سوگیری دادهها: دادههای آموزشی ناکافی یا غیردقیق ممکن است به پیشبینیهای اشتباه منجر شوند.
2️⃣ سوگیری الگوریتمی: طراحی یا انتخاب الگوریتمها میتواند نتایج را بهسمت نابرابری هدایت کند.
3️⃣ سوگیری تأییدی: مدلها به دادههایی که فرضیات موجود را تأیید میکنند، اولویت میدهند.
4️⃣ سوگیری نمایش: اگر ویژگیهای خاصی در دادهها بهاندازه کافی نمایش داده نشوند، مدلها نمیتوانند بهخوبی تعمیم دهند.
🚨 چرا مهم است؟
این سوگیریها نهتنها میتوانند تصمیمات اشتباه را تقویت کنند، بلکه اعتماد عمومی به فناوری را نیز تضعیف میکنند.
📢 به این سوال فکر کنید: آیا هوش مصنوعی میتواند واقعاً بیطرف باشد؟
🇮🇷 پایگاه اندیشه حقوق عمومی و فضای مجازی
🆔 Eitaa.com/TABATABAEI_IR
چطور سوگیریها در هوش مصنوعی ایجاد میشوند؟
📚 هوش مصنوعی بر اساس دادههای انسانی آموزش میبیند. این دادهها میتوانند شامل پیشداوریهای اجتماعی، فرهنگی و تاریخی باشند. به همین دلیل:
1️⃣ مدلهای استخدام ممکن است مردان را به زنان ترجیح دهند.
2️⃣ سیستمهای قضایی مبتنی بر هوش مصنوعی ممکن است احکام ناعادلانه صادر کنند.
3️⃣ الگوریتمهای تبلیغاتی ممکن است کلیشههای جنسیتی یا نژادی را بازتولید کنند.
💡 هوش مصنوعی، اگرچه پیشرفته به نظر میرسد، اما به جای "فکر کردن" به شناسایی الگوهای آماری محدود است.
📊 یک مثال قابل توجه:
سیستم استخدامی آمازون که به دلیل ترجیح دادن مردان، کنار گذاشته شد. دلیل؟ دادههای آموزشیاش از الگوهای گذشته الهام گرفته بود.
⚠️ نتیجهگیری: سوگیریهای موجود در دادهها میتوانند به سوگیری در تصمیمات هوش مصنوعی تبدیل شوند.
🇮🇷 پایگاه اندیشه حقوق عمومی و فضای مجازی
🆔 Eitaa.com/TABATABAEI_IR
✨ آیا راهحلی برای کاهش سوگیریهای هوش مصنوعی وجود دارد؟
✅ بله! محققان و متخصصان پیشنهادهای متنوعی ارائه کردهاند:
1️⃣ طراحی دادههای متنوع و جامع: دادهها باید نمایانگر تمام گروهها و جمعیتها باشند.
2️⃣ الگوریتمهای شفاف: مدلهایی که تصمیماتشان قابل توضیح باشد، اعتماد بیشتری ایجاد میکنند.
3️⃣ نظارت مستمر: پس از اجرای مدلها، عملکردشان باید ارزیابی و تنظیم شود.
4️⃣ همکاری بینرشتهای: متخصصان فناوری، اخلاق و قانون باید با هم کار کنند.
📢 چشمانداز آینده:
یک اکوسیستم قابل اعتماد که از شفافیت، اخلاق و عدالت حمایت میکند. آیا این هدف قابل دستیابی است؟ شما چه فکر میکنید؟
🇮🇷 پایگاه اندیشه حقوق عمومی و فضای مجازی
🆔 Eitaa.com/TABATABAEI_IR
چرا سوگیریهای هوش مصنوعی مسئلهای جهانی است؟
⚖️ سوگیریهای هوش مصنوعی میتوانند نابرابریهای اجتماعی را افزایش دهند:
در سیستمهای قضایی: تصمیمات ناعادلانه علیه گروههای خاص.
در خدمات مالی: عدم تخصیص وام به افراد کمدرآمد.
در پزشکی: ارائه درمانهای نابرابر برای گروههای مختلف.
🔗 پیامدهای اخلاقی:
عدم توجه به این مسائل میتواند اعتماد عمومی را به فناوری تضعیف کند و چالشهای قانونی و اجتماعی ایجاد کند.
📢 راهحل چیست؟
با افزایش آگاهی عمومی و ایجاد قوانین جامع، میتوان هوش مصنوعی را به ابزاری عادلانه تبدیل کرد.
🇮🇷 پایگاه اندیشه حقوق عمومی و فضای مجازی
🆔 Eitaa.com/TABATABAEI_IR
چالشهای اخلاقی سوگیری در هوش مصنوعی
🔍 چه کسانی مسئول هستند؟
1️⃣ توسعهدهندگان فناوری: اطمینان از طراحی سیستمهای عادلانه.
2️⃣ سیاستگذاران: ایجاد قوانین شفاف برای کنترل فناوری.
3️⃣ کاربران: بررسی نتایج و بازخورد دادن.
💡 چرا این مهم است؟
هوش مصنوعی نباید ابزاری برای تقویت نابرابریها باشد. تنها با یک تلاش جمعی میتوانیم آیندهای شفافتر و عادلانهتر بسازیم.
✨ چشمانداز: هوش مصنوعی، نهتنها پیشرفته بلکه اخلاقی.
🇮🇷 پایگاه اندیشه حقوق عمومی و فضای مجازی
🆔 Eitaa.com/TABATABAEI_IR