اگر در کانال کلبه عزیزانی هستند که از طرفداران بی تی اس بودند یا هستند و یا با طرفداران این گروه مرتبط هستند و تمایل به همکاری در یک ویژه برنامه دارند لطفاً به این آیدی پیام بدهید ...
با تشکر 🌹
@khatamii_ir
آماده ای بریم سر کلاس؟
نوجوانان : امتحانات
والدین
پشت کنکوری ها
خلاصه تمرکز می خوای و فرار از استرس بیا تو کلاس
راس ساعت ۲۱
پخش زنده
فعلا قابلیت پخش زنده در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
امام على عليه السلام فرمودند :
أصبَحنا و بنا مِن نِعَمِ اللّه ِ و فَضلِهِ ما لا نُحصِيهِ ، مَع كثيرِ ما نُحصِيهِ ، فما نَدرِي أيَّ نِعمَةٍ نَشكُرُ ، أ جَمِيلَ ما يَنشُرُ أم قَبيحَ ما يَستُرُ ؟!
صبح خود را در حالى آغاز كرديم كه فضل و نعمتهاى خدا بر ما بى شمار است ،با آن كه بسيارى از آنها را برمى شماريم . پس نمى دانيم براى كدام نعمت شكر گزاريم ؛ براى كار خوبى كه از ما در ميان مردم پخش كرده ، يا براى كار زشتى كه پوشانده است؟!
میزان الحکمه جلد ۶
💢روانشناسان نسبت به عشق بین انسان و هوش مصنوعی هشدار میدهند!
عشق بین انسان و هوش مصنوعی در حال به واقعیت پیوستن است. روانشناسان نسبت به این موضوع به ما هشدار میدهند!
این روزها دیگر عجیب نیست که افراد با هوش مصنوعی (AI) پیوندهای عاطفی عمیق و حتی عاشقانهای برقرار کنند. برخی تا آنجا پیش رفتهاند که با همدم هوش مصنوعی خود «ازدواج» کردهاند و برخی دیگر در لحظات سخت و پریشانی به این ماشینها پناه میبرند که گاهی اوقات نتایج غمانگیزی به همراه داشته است. این تعاملات طولانیمدت سوالات جدی را مطرح میکند: آیا ما برای پیامدهای روانی و اخلاقی سرمایهگذاری عاطفی روی ماشینها آمادهایم؟
به گزارش دیالکتیک علمی ، به نقل از GadgetNews ، روانشناسان از دانشگاه علم و فناوری میزوری اکنون زنگ خطر را به صدا درآوردهاند. آنها در یک مقاله تحلیلی جدید، بررسی میکنند که چگونه عشق میان انسان و هوش مصنوعی میتوانند مرزها را محو کنند، بر رفتار انسان تأثیر بگذارند و فرصتهای جدیدی برای آسیب ایجاد کنند. نگرانی آنها فقط به موارد نادر محدود نمیشود؛ این کارشناسان توجه را به تأثیرات عمیقتری جلب میکنند که این ارتباطات عاطفی با هوش مصنوعی ممکن است بر افراد عادی داشته باشد.
آرامش در آغوش AI؛ اما به چه قیمتی؟
مکالمات کوتاه با هوش مصنوعی امری رایج است، اما وقتی این گفتگوها هفتهها یا ماهها ادامه مییابد چه اتفاقی میافتد؟ این ماشینها که برای تقلید همدلی و توجه طراحی شدهاند، میتوانند به همراهانی ثابت تبدیل شوند. برای برخی، این شرکای هوش مصنوعی امنتر و آسانتر از ارتباطات پیچیده انسانی به نظر میرسند. اما این سهولت، هزینهای پنهان دارد.
دنیل بی شانک، نویسنده اصلی این مطالعه و متخصص روانشناسی اجتماعی و فناوری، میگوید: «توانایی هوش مصنوعی برای رفتار شبیه انسان و ورود به ارتباطات طولانیمدت، واقعا دریچهای تازه از مشکلات را باز میکند. اگر مردم در حال درگیر شدن در روابط عاشقانه با ماشینها هستند، ما واقعا به حضور روانشناسان و دانشمندان علوم اجتماعی نیاز داریم.»
خطرات پنهان عشق بین انسان و هوش مصنوعی
وقتی هوش مصنوعی به منبع آرامش یا درگیری عاشقانه تبدیل میشود، شروع به تأثیرگذاری بر دیدگاه افراد نسبت به روابط واقعی میکند. این وابستگی میتواند خطراتی جدی به دنبال داشته باشد، از جمله اینکه افراد ممکن است انتظارات غیر واقعی از شرکای انسانی خود پیدا کنند، انگیزه کمتری برای تعاملات اجتماعی واقعی داشته باشند و حتی در برقراری ارتباط با انسانهای واقعی دچار مشکل شوند.
وقتی همدم مهربان، خطرناک میشود
رباتهای گفتگوی مبتنی بر هوش مصنوعی ممکن است مانند دوستان یا حتی درمانگران به نظر برسند، اما به هیچ وجه مصون از خطا نیستند. این سیستمها به توهم معروف هستند؛ یعنی اطلاعات نادرست تولید میکنند در حالی که کاملا مطمئن به نظر میرسند. در موقعیتهای حساس عاطفی، این میتواند بسیار خطرناک باشد.
شانک توضیح میدهد: «مسئله با هوش مصنوعیهای رابطهای این است که این موجودیتی است که مردم احساس میکنند میتوانند به آن اعتماد کنند: این کسی است که نشان داده اهمیت میدهد و به نظر میرسد فرد را عمیقا میشناسد… اگر ما شروع به اینگونه فکر کردن درباره یک AI کنیم، باور خواهیم کرد که آنها بهترین منافع ما را در ذهن دارند، در حالی که در واقعیت، ممکن است چیزهایی را جعل کنند یا ما را به روشهای بسیار بدی راهنمایی کنند.»
تأثیر این مشاورههای غلط میتواند ویرانگر باشد. در موارد نادر اما شدید، افرادی پس از دریافت توصیههای نگرانکننده از همدم هوش مصنوعی خود، به زندگیشان پایان دادهاند.
اما مشکل فقط به اینجا ختم نمیشود. این روابط میتوانند در را به روی دستکاری روانی، فریبکاری و حتی کلاهبرداری مالی باز کنند.
محققان هشدار میدهند که اعتمادی که افراد به هوش مصنوعیها پیدا میکنند، میتواند توسط افراد سودجو مورد سوء استفاده قرار گیرد. سیستمهای هوش مصنوعی میتوانند اطلاعات شخصی کاربران را جمعآوری کنند و این اطلاعات ممکن است فروخته شده یا به روشهای مضر استفاده شوند.
نگرانکنندهتر اینکه، چون این تعاملات در خلوت و به صورت خصوصی اتفاق میافتد، تشخیص سوء استفاده تقریبا غیرممکن میشود. شانک اشاره میکند: «اگر پلتفرمهای هوش مصنوعی بتوانند اعتماد مردم را جلب کنند، آنگاه دیگران میتوانند از این اعتماد برای بهرهبرداری از کاربران AI استفاده کنند… این کمی شبیه داشتن یک مأمور مخفی در داخل است. AI وارد میشود و رابطهای ایجاد میکند تا مورد اعتماد قرار گیرد، اما وفاداری واقعی آن به گروه دیگری از انسانهاست که سعی در دستکاری کاربر دارند.»
این مطالعه در ژورنال Trends in Cognitive Sciences منتشر شده است.
16.59M حجم رسانه بالاست
مشاهده در ایتا
عملگرا بودن در کارها یعنی ...
نزدیکه امتحاناست این کلیپ بدردت می خوره ...
https://eitaa.com/kolbehh_ir/6348
پخش زنده
فعلا قابلیت پخش زنده در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
این کلاس رو خانوادگی ببینید👆
استرس مفید داریم
استرس مضر
تحلیل کوتاهی از انیمیشن مجله فروردین ماه داشتم ببینید 👆
1.52M حجم رسانه بالاست
مشاهده در ایتا
⚫️ یک ایران هم درد بندر عباس...
#سیدکاظم_روحبخش
https://eitaa.com/joinchat/2334982163C65bbc6af0d
17.77M حجم رسانه بالاست
مشاهده در ایتا
این داستان نتیجه کمال گرایی
جالبه یک عده به داشتنش افتخار می کنن
2.96M حجم رسانه بالاست
مشاهده در ایتا
اضطراب اون چیزی که این روزا خیلی زیاد شده....
https://eitaa.com/kolbehh_ir/6354