چت ربات با هوش مصنوعی امروز یکی از وسایل متداول در زمینه کمک های روانشناختی است. در عین حال ، آنها در ارائه درمان مؤثر نیستند و اغلب می توانند پاسخ های مخرب بدهند ، افراد خطرناک را در معرض دید خود قرار دهند.

محققان کشف کرده اند که مدل های بزرگ زبان (LLM) ، مانند TATGPT ، حداقل در 20 ٪ موارد ادعاهای نامناسب و خطرناکی را برای کسانی که افکار بی معنی ، خودکشی ، توهم و اختلالات وسواسی را تجربه می کنند ، می نویسد و مقاله هایی را که در نیویورک ارسال شده است ، می نویسند.
طبق این نشریه ، ربات با کسانی که اغلب با دیدگاه کاربر موافق هستند ، زیرا آنها برای مطیع بودن و تمسخر ایجاد می شوند. نمونه ای از روزنامه به نقل از پرونده ای که یکی از کاربران توسط بیماری روانی روانی گفته شد که وی مرده است ، در حالی که برخی از سیستم عامل های هوش مصنوعی نمی توانند او را در مورد برعکس متقاعد کنند.
ربات های با کیفیت پایین به دلیل شکاف هنجاری برای افراد خطرناک است … ابزارهای هوش مصنوعی ، هر چقدر هم که آنها دشوار باشند ، بر اساس پاسخ های برنامه نویسی و مجموعه داده های بزرگ … آنها نمی فهمند که چه چیزی در پشت افکار یا رفتارهای کسی پنهان است.
علاوه بر این ، مشاور بالینی Nilufar Esmailpur افزود که مکالمات نمی توانند لحن یک شخص یا زبان بدن را تشخیص دهند ، و همچنین گذشته شخص ، محیط او و یک انبار عاطفی منحصر به فرد را به عنوان یک متخصص زنده درک نمی کنند.
پیش از این ، روانشناس ، معاون مدیر موسسه روانشناسی بالینی و کار اجتماعی دانشگاه پیروگوف ، اکتینا اورلووا ، گفت که اعتماد به چت بات با دردناک ترین تجربیات ، ترس ها و موقعیت ها خطرناک است.
در عین حال ، یک روانشناس آناستازیا Valueva در مورد لحظات مثبت در تعامل با هوش مصنوعی صحبت کرد.