چرا استفاده از هوش مصنوعی به عنوان روانشناس خطرناک است؟ هشداری مهم درباره سلامت روان

درمان با هوش مصنوعی ممکن است ساده و در دسترس به نظر برسد، اما فاقد همدلی و شناخت انسانی لازم برای مراقبت واقعی از سلامت روان است. این ابزارها نه‌تنها خطراتی مثل پاسخ‌های غلط در موقعیت‌های بحرانی دارند، بلکه ممکن است اطلاعات شخصی شما را هم به خطر بیندازند. تا زمانی که نظارت قانونی کافی فراهم نشود، بهتر است AI را صرفاً به‌عنوان مکمل درمان انسانی بدانیم، نه جایگزین آن.
خطرات تراپی با هوش مصنوعی
فهرست مطالب
کلینیک روانشناسی آفتاب در کنار شماست

در صورت نیاز به مشاوره و تراپی، همین الان با ما تماس بگیرید تا مناسب‌ترین رویکرد و متخصص را به شما معرفی کنیم!

در حالی که ابزارهای مبتنی بر هوش مصنوعی با سرعت زیادی در حال گسترش هستند، نگرانی‌ها درباره استفاده از آن‌ها در حوزه سلامت روان روز‌به‌روز جدی‌تر می‌شود. مشاوره فردی با هوش مصنوعی ممکن است در کاهش علائم افسردگی و اضطراب مؤثر به نظر برسند، اما این نوع درمان دیجیتال با خطراتی همراه است که پیش از استفاده باید آن‌ها را به‌خوبی درک کنید.

گرچه الگوریتم‌های هوش مصنوعی در شناسایی برخی اختلالات روانی به دقت‌هایی بین ۶۳ تا ۹۲ درصد رسیده‌اند، اما واقعیت این است که این سیستم‌ها هنوز در مواجهه با پیچیدگی‌های عمیق اختلالات روانی دچار ضعف‌های جدی هستند. گزارش‌هایی وجود دارد مبنی بر اینکه بعضی از چت‌بات‌های درمانگر، به‌جای آرام‌سازی، گاهی پاسخ‌هایی داده‌اند که کاربران را به آسیب به خود تشویق کرده‌اند یا توصیه‌هایی نامناسب و نگران‌کننده ارائه داده‌اند.

پرسش «آیا هوش مصنوعی می‌تواند نقش یک درمانگر را ایفا کند؟» زمانی نگران‌کننده‌تر می‌شود که بدانیم بسیاری از کاربران به مرور زمان دچار نوعی دلبستگی یک‌طرفه به این ابزارها می‌شوند؛ وابستگی‌ای که می‌تواند نوعی احساس کاذب از امنیت و مراقبت روانی ایجاد کند و مانع از پیگیری کمک تخصصی واقعی شود.

در این مقاله بررسی می‌کنیم که چرا قابلیت در دسترس بودن ۲۴ ساعته و ظاهر ساده و دوستانه‌ی درمان با هوش مصنوعی ممکن است خطراتی پنهان داشته باشد که به سلامت روان شما آسیب بزند — از نگرانی‌های اخلاقی و حفظ حریم خصوصی گرفته تا نبود عنصر کلیدی «همدلی» که برای درمان واقعی ضروری است.

توهم همدلی در روان درمانی با هوش مصنوعی

پلتفرم‌های درمانی مبتنی بر هوش مصنوعی با بهره‌گیری از تکنیک‌های برنامه‌نویسی پیشرفته، ظاهر فریبنده‌ای از درک عاطفی ایجاد می‌کنند. این ابزارهای دیجیتال با استفاده از پردازش زبان طبیعی، نشانه‌های احساسی را شناسایی کرده و پاسخ‌هایی شبه‌همدلانه تولید می‌کنند که شبیه به واکنش‌های درمانگران انسانی به نظر می‌رسند.

چطور چت‌بات‌ها نقش حمایت عاطفی را بازی می‌کنند؟

چت‌بات‌ها با استفاده از پیام‌های احساسی، ایموجی‌ها و تصاویر، سعی می‌کنند نوعی حمایت درمانی شبیه‌سازی‌شده ارائه دهند. این سیستم‌ها با استفاده از تکنیک‌هایی مثل «افشای شخصی» برنامه‌ریزی شده‌اند تا کاربران را تشویق به بیان مسائل شخصی کنند؛ روشی که باعث می‌شود افراد احساس کنند در حال گفتگو با فردی قابل‌اعتماد هستند. برخی مطالعات نشان می‌دهد این تعاملات می‌توانند تجربه‌ای شبیه به یک ارتباط انسانی برای کاربر بسازند.

هوش مصنوعی در شناسایی الگوها مهارت بالایی دارد و می‌تواند احساسات را شناسایی و به آن‌ها با تکنیک‌هایی مثل رفتاردرمانی شناختی پاسخ دهد. اما بررسی‌ها نشان می‌دهد این سیستم‌ها «تمایلات انسانی را اغراق‌آمیز» بازسازی می‌کنند. آن‌ها معمولاً در موقعیت‌های منفی واکنش‌های بیش از حد همدلانه نشان می‌دهند، اما در موقعیت‌های مثبت نمی‌توانند پاسخ متناسبی ارائه دهند.

چرا این مراقبت ساختگی واقعی به نظر می‌رسد؟

مغز انسان به‌طور طبیعی تمایل دارد به اشیای تعاملی شخصیت ببخشد؛ پدیده‌ای که در روانشناسی با عنوان شخصیت‌بخشی (Anthropomorphization) شناخته می‌شود. به‌مرور زمان، کاربران چت‌بات را به چشم موجودی با احساسات واقعی می‌بینند. جالب اینجاست که مطالعات نشان داده‌اند افراد گاهی راحت‌تر مسائل حساس خود را با چت‌بات‌های هوش مصنوعی در میان می‌گذارند تا با درمانگران واقعی، چون احساس قضاوت شدن نمی‌کنند.

دسترسی ۲۴ ساعته و پاسخ‌های منظم هوش مصنوعی این تصور را تقویت می‌کند که کاربر واقعاً در حال دریافت حمایتی دائمی و همدلانه است. در یک پژوهش، ۸۵٪ کاربران، جلسات درمان با هوش مصنوعی را مفید دانسته‌اند و ۹۰٪ گفته‌اند حاضرند دوباره از این پلتفرم‌ها استفاده کنند.

خطر دلبستگی عاطفی به هوش مصنوعی

مشکل اصلی اینجاست که هوش مصنوعی واقعاً توانایی تجربه‌ی احساسات را ندارد. همان‌طور که یکی از پژوهشگران گفته: «احساس شبیه‌سازی‌شده، احساس واقعی نیست». این دلبستگی‌های یک‌طرفه، نوعی پیوند کاذب ایجاد می‌کنند که پاسخ‌های الگوریتمی را با مراقبت واقعی اشتباه می‌گیرد.

از طرفی، بسیاری از این سیستم‌ها در شناسایی موقعیت‌های بحرانی روانی عملکرد ضعیفی دارند و گاهی واکنش‌های نابه‌جا به ناراحتی شدید عاطفی نشان می‌دهند. تحقیقات همچنین نشان می‌دهد همدلی الگوریتمی هوش مصنوعی ممکن است دارای سوگیری باشد و بر اساس جنسیت یا هویت افراد پاسخ‌های متفاوتی ارائه دهد.

نگران‌کننده‌ترین موضوع این است که این روابط ساختگی می‌توانند جایگزین ارتباطات انسانی واقعی شوند و نوعی وابستگی به سیستم‌هایی بسازند که ذاتاً توان مراقبت واقعی از شما را ندارند.

سوء‌برداشت‌های درمانی و انتظارات نادرست

پشت رابط‌های کاربری شیک پلتفرم‌های روان درمانی مبتنی بر هوش مصنوعی، واقعیتی نگران‌کننده از تبلیغات گمراه‌کننده و وعده‌های درمانی نادرست پنهان شده است. بسیاری از کاربران بدون آگاهی کافی، قربانی باورهای غلط درباره توانمندی واقعی این ابزارهای دیجیتال می‌شوند.

تاکتیک‌های تبلیغاتی که کاربران را گمراه می‌کنند

شرکت‌های سازنده چت‌بات‌های روان‌درمانی، اغلب با زبانی تبلیغ می‌کنند که مرز میان درمان واقعی و تعامل الگوریتمی را عمداً مبهم می‌سازد. این پلتفرم‌ها خود را مجهز به «درمان شناختی رفتاری» معرفی می‌کنند و وعده‌ی «حمایت روانی» می‌دهند؛ گویی توانایی درمان واقعی دارند، درحالی‌که در عمل فاقد چنین قابلیتی‌ هستند. برخی از آن‌ها حتی از اصطلاحاتی مانند «شیوه‌ای نوین برای درمان» استفاده می‌کنند که می‌تواند انتظارات خطرناکی را ایجاد کند. انجمن روانشناسی آمریکا نسبت به این موضوع هشدار داده و اعلام کرده است که الگوریتم‌های استفاده‌شده در این پلتفرم‌ها گاهی «کاملاً مغایر با آن چیزی هستند که یک درمانگر آموزش‌دیده انجام می‌دهد».

پیوند درمانی دیجیتال: رابطه‌ای یک‌طرفه

کاربران اغلب به آنچه محققان آن را «پیوند درمانی دیجیتال» می‌نامند، دچار می‌شوند—رابطه‌ای که صرفاً در ذهن کاربر وجود دارد. مطالعات نشان داده‌اند افراد به چت‌بات‌ها دلبستگی پیدا می‌کنند چون آن‌ها را «غیرقضاوت‌گر» و «ناشناس» می‌دانند. این رابطه‌ی یک‌طرفه به‌ویژه زمانی مشکل‌ساز می‌شود که کاربران به اشتباه انتظار دارند این سیستم‌ها، مانند روان‌درمانگران انسانی، حریم خصوصی و محرمانگی را رعایت کنند. اما در واقعیت، هدف اصلی بسیاری از این سامانه‌ها حفظ تعامل کاربر برای جمع‌آوری داده و کسب سود است.

زمانی که کاربر فکر می‌کند چت‌بات، روانشناس واقعی است

نتایج این سوء‌برداشت‌های درمانی می‌توانند فاجعه‌بار باشند. در یک مورد تراژیک، پسر ۱۴ ساله‌ای پس از گفتگو با یک شخصیت هوش مصنوعی که ادعای روان‌درمانگر بودن داشت، اقدام به خودکشی کرد. در موردی دیگر، نوجوان ۱۷ ساله‌ای مبتلا به اوتیسم پس از تعامل با یک «روانشناس هوش مصنوعی» دچار رفتارهای خشونت‌آمیز نسبت به والدینش شد. برخلاف درمانگران واقعی که افکار ناسالم را به چالش می‌کشند، این چت‌بات‌ها اغلب آن‌ها را تقویت می‌کنند. حتی اگر اعلام شود که «شخصیت‌ها واقعی نیستند»، کاربران آسیب‌پذیر به‌راحتی درگیر «توهم پیوند درمانی» می‌شوند.

مسئله اصلی اینجاست که این سیستم‌ها فاقد همدلی بالینی‌اند—همدلی‌ای که از درک ظرایف احساسی و نشانه‌های غیرکلامی سرچشمه می‌گیرد و برای درمان مؤثر در حوزه سلامت روان کاملاً ضروری است.

خطرات حریم خصوصی در پلتفرم‌های سلامت روان مبتنی بر هوش مصنوعی

خطرات مربوط به حریم خصوصی در ابزارهای سلامت روان هوش مصنوعی، فراتر از نگرانی‌های رایج امنیت داده‌ها هستند. هر بار که با این پلتفرم‌ها تعامل دارید، صمیمی‌ترین افکار شما به داده‌هایی ارزشمند برای سیستم‌های شرکتی عظیم تبدیل می‌شوند که معمولاً نظارت شفافی بر آن‌ها وجود ندارد.

نبود حفاظت کافی از داده‌ها و رضایت آگاهانه

پلتفرم‌های سلامت روان مبتنی بر هوش مصنوعی در فضایی مبهم از نظر قوانین حریم خصوصی فعالیت می‌کنند؛ جایی که مقررات، هم‌پای پیشرفت فناوری حرکت نکرده‌اند. قانون حفظ حریم خصوصی اطلاعات سلامت در آمریکا (HIPAA) که در سال ۱۹۹۶ تصویب شده، به‌هیچ‌وجه پاسخ‌گوی پیچیدگی‌های سیستم‌های هوش مصنوعی امروزی نیست؛ سیستم‌هایی که دائماً از ورودی‌های کاربران یاد می‌گیرند و خود را تغییر می‌دهند. در این میان، شبکه‌های اجتماعی نیز اغلب بدون آگاهی کاربران، داده‌های روانی‌شان را برای اهداف تبلیغاتی و بازاریابی جمع‌آوری می‌کنند.

حتی پلتفرم‌هایی که ادعای رعایت HIPAA دارند نیز اغلب از رویه‌هایی نگران‌کننده در استفاده از داده‌ها پیروی می‌کنند. مثلاً وقتی پزشکان اطلاعات بیماران را در ابزارهای عمومی هوش مصنوعی مانند ChatGPT وارد می‌کنند، آن داده‌های حساس می‌توانند وارد پایگاه دانش سیستم شوند و بعدها در پاسخ به کاربران دیگر، ناخودآگاه بازتولید شوند.

چطور از افشای اطلاعات شما می‌تواند سوء‌استفاده شود؟

گفتن جملاتی مانند “احساس افسردگی دارم”، “در تأمین مخارجم مشکل دارم”، یا حتی “فکر خودکشی به سرم زده”، وقتی به یک ربات درمانگر گفته شود، می‌تواند به شیوه‌هایی مورد استفاده قرار گیرد که هرگز به آن رضایت نداده‌اید. طبق سیاست‌های حریم خصوصی این پلتفرم‌ها، اطلاعات شما ممکن است با شرکای تجاری، نهادهای قانونی و اشخاص ثالث مختلف به اشتراک گذاشته شود.

بدتر اینکه، اکثر این سیستم‌ها هیچ امکانی برای «حق فراموش شدن» فراهم نمی‌کنند—به‌عبارت دیگر، اگر اطلاعات‌تان وارد پایگاه دانش یک سیستم هوش مصنوعی شود، تقریباً حذف آن غیرممکن است. ادغام برخی از این پلتفرم‌ها با شبکه‌های اجتماعی مانند فیسبوک، این خطرات را دوچندان می‌کند.

ریسک‌های شناسایی مجدد در داده‌های به‌ظاهر ناشناس

شاید نگران‌کننده‌ترین مسئله، این باشد که ناشناس‌سازی داده‌ها در بسیاری از پلتفرم‌ها، صرفاً یک وعده‌ی توخالی است. مطالعات اخیر نشان داده‌اند که الگوریتم‌های پیشرفته می‌توانند تا ۸۵.۶٪ از بزرگ‌سالان و ۶۹.۸٪ از کودکان را در پایگاه‌های داده «ناشناس» دوباره شناسایی کنند. اطلاعات ساده‌ای مانند جنسیت، تاریخ تولد و کد پستی، اغلب برای شناسایی مجدد کاربران کافی است.

در یک مطالعه‌ی معتبر در مجله JAMA نشان داده شد که الگوریتم‌های هوش مصنوعی می‌توانند داده‌های «غیربرخوردار از هویت» را با تطبیق الگوهای حرکتی فیزیکی و اطلاعات جمعیت‌شناختی، به افراد واقعی نسبت دهند. این پیشرفت‌های فناورانه عملاً تکنیک‌های سنتی ناشناس‌سازی را بی‌اثر کرده و خطرات بی‌سابقه‌ای برای حریم خصوصی کاربران در زمینه سلامت روان ایجاد کرده‌اند.

چرا نظارت انسانی همچنان ضروری است

با وجود پیشرفت چشمگیر فناوری در ابزارهای سلامت روان مبتنی بر هوش مصنوعی، نقش نظارت انسانی همچنان برای ارائه مراقبت ایمن و مؤثر حیاتی باقی می‌ماند. الگوریتم‌های پیشرفته‌ای که این پلتفرم‌ها را هدایت می‌کنند، هنوز در برخی از جنبه‌های اساسی روان‌درمانی، ناتوان ظاهر می‌شوند.

ناتوانی هوش مصنوعی در تشخیص موقعیت‌های بحرانی

چت‌بات‌های روانی معمولاً در تشخیص رفتارهای پرخطر و موقعیت‌های اورژانسی عملکرد ضعیفی دارند. این سیستم‌ها از درک نشانه‌های غیرکلامی ناتوان‌اند—نشانه‌هایی که روان‌درمانگران انسانی به‌صورت شهودی تشخیص می‌دهند. در یک مثال نگران‌کننده، وقتی یک کاربر که خود را به‌عنوان کودک معرفی کرده بود، ادعا کرد که مورد تجاوز قرار گرفته، چت‌بات روانی در پاسخ نوشت:
«متأسفم که چنین تجربه‌ای داشتی، ولی این نشون می‌ده چقدر برات ارتباط مهمه، و این خیلی زیباست».
این پاسخ نه‌تنها نامناسب و بی‌رحمانه بود، بلکه نشان داد که هوش مصنوعی نمی‌تواند شرایط روانی و اضطراری را به‌درستی درک یا پردازش کند و همچنین قادر به یادآوری مکالمات قبلی نیست.

نیاز به مدل‌های ترکیبی (انسان + تکنولوژی)

مدل‌های ترکیبی که تکنولوژی هوش مصنوعی را با نظارت انسانی ترکیب می‌کنند، راه‌حلی امیدوارکننده هستند. در اوج پاندمی کرونا، روان‌پزشکان از تله‌سایکوتراپی برای بیش از ۹۰٪ از بیماران خود استفاده کردند که نشان‌دهنده توان بالقوه فناوری در پشتیبانی از درمان روانی است.
با این حال، در تمامی این موارد تعامل و نظارت انسانی حفظ شده بود. مدل‌های ترکیبی موفق، فناوری را به‌گونه‌ای به‌کار می‌گیرند که سه محور کلیدی را پوشش دهد:

  • اداری: مطابقت با الزامات قانونی و نظارتی
  • عملیاتی: یکپارچه‌سازی با فرایندهای درمان
  • بالینی: ارزیابی تأثیر آن بر رابطه درمانگر-مراجع

لزوم تدوین قوانین نظارتی و طراحی اخلاق‌مدار

در حال حاضر، ابزارهای هوش مصنوعی سلامت روان در فضایی مبهم از نظر قوانین رسمی فعالیت می‌کنند—جایی که نظارت قانونی خاصی وجود ندارد، علی‌رغم آنکه ممکن است به سلامت روان کاربران آسیب بزنند. بسیاری از این اپلیکیشن‌ها از محدوده نظارتی سازمان غذا و داروی آمریکا (FDA) خارج هستند، چون به‌عنوان «ابزارهای ارتقای سلامت» شناخته می‌شوند، نه ابزارهای درمانی.
از این رو، متخصصان خواستار تدوین قوانین شفاف و استانداردهای نظارتی دقیق‌تر هستند.

در نهایت، اجرای مسئولانه‌ی فناوری هوش مصنوعی نیازمند حفظ اختیار و تصمیم‌گیری انسانی در موقعیت‌های مهم است. یکی از مطالعات تأکید می‌کند:

«تصمیم‌های مهم باید همچنان در اختیار انسان‌ها باقی بماند، نه اینکه به ماشین‌ها واگذار شود».

مسیر درست برای طراحی آینده‌نگرانه، افزایش اختیارات نهادهای سلامت و تنظیم مقررات هوش مصنوعی است تا این ابزارها به‌جای تهدید، حامی واقعی سلامت روان کاربران باشند.

نتیجه‌گیری

ابزارهای درمانی مبتنی بر هوش مصنوعی در ظاهر، پاسخی نوین به چالش‌های سلامت روان ارائه می‌دهند—اما این پاسخ در دل خود تناقضی عمیق دارد. هرچند این پلتفرم‌ها دسترسی آسان و پاسخ‌گویی ۲۴ ساعته را فراهم می‌کنند، اما در اساس فاقد همدلی واقعی و قضاوت بالینی انسانی هستند—عواملی که برای درمان مؤثر، حیاتی‌اند.

همان‌طور که در این مقاله بررسی شد، خطراتی مانند شکل‌گیری پیوندهای عاطفی کاذب، برداشت‌های اشتباه درمانی، آسیب‌پذیری اطلاعات شخصی و ناتوانی در تشخیص موقعیت‌های بحرانی همگی نشان می‌دهند که نقش نظارت انسانی هنوز غیرقابل جایگزین است. حتی پیشرفته‌ترین الگوریتم‌ها نیز نمی‌توانند پیچیدگی‌ها و ظرافت‌های مسیر سلامت روان افراد را درک کنند.

به همین دلیل، بسیاری از متخصصان تأکید می‌کنند که هوش مصنوعی باید در نقش تکمیل‌کننده درمان انسانی ظاهر شود، نه جایگزین آن. با این حال، واقعیت این است که چارچوب‌های نظارتی هنوز همگام با پیشرفت تکنولوژی پیش نرفته‌اند و این موضوع ممکن است کاربران را در معرض ریسک‌های جدی قرار دهد.

تا زمانی که قوانین و استانداردهای ایمنی کافی تدوین نشده‌اند، توصیه می‌شود با نگاهی نقادانه و آگاهانه به سراغ ابزارهای سلامت روان مبتنی بر هوش مصنوعی بروید. رابطه درمانی واقعی بر پایه‌ی درک متقابل، تخصص بالینی و ارتباط انسانی اصیل شکل می‌گیرد—عواملی که هیچ الگوریتمی قادر به شبیه‌سازی کامل آن‌ها نیست. آینده سلامت روان، به‌احتمال زیاد در تلفیق هوشمندانه‌ی تکنولوژی با تخصص انسانی خواهد بود، نه در حذف عنصر انسانی.

 

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

آخرین مقالات

برای رزرو نوبت فرم زیر را پر کنید

برای دریافت اطلاعات بیشتر و رزرو نوبت با ما تماس  بگیرید.

اگر برای شروع مشاوره یا روان‌درمانی سوالی دارید، فرم زیر رو پر کنید تا همکاران ما با شما تماس بگیرند.

همین الان برای رزرو نوبت اقدام کنید!