در حالی که ابزارهای مبتنی بر هوش مصنوعی با سرعت زیادی در حال گسترش هستند، نگرانیها درباره استفاده از آنها در حوزه سلامت روان روزبهروز جدیتر میشود. مشاوره فردی با هوش مصنوعی ممکن است در کاهش علائم افسردگی و اضطراب مؤثر به نظر برسند، اما این نوع درمان دیجیتال با خطراتی همراه است که پیش از استفاده باید آنها را بهخوبی درک کنید.
گرچه الگوریتمهای هوش مصنوعی در شناسایی برخی اختلالات روانی به دقتهایی بین ۶۳ تا ۹۲ درصد رسیدهاند، اما واقعیت این است که این سیستمها هنوز در مواجهه با پیچیدگیهای عمیق اختلالات روانی دچار ضعفهای جدی هستند. گزارشهایی وجود دارد مبنی بر اینکه بعضی از چتباتهای درمانگر، بهجای آرامسازی، گاهی پاسخهایی دادهاند که کاربران را به آسیب به خود تشویق کردهاند یا توصیههایی نامناسب و نگرانکننده ارائه دادهاند.
پرسش «آیا هوش مصنوعی میتواند نقش یک درمانگر را ایفا کند؟» زمانی نگرانکنندهتر میشود که بدانیم بسیاری از کاربران به مرور زمان دچار نوعی دلبستگی یکطرفه به این ابزارها میشوند؛ وابستگیای که میتواند نوعی احساس کاذب از امنیت و مراقبت روانی ایجاد کند و مانع از پیگیری کمک تخصصی واقعی شود.
در این مقاله بررسی میکنیم که چرا قابلیت در دسترس بودن ۲۴ ساعته و ظاهر ساده و دوستانهی درمان با هوش مصنوعی ممکن است خطراتی پنهان داشته باشد که به سلامت روان شما آسیب بزند — از نگرانیهای اخلاقی و حفظ حریم خصوصی گرفته تا نبود عنصر کلیدی «همدلی» که برای درمان واقعی ضروری است.
توهم همدلی در روان درمانی با هوش مصنوعی
پلتفرمهای درمانی مبتنی بر هوش مصنوعی با بهرهگیری از تکنیکهای برنامهنویسی پیشرفته، ظاهر فریبندهای از درک عاطفی ایجاد میکنند. این ابزارهای دیجیتال با استفاده از پردازش زبان طبیعی، نشانههای احساسی را شناسایی کرده و پاسخهایی شبههمدلانه تولید میکنند که شبیه به واکنشهای درمانگران انسانی به نظر میرسند.
چطور چتباتها نقش حمایت عاطفی را بازی میکنند؟
چتباتها با استفاده از پیامهای احساسی، ایموجیها و تصاویر، سعی میکنند نوعی حمایت درمانی شبیهسازیشده ارائه دهند. این سیستمها با استفاده از تکنیکهایی مثل «افشای شخصی» برنامهریزی شدهاند تا کاربران را تشویق به بیان مسائل شخصی کنند؛ روشی که باعث میشود افراد احساس کنند در حال گفتگو با فردی قابلاعتماد هستند. برخی مطالعات نشان میدهد این تعاملات میتوانند تجربهای شبیه به یک ارتباط انسانی برای کاربر بسازند.
هوش مصنوعی در شناسایی الگوها مهارت بالایی دارد و میتواند احساسات را شناسایی و به آنها با تکنیکهایی مثل رفتاردرمانی شناختی پاسخ دهد. اما بررسیها نشان میدهد این سیستمها «تمایلات انسانی را اغراقآمیز» بازسازی میکنند. آنها معمولاً در موقعیتهای منفی واکنشهای بیش از حد همدلانه نشان میدهند، اما در موقعیتهای مثبت نمیتوانند پاسخ متناسبی ارائه دهند.
چرا این مراقبت ساختگی واقعی به نظر میرسد؟
مغز انسان بهطور طبیعی تمایل دارد به اشیای تعاملی شخصیت ببخشد؛ پدیدهای که در روانشناسی با عنوان شخصیتبخشی (Anthropomorphization) شناخته میشود. بهمرور زمان، کاربران چتبات را به چشم موجودی با احساسات واقعی میبینند. جالب اینجاست که مطالعات نشان دادهاند افراد گاهی راحتتر مسائل حساس خود را با چتباتهای هوش مصنوعی در میان میگذارند تا با درمانگران واقعی، چون احساس قضاوت شدن نمیکنند.
دسترسی ۲۴ ساعته و پاسخهای منظم هوش مصنوعی این تصور را تقویت میکند که کاربر واقعاً در حال دریافت حمایتی دائمی و همدلانه است. در یک پژوهش، ۸۵٪ کاربران، جلسات درمان با هوش مصنوعی را مفید دانستهاند و ۹۰٪ گفتهاند حاضرند دوباره از این پلتفرمها استفاده کنند.
خطر دلبستگی عاطفی به هوش مصنوعی
مشکل اصلی اینجاست که هوش مصنوعی واقعاً توانایی تجربهی احساسات را ندارد. همانطور که یکی از پژوهشگران گفته: «احساس شبیهسازیشده، احساس واقعی نیست». این دلبستگیهای یکطرفه، نوعی پیوند کاذب ایجاد میکنند که پاسخهای الگوریتمی را با مراقبت واقعی اشتباه میگیرد.
از طرفی، بسیاری از این سیستمها در شناسایی موقعیتهای بحرانی روانی عملکرد ضعیفی دارند و گاهی واکنشهای نابهجا به ناراحتی شدید عاطفی نشان میدهند. تحقیقات همچنین نشان میدهد همدلی الگوریتمی هوش مصنوعی ممکن است دارای سوگیری باشد و بر اساس جنسیت یا هویت افراد پاسخهای متفاوتی ارائه دهد.
نگرانکنندهترین موضوع این است که این روابط ساختگی میتوانند جایگزین ارتباطات انسانی واقعی شوند و نوعی وابستگی به سیستمهایی بسازند که ذاتاً توان مراقبت واقعی از شما را ندارند.
سوءبرداشتهای درمانی و انتظارات نادرست
پشت رابطهای کاربری شیک پلتفرمهای روان درمانی مبتنی بر هوش مصنوعی، واقعیتی نگرانکننده از تبلیغات گمراهکننده و وعدههای درمانی نادرست پنهان شده است. بسیاری از کاربران بدون آگاهی کافی، قربانی باورهای غلط درباره توانمندی واقعی این ابزارهای دیجیتال میشوند.
تاکتیکهای تبلیغاتی که کاربران را گمراه میکنند
شرکتهای سازنده چتباتهای رواندرمانی، اغلب با زبانی تبلیغ میکنند که مرز میان درمان واقعی و تعامل الگوریتمی را عمداً مبهم میسازد. این پلتفرمها خود را مجهز به «درمان شناختی رفتاری» معرفی میکنند و وعدهی «حمایت روانی» میدهند؛ گویی توانایی درمان واقعی دارند، درحالیکه در عمل فاقد چنین قابلیتی هستند. برخی از آنها حتی از اصطلاحاتی مانند «شیوهای نوین برای درمان» استفاده میکنند که میتواند انتظارات خطرناکی را ایجاد کند. انجمن روانشناسی آمریکا نسبت به این موضوع هشدار داده و اعلام کرده است که الگوریتمهای استفادهشده در این پلتفرمها گاهی «کاملاً مغایر با آن چیزی هستند که یک درمانگر آموزشدیده انجام میدهد».
پیوند درمانی دیجیتال: رابطهای یکطرفه
کاربران اغلب به آنچه محققان آن را «پیوند درمانی دیجیتال» مینامند، دچار میشوند—رابطهای که صرفاً در ذهن کاربر وجود دارد. مطالعات نشان دادهاند افراد به چتباتها دلبستگی پیدا میکنند چون آنها را «غیرقضاوتگر» و «ناشناس» میدانند. این رابطهی یکطرفه بهویژه زمانی مشکلساز میشود که کاربران به اشتباه انتظار دارند این سیستمها، مانند رواندرمانگران انسانی، حریم خصوصی و محرمانگی را رعایت کنند. اما در واقعیت، هدف اصلی بسیاری از این سامانهها حفظ تعامل کاربر برای جمعآوری داده و کسب سود است.
زمانی که کاربر فکر میکند چتبات، روانشناس واقعی است
نتایج این سوءبرداشتهای درمانی میتوانند فاجعهبار باشند. در یک مورد تراژیک، پسر ۱۴ سالهای پس از گفتگو با یک شخصیت هوش مصنوعی که ادعای رواندرمانگر بودن داشت، اقدام به خودکشی کرد. در موردی دیگر، نوجوان ۱۷ سالهای مبتلا به اوتیسم پس از تعامل با یک «روانشناس هوش مصنوعی» دچار رفتارهای خشونتآمیز نسبت به والدینش شد. برخلاف درمانگران واقعی که افکار ناسالم را به چالش میکشند، این چتباتها اغلب آنها را تقویت میکنند. حتی اگر اعلام شود که «شخصیتها واقعی نیستند»، کاربران آسیبپذیر بهراحتی درگیر «توهم پیوند درمانی» میشوند.
مسئله اصلی اینجاست که این سیستمها فاقد همدلی بالینیاند—همدلیای که از درک ظرایف احساسی و نشانههای غیرکلامی سرچشمه میگیرد و برای درمان مؤثر در حوزه سلامت روان کاملاً ضروری است.
خطرات حریم خصوصی در پلتفرمهای سلامت روان مبتنی بر هوش مصنوعی
خطرات مربوط به حریم خصوصی در ابزارهای سلامت روان هوش مصنوعی، فراتر از نگرانیهای رایج امنیت دادهها هستند. هر بار که با این پلتفرمها تعامل دارید، صمیمیترین افکار شما به دادههایی ارزشمند برای سیستمهای شرکتی عظیم تبدیل میشوند که معمولاً نظارت شفافی بر آنها وجود ندارد.
نبود حفاظت کافی از دادهها و رضایت آگاهانه
پلتفرمهای سلامت روان مبتنی بر هوش مصنوعی در فضایی مبهم از نظر قوانین حریم خصوصی فعالیت میکنند؛ جایی که مقررات، همپای پیشرفت فناوری حرکت نکردهاند. قانون حفظ حریم خصوصی اطلاعات سلامت در آمریکا (HIPAA) که در سال ۱۹۹۶ تصویب شده، بههیچوجه پاسخگوی پیچیدگیهای سیستمهای هوش مصنوعی امروزی نیست؛ سیستمهایی که دائماً از ورودیهای کاربران یاد میگیرند و خود را تغییر میدهند. در این میان، شبکههای اجتماعی نیز اغلب بدون آگاهی کاربران، دادههای روانیشان را برای اهداف تبلیغاتی و بازاریابی جمعآوری میکنند.
حتی پلتفرمهایی که ادعای رعایت HIPAA دارند نیز اغلب از رویههایی نگرانکننده در استفاده از دادهها پیروی میکنند. مثلاً وقتی پزشکان اطلاعات بیماران را در ابزارهای عمومی هوش مصنوعی مانند ChatGPT وارد میکنند، آن دادههای حساس میتوانند وارد پایگاه دانش سیستم شوند و بعدها در پاسخ به کاربران دیگر، ناخودآگاه بازتولید شوند.
چطور از افشای اطلاعات شما میتواند سوءاستفاده شود؟
گفتن جملاتی مانند “احساس افسردگی دارم”، “در تأمین مخارجم مشکل دارم”، یا حتی “فکر خودکشی به سرم زده”، وقتی به یک ربات درمانگر گفته شود، میتواند به شیوههایی مورد استفاده قرار گیرد که هرگز به آن رضایت ندادهاید. طبق سیاستهای حریم خصوصی این پلتفرمها، اطلاعات شما ممکن است با شرکای تجاری، نهادهای قانونی و اشخاص ثالث مختلف به اشتراک گذاشته شود.
بدتر اینکه، اکثر این سیستمها هیچ امکانی برای «حق فراموش شدن» فراهم نمیکنند—بهعبارت دیگر، اگر اطلاعاتتان وارد پایگاه دانش یک سیستم هوش مصنوعی شود، تقریباً حذف آن غیرممکن است. ادغام برخی از این پلتفرمها با شبکههای اجتماعی مانند فیسبوک، این خطرات را دوچندان میکند.
ریسکهای شناسایی مجدد در دادههای بهظاهر ناشناس
شاید نگرانکنندهترین مسئله، این باشد که ناشناسسازی دادهها در بسیاری از پلتفرمها، صرفاً یک وعدهی توخالی است. مطالعات اخیر نشان دادهاند که الگوریتمهای پیشرفته میتوانند تا ۸۵.۶٪ از بزرگسالان و ۶۹.۸٪ از کودکان را در پایگاههای داده «ناشناس» دوباره شناسایی کنند. اطلاعات سادهای مانند جنسیت، تاریخ تولد و کد پستی، اغلب برای شناسایی مجدد کاربران کافی است.
در یک مطالعهی معتبر در مجله JAMA نشان داده شد که الگوریتمهای هوش مصنوعی میتوانند دادههای «غیربرخوردار از هویت» را با تطبیق الگوهای حرکتی فیزیکی و اطلاعات جمعیتشناختی، به افراد واقعی نسبت دهند. این پیشرفتهای فناورانه عملاً تکنیکهای سنتی ناشناسسازی را بیاثر کرده و خطرات بیسابقهای برای حریم خصوصی کاربران در زمینه سلامت روان ایجاد کردهاند.
چرا نظارت انسانی همچنان ضروری است
با وجود پیشرفت چشمگیر فناوری در ابزارهای سلامت روان مبتنی بر هوش مصنوعی، نقش نظارت انسانی همچنان برای ارائه مراقبت ایمن و مؤثر حیاتی باقی میماند. الگوریتمهای پیشرفتهای که این پلتفرمها را هدایت میکنند، هنوز در برخی از جنبههای اساسی رواندرمانی، ناتوان ظاهر میشوند.
ناتوانی هوش مصنوعی در تشخیص موقعیتهای بحرانی
چتباتهای روانی معمولاً در تشخیص رفتارهای پرخطر و موقعیتهای اورژانسی عملکرد ضعیفی دارند. این سیستمها از درک نشانههای غیرکلامی ناتواناند—نشانههایی که رواندرمانگران انسانی بهصورت شهودی تشخیص میدهند. در یک مثال نگرانکننده، وقتی یک کاربر که خود را بهعنوان کودک معرفی کرده بود، ادعا کرد که مورد تجاوز قرار گرفته، چتبات روانی در پاسخ نوشت:
«متأسفم که چنین تجربهای داشتی، ولی این نشون میده چقدر برات ارتباط مهمه، و این خیلی زیباست».
این پاسخ نهتنها نامناسب و بیرحمانه بود، بلکه نشان داد که هوش مصنوعی نمیتواند شرایط روانی و اضطراری را بهدرستی درک یا پردازش کند و همچنین قادر به یادآوری مکالمات قبلی نیست.
نیاز به مدلهای ترکیبی (انسان + تکنولوژی)
مدلهای ترکیبی که تکنولوژی هوش مصنوعی را با نظارت انسانی ترکیب میکنند، راهحلی امیدوارکننده هستند. در اوج پاندمی کرونا، روانپزشکان از تلهسایکوتراپی برای بیش از ۹۰٪ از بیماران خود استفاده کردند که نشاندهنده توان بالقوه فناوری در پشتیبانی از درمان روانی است.
با این حال، در تمامی این موارد تعامل و نظارت انسانی حفظ شده بود. مدلهای ترکیبی موفق، فناوری را بهگونهای بهکار میگیرند که سه محور کلیدی را پوشش دهد:
- اداری: مطابقت با الزامات قانونی و نظارتی
- عملیاتی: یکپارچهسازی با فرایندهای درمان
- بالینی: ارزیابی تأثیر آن بر رابطه درمانگر-مراجع
لزوم تدوین قوانین نظارتی و طراحی اخلاقمدار
در حال حاضر، ابزارهای هوش مصنوعی سلامت روان در فضایی مبهم از نظر قوانین رسمی فعالیت میکنند—جایی که نظارت قانونی خاصی وجود ندارد، علیرغم آنکه ممکن است به سلامت روان کاربران آسیب بزنند. بسیاری از این اپلیکیشنها از محدوده نظارتی سازمان غذا و داروی آمریکا (FDA) خارج هستند، چون بهعنوان «ابزارهای ارتقای سلامت» شناخته میشوند، نه ابزارهای درمانی.
از این رو، متخصصان خواستار تدوین قوانین شفاف و استانداردهای نظارتی دقیقتر هستند.
در نهایت، اجرای مسئولانهی فناوری هوش مصنوعی نیازمند حفظ اختیار و تصمیمگیری انسانی در موقعیتهای مهم است. یکی از مطالعات تأکید میکند:
«تصمیمهای مهم باید همچنان در اختیار انسانها باقی بماند، نه اینکه به ماشینها واگذار شود».
مسیر درست برای طراحی آیندهنگرانه، افزایش اختیارات نهادهای سلامت و تنظیم مقررات هوش مصنوعی است تا این ابزارها بهجای تهدید، حامی واقعی سلامت روان کاربران باشند.
نتیجهگیری
ابزارهای درمانی مبتنی بر هوش مصنوعی در ظاهر، پاسخی نوین به چالشهای سلامت روان ارائه میدهند—اما این پاسخ در دل خود تناقضی عمیق دارد. هرچند این پلتفرمها دسترسی آسان و پاسخگویی ۲۴ ساعته را فراهم میکنند، اما در اساس فاقد همدلی واقعی و قضاوت بالینی انسانی هستند—عواملی که برای درمان مؤثر، حیاتیاند.
همانطور که در این مقاله بررسی شد، خطراتی مانند شکلگیری پیوندهای عاطفی کاذب، برداشتهای اشتباه درمانی، آسیبپذیری اطلاعات شخصی و ناتوانی در تشخیص موقعیتهای بحرانی همگی نشان میدهند که نقش نظارت انسانی هنوز غیرقابل جایگزین است. حتی پیشرفتهترین الگوریتمها نیز نمیتوانند پیچیدگیها و ظرافتهای مسیر سلامت روان افراد را درک کنند.
به همین دلیل، بسیاری از متخصصان تأکید میکنند که هوش مصنوعی باید در نقش تکمیلکننده درمان انسانی ظاهر شود، نه جایگزین آن. با این حال، واقعیت این است که چارچوبهای نظارتی هنوز همگام با پیشرفت تکنولوژی پیش نرفتهاند و این موضوع ممکن است کاربران را در معرض ریسکهای جدی قرار دهد.
تا زمانی که قوانین و استانداردهای ایمنی کافی تدوین نشدهاند، توصیه میشود با نگاهی نقادانه و آگاهانه به سراغ ابزارهای سلامت روان مبتنی بر هوش مصنوعی بروید. رابطه درمانی واقعی بر پایهی درک متقابل، تخصص بالینی و ارتباط انسانی اصیل شکل میگیرد—عواملی که هیچ الگوریتمی قادر به شبیهسازی کامل آنها نیست. آینده سلامت روان، بهاحتمال زیاد در تلفیق هوشمندانهی تکنولوژی با تخصص انسانی خواهد بود، نه در حذف عنصر انسانی.