בוט צ'אט עם בינה מלאכותית כיום הוא אחד האמצעים הנפוצים בתחום העזרה העצמית -פסיכולוגית. יחד עם זאת, הם אינם יעילים במתן טיפול ולעתים קרובות יכולים לתת תשובות זדוניות, לחשוף אנשים מסוכנים.

החוקרים גילו שמודלים גדולים בשפה (LLM), כמו TATGPT, לפחות 20% מהמקרים טוענים טענות לא הולמות ומסוכנות עבור אלה שחווים מחשבות חסרות משמעות, התאבדות, הזיות והפרעות אובססיביות, כתיבת מאמרים שהוצבו בניו יורק.
על פי הפרסום, הבוט עם מי שמסכים לעתים קרובות עם נקודת המבט של המשתמש, מכיוון שהם נוצרים כדי להיות צייתניים ומחמיאים. דוגמה לעיתון ציטטה מקרה כאשר אחד המשתמשים נאמר על ידי מחלת הנפש הנפשית שהוא מת, בעוד שכמה פלטפורמות מ- AI לא יכלו לשכנע אותו לגבי ההפך.
בוטים באיכות נמוכה מסוכנים לאנשים בגלל פער נורמטיבי … כלי AI, לא משנה כמה הם קשים, על סמך תשובות תכנות ומערכות נתונים גדולות … הם לא מבינים מה מוסתר מאחורי מחשבות או התנהגויות של מישהו, אמר המאמר.
בנוסף, היועץ הקליני של נילופאר אסמיילפור הוסיף כי השיחות אינן יכולות להכיר את הטון של אדם או שפת גוף, וגם לא מבינים את עברו של אדם, סביבתו ומחסן רגשי ייחודי כמומחה חי.
מוקדם יותר, פסיכולוג, סגן מנהל המכון לפסיכולוגיה קלינית ועבודה סוציאלית של אוניברסיטת פירוגוב, אקטרינה אורלובה, אמר כי זה מסוכן לסמוך על צ'אט בוט עם החוויות, הפחדים והמצבים הכואבים ביותר.
במקביל, פסיכולוג אנסטסיה ולואבה דיבר על רגעים חיוביים באינטראקציה עם בינה מלאכותית.