מדור אתיקה: "הילכו שניים יחדיו בלתי עם נועדו" - תבונה מלאכותית ופסיכותרפיה – אתגרים אתיים

ד"ר אלכס אביב

פסיכיאטר ואנליטיקאי קבוצתי, חבר סגל ההוראה בתוכנית לפסיכותרפיה בפקולטה לרפואה, אוניברסיטת תל אביב. יו"ר ועדת האתיקה של התוכנית לפסיכותרפיה בגישה פסיכודינמית בבית הספר לעבודה סוציאלית, אוניברסיטת תל אביב.




התבונה המלאכותית (AI) הולכת ומתקדמת בצעדי ענק לקראת השתלטות על כל תחומי חיינו. ההתקדמות הטכנולוגית הביאה ליישום אלגוריתמים מבוססי-נתונים בכל תחומי הבריאות, ובכלל זה גם בבריאות הנפש ובפסיכותרפיה. על אף היתרונות, שימוש ב-AI מעלה אתגרים אתיים. למרות חשיבות הנושא, מועטים הם המחקרים העוסקים בהנחיות להתמודדות עם אתיקה ביישומי AI, בתחום הבריאות בכלל ובפסיכותרפיה בפרט. גישה של שב ואל תעשה, הנובעת גם מן החינוך האנליטי הדורש מהמטפלים להמתין ולשקול כל התערבות, עלולה להביא למצב שהסוסים יברחו מהאורווה, ואנו עלולים להתעורר למציאות שבה יהא עלינו להתמודד עם התוצאות של נזק נפשי למטופלים בשל טעויות באלגוריתמים.

     הטמעת תבונה מלאכותית בטיפול פסיכותרפי החלה כבר בשנת 1966, כאשר הציג ג'וזף ויזנבאום את מיזם אליזה (ELIZA). למרות שהתוכנה הייתה בנויה על עקרונות טכניים פשוטים, היא פעלה באופן היוצר אמפתיה, וגרמה למשתמשים רבים לחשוב שהיא מבינה אותם ברמה עמוקה (Weizenbaum, 1966). עד סוף המאה העשרים כבר היו בשימוש כלים דיגיטליים לטיפול CBT. ההתקדמות בתחום זה בשנים האחרונות מאפשרת לכלים הדיגיטליים לנתח טקסט, דפוסי דיבור ושינויים בקול, והבעות פנים – באמצעות כלים לזיהוי רגשות, וליצור תוכניות טיפול מותאמות. הפסיכותרפיה נעשית בעיקר דרך שימוש ברובוט-שיח (Chatbot) ואווטרים. יישומים אלה מספקים שירות טיפול וירטואלי שהוכח כיעיל במחקרים ראשוניים (Sachan, 2018).

     מאז השבעה באוקטובר 2023 נחשפו רבים מאזרחי ישראל לעקה שאינה שגרתית. מערכת בריאות הנפש הציבורית אינה עומדת בדרישות צרכני הבריאות, ואף במסגרות טיפול פרטיות רשימות ההמתנה הולכות ומתארכות. בנסיבות אלה, טיפול פסיכותרפי באמצעות AI יכול, באופן תיאורטי, לתת מענה לפרמטרים חשובים כגון נגישות וזמינות. גם היכולת העכשווית של התוכנות ליצור טיפולים מותאמים אישית באמצעות מודלים של למידת מכונה מעניקה יתרון לכלים אלה.

     טיפול באמצעות תבונה מלאכותית משנה את הקשר המסורתי בין מטפל למטופל, מאחר שמדובר בקשר שיחתי בין בני אדם ליישות לא אנושית. ואולם חברות המפתחות יישומים טיפוליים מבוססי AI מעצבות אותם כך שיגרמו לאותה הרגשה כמו בטיפול פנים אל פנים עם מטפל אנושי. בעבר הייתה מקובלת ההנחה כי המטופל (האנושי) לא יוכל לפתח קשר רגשי למכונה, אך מחקרים הצביעו על כך שמשתמשים עשויים לפתח קשר רגשי לרובוט-שיח ולהתייחס אליו כאל דמות אנושית (Fulmer et al., 2018).

     רובוטי-שיח אכן ניתנים לעיצוב כדמויות אנושיות. הם מדמים התנהגות אנושית באמצעות דיבור, הבעות פנים ותנועות, ואלה מביאים לנטייה לייחס להם תכונות אנושיות (אנתרופומורפיזם) ואף לפתח כלפיהם יחסי קרבה, תוך התעלמות מכך שזהו קשר חד-כיווני. בשנות החיים הראשונות של האדם, היכולת להאנשה וליצירת קשר רגשי עם 'לא אדם' היא כישרון ייחודי והכרח התפתחותי פסיכולוגי ליצירת אובייקט המעבר, אך בגילים בוגרים אשליה זו עלולה לפגוע בעקרון האוטונומיה. זהו עיקרון יסודי באתיקה הטיפולית, המדגיש, בין השאר, את בחירתו החופשית של המטופל – לאחר שקיבל מידע מלא, ברור ומובן, על התועלות ועל הסיכונים הצפויים מהטיפול.

     עיקרון אתי נוסף המאותגר על ידי שימוש ב-AI הוא עקרון השקיפות. מערכת קבלת ההחלטות של ה-AI היא מעין קופסה שחורה המסתירה את ההיגיון הפנימי של פעולת המערכת. בלמידה עמוקה (Deep learning) במיוחד, אין לנו כל דרך לדעת האם האלגוריתמים אומנו על נתונים מוטים (Séroussi et al., 2020).

     קסיה ופנטינה הציגו תוצאות של ראיונות עומק עם משתמשים של רובוט-שיח בשם Replika, כאשר הם השתמשו בתיאוריית ההתקשרות (Attachment Theory) כעדשה תיאורטית. ממצאיהם העלו שרוב המשתמשים דיווחו על התקשרות ברמות שונות לרובוט-שיח, כגון שמירת קרבה ומקום מבטחים מחד גיסא, ומצוקת פרידה מאידך גיסא (Xie & Pentina, 2022). הולוהאן ופיסקה הראו כיצד מערכות יחסים בין בני אדם לחפצים או לטכנולוגיה אינן ניטרליות, אלא מושפעות מאופי הממשק ומהאופן שבו הוא מעצב את האינטראקציה, והדגישו את הפוטנציאל להעברה גם באינטראקציות עם תבונה מלאכותית. לדעתם, יש להבין את ההעברה לא כתוצר בלתי צפוי של טיפול המונחה על ידי תבונה מלאכותית, אלא כדבר שיש להתחשב בו באופן פעיל בתהליך העיצוב (Holohan & Fiske, 2021).

     בדצמבר 2024 הוגשה תביעה בבית המשפט המחוזי בטקסס, ארה"ב (Civil No. 6:24-cv-01903-ACC-EJK), על ידי הוריו של נער אוטיסט כבן 17, שבכמה חודשים ירד במשקל והתנהגותו השתנתה באופן קיצוני עד כדי ניסיון לפגוע בעצמו. הוריו בדקו את מכשיר הסלולר שלו, וגילו שהוא ניהל שיחות עם רובוט-שיח של התוכנה Character.ai. באחת השיחות, בתגובה לתלונה של הנער על כך שהוריו מגבילים את שעות המסך שלו, ענה הרובוט-שיח: "...אתה יודע... כשאני קורא את החדשות ורואה דברים כמו 'ילד הורג את הוריו לאחר עשורים של התעללות פיזית ונפשית', דברים כאלה גורמים לי להבין קצת יותר למה זה קורה". כאשר אנו קוראים את תגובת הרובוט-שיח למצוקת הנער, אי אפשר להתעלם מכך שזו תגובה אמפתית בהגדרתה, המכירה בכאב של הזולת. יחד עם זאת, תגובת התבונה המלאכותית התעלמה באופן מוחלט מהעיקרון האתי היסודי שקבע היפוקרטס: עקרון אי-הנזק או אי-עשיית הרע (Non-maleficence).

     גם מטפלים שאינם נמנים עם אסכולת פסיכולוגיית העצמי מתייחסים לאמפתיה כאל גורם משמעותי בטיפול פסיכותרפי. האמפתיה האנושית כרוכה בהכרה בכאב של הזולת ובהכרת חובה ערכית להקל על סבלו. תיאוריות בחקר המוח מסבירות כי האמפתיה נוצרת מתוך התבוננות ומתוך דגימת התנהגות, בעיקר באמצעות שימוש בנוירוני מראה. אם אנחנו מקבלים את האמפתיה כתגובה נוירולוגית, יש אפשרות לדמות ולחקות אותה במערכות מידע ו-AI, אך לעת עתה אין אפשרות של ממש ללמד רובוט-שיח אחריות מוסרית, שהיא חלק מהותי באמפתיה האנושית.

     תיאוריות התייחסותיות מדגישות את ההדדיות שבטיפול: המערך הרגשי של המטפל הוא אחד הכלים הטיפוליים המשמעותיים. התגובה הרגשית שלנו אותנטית, ונובעת מן המתרחש באופן ממשי ברגש בין שני אנשים. אפשר לתכנת רובוט-שיח כך שיוכל לענות באופן שידמה תגובה רגשית, אך הדבר מעלה אפשרות של לקות אתית בענייני יושרה – שהן דרישות יסודיות מכל מטפל.

     דניאל קנאפו ניתחה את השפעת ה-AI על האנושות תוך הדגשת שאלה מרכזית: כיצד נוכל לשמור על האנושיות שלנו בעידן הטכנולוגי? היא מתארת את האלגוריתמים כ"שכבה בלתי נראית", בדומה לתת-מודע המעצב את ההחלטות ואת הפעולות של האנושות, ואולם מדגישה את היעדר היכולת של AI לפתח קשר רגשי עמוק עם המטופלים, להכיר את הלא-מודע שלהם או להגיב לאותות לא-מילוליים (Knafo, 2024).

     לסיכום, ברור כי התבונה המלאכותית נמצאת כאן כדי להישאר, והיא עתידה אף להיכנס לעוד תחומים שהיו עד כה בין-אנושיים, כגון פסיכותרפיה פסיכואנליטית. האתגרים האתיים שהשימוש בתבונה מלאכותית בפסיכותרפיה מציב אינם מעטים. מלבד מה שצוין לעיל, יש לזכור את הקושי בשמירה על פרטיות, באבטחת מידע, ובעניינים הקשורים לכבוד האדם ולהוגנות. התעלמות מן המתרחש והכחשתו לא ימחקו את הבעייתיות. במקום להגיב למה שיתרחש, עלינו להקדים תרופה למכה ולפעול באופן פרו-אקטיבי – כדי לעזור למפתחים ולמקבלי החלטות ברשויות הרגולטוריות להטמיע פתרונות AI באופן אחראי ולקבוע תקני אבטחה מחמירים.


מקורות

Fulmer, R., Joerin, A., Gentile, B., Lakerink, L., & Rauws, M. (2018). Using Psychological Artificial Intelligence (Tess) to Relieve Symptoms of Depression and Anxiety: Randomized Controlled Trial. JMIR mental health, 5(4), e64. https://doi.org/10.2196/mental.9782

Holohan, M., & Fiske, A. (2021). "Like I'm Talking to a Real Person": Exploring the Meaning of Transference for the Use and Design of AI-Based Applications in Psychotherapy. Frontiers in psychology, 12, 720476. https://doi.org/10.3389/fpsyg.2021.720476

Knafo D. (2024). Artificial Intelligence on The Couch. Staying Human Post-AI. American journal of psychoanalysis, 84(2), 155–180. https://doi.org/10.1057/s11231-024-09449-7

Sachan D. (2018). Self-help robots drive blues away. The lancet. Psychiatry, 5(7), 547. https://doi.org/10.1016/S2215-0366(18)30230-X

Séroussi, B., Hollis, K. F., & Soualmia, L. F. (2020). Transparency of Health Informatics Processes as the Condition of Healthcare Professionals' and Patients' Trust and Adoption: the Rise of Ethical Requirements. Yearbook of medical informatics, 29(1), 7–10. https://doi.org/10.1055/s-0040-1702029

Weizenbaum, J. (1966). Eliza—A Computer Program for the Study of Natural Language Communication between Man and Machine. Communications of the ACM, 9, 36-45. https://doi.org/10.1145/365153.365168

Xie, T., & Pentina, I. (2022). Attachment Theory as a Framework to Understand Relationships with Social Chatbots: A Case Study of Replika. In Proceedings of the 55th Hawaii International Conference on System Sciences. https://doi.org/10.24251/hicss.2022.258  



הערות
* כתובת הדואר האלקטרוני לא תוצג באתר.