בינה מלאכותית לפסיכולוגים: סודיות, אתיקה, תלונות וייעוץ משפטי | עו"ד אסף פלג

בינה מלאכותית בעבודת הפסיכולוג: מה מותר, מה אסור, ואיפה מתחיל הסיכון

השימוש בבינה מלאכותית נכנס במהירות גם לעולמות הטיפול, האבחון, ההדרכה, המחקר והכתיבה המקצועית. פסיכולוגים רבים כבר משתמשים בכלים כמו ChatGPT, Claude, Gemini ודומיהם לצרכי חשיבה, ניסוח, סיכום, למידה או בניית חומרי עבודה. הבעיה היא שהנוחות הטכנולוגית הזאת עלולה לייצר אשליה מסוכנת: לא כל מה שקל לעשות הוא גם מותר מקצועית, אתית או משפטית. ועדת האתיקה של הסתדרות הפסיכולוגים פרסמה במרץ 2026 קווים מנחים ייעודיים לשימוש בכלי בינה מלאכותית בעבודת הפסיכולוג, בדיוק משום שהצטברו פניות רבות של פסיכולוגים שביקשו להבין את גבולות המותר והאסור.

מי שמחפש תשובה קצרה, יקבל אותה כבר עכשיו: בינה מלאכותית היא לכל היותר כלי עזר. היא לא מחליפה שיקול דעת מקצועי, לא נושאת באחריות במקום הפסיכולוג, ולא מוחקת את חובת הסודיות, ההסכמה מדעת, התיעוד והזהירות. האחריות נשארת תמיד על הפסיכולוג. זה נכון מבחינה אתית, וזה נכון גם מבחינת החשיפה לתלונה, לביקורת מקצועית ולעיתים גם לסיכון משפטי.

ניתן לפנות להתייעצות משפטית או לסיוע  בנושא למשרד עו"ד אסף פלג בטלפון ישיר –  054-5829265 

 

למה הנושא הזה ש שימוש ב-AI בעבודה של מטפלים הפך לדחוף כל כך?

הסיבה פשוטה. בינה מלאכותית חוסכת זמן, מפתה מאוד, ולעיתים גם נראית חכמה יותר מכפי שהיא באמת. היא יודעת לנסח יפה, לסכם מהר, להציע ניסוחים לאבחנה או לדוח, לבנות שאלות להדרכה ואפילו לתת תחושה של דיוק. אבל דווקא כאן מתחילה הסכנה. הכלי עלול להזות עובדות, להטות מסקנות, להציג ביטחון במקום שיש אי־ודאות, ולשמר הטיות תרבותיות, חברתיות ומגדריות. כשזה קורה בתוך עבודה טיפולית או אבחונית, הנזק כבר לא תיאורטי.

בישראל אין כיום חוק ייעודי ומקיף שמסדיר ספציפית את השימוש של פסיכולוגים בכלי AI. לכן המסגרת המעשית בנויה משילוב של קוד האתיקה של הפסיכולוגים, חוק הפסיכולוגים, דיני הפרטיות וההנחיות העדכניות של הרשות להגנת הפרטיות לגבי מערכות בינה מלאכותית. המשמעות היא שהפסיכולוג לא יכול להסתתר מאחורי הטענה ש“עוד אין רגולציה ברורה”. להפך. כשהדין הספציפי עוד מתעצב, נדרשת זהירות גדולה יותר, לא קטנה יותר.

האם מותר לפסיכולוג להשתמש ב־ChatGPT או בכלי AI בעבודה מקצועית

כן, אבל לא באופן חופשי ולא לכל מטרה.

לפי הקווים המנחים של ועדת האתיקה, רמת הסיכון משתנה לפי סוג השימוש. שימוש כללי לצרכי למידה, סקירת ספרות, סיעור מוחות, סימולציות או התפתחות מקצועית, בלי שום מידע על לקוח ספציפי, נמצא באזור סיכון נמוך יחסית. לעומת זאת, שימוש בכלי AI לצורך סיכום פגישות, כתיבת דוחות, עיבוד תכנים טיפוליים, גזירת אבחנות, בניית המלצות או עבודה על חומר קליני של מטופל ספציפי, כבר נמצא באזור סיכון גבוה הרבה יותר. השלב הרגיש ביותר הוא שימוש בכלי AI בתוך ההתערבות עצמה או בין הפגישות כחלק מן הטיפול.

במילים פשוטות, השאלה איננה רק האם השתמשת בבינה מלאכותית, אלא על מה השתמשת, איזה מידע הוזן, מה הייתה מטרת השימוש, איזה כלי נבחר, האם הייתה הסכמה מדעת, והאם נשמרה סודיות ברמה מספקת.

האם מותר להזין ל־ChatGPT מידע על מטופל של פסיכולוג או עובד סוציאלי?

כאן התשובה כבר הרבה יותר חדה.

הקווים המנחים של ועדת האתיקה מבהירים ששימוש במערכות מסחריות פתוחות לציבור כמו ChatGPT, Claude, Gemini ודומיהן אינו מבטיח שמירה על הסודיות המקצועית או הגנה מלאה על פרטיות המידע. לכן פסיכולוגים אינם רשאים להזין למערכות כאלה מידע הנוגע למטופלים, לרבות פרטים מזהים ישירים, וגם לא מידע קליני, תיאורי מקרה או מידע אחר שעלול לאפשר זיהוי, אפילו בעקיפין, וגם לא רק באמצעות “שינוי פרטים מזהים”. זה אחד החלקים החשובים ביותר במסמך, והוא נכתב בלשון כמעט חד־משמעית.

העמדה הזאת גם מתיישבת עם המגמה הרחבה יותר בדיני הפרטיות. הרשות להגנת הפרטיות הבהירה שהוראות חוק הגנת הפרטיות חלות גם על מערכות AI, ושנדרשים בסיס חוקי לעיבוד מידע אישי, הסבר מתאים לצורך הסכמה תקפה, ותכנון אחראי של השימוש במערכות כאלה. כשמדובר במידע טיפולי רגיש, מרחב הטעות נעשה קטן עוד יותר.

האחריות המקצועית נשארת תמיד על הפסיכולוג

אחת הטעויות המסוכנות בתחום הזה היא לחשוב שהמערכת “רק עזרה”. מבחינה אתית, זה לא פוטר מאחריות. הקווים המנחים של ועדת האתיקה קובעים שבינה מלאכותית היא כלי בידי הפסיכולוג, ולא התערבות פסיכולוגית בפני עצמה. לכן האחריות הכוללת והסופית נשארת תמיד של הפסיכולוג, ולא ניתן להטיל חלק ממנה על המערכת. אם הופקה מסקנה שגויה, אם נוסח דוח מטעה, אם נפגעה סודיות, או אם נגרם נזק למטופל, הטענה “המערכת אמרה” לא תסייע הרבה.

מבחינה משפטית, זה גם הגיוני. חוק הפסיכולוגים מייחד את העיסוק בפסיכולוגיה לפסיכולוגים הרשומים כדין ובהתאם לרישומם או להיתרים הרלוונטיים. המקצוע הוא מקצוע מוסדר, לא מרחב ניסויי חסר גבולות. מי שמפעיל כלי טכנולוגי בתוך עבודה טיפולית או אבחונית לא יוצא מן ההסדרה; הוא פועל בתוכה, עם כל האחריות הכרוכה בכך.

הסכמה מדעת: לא הערת שוליים אלא תנאי יסודי

אם נעשה שימוש כלשהו בכלי AI בהקשר למטופל ספציפי, ועדת האתיקה קובעת שיש ליידע את הלקוח מראש כחלק מן החוזה המקצועי, להסביר בשפה מובנת כיצד הכלי ישתלב בהתערבות, מה מטרת השימוש, מה המגבלות, כיצד נשמרת הסודיות, מה החלופות ומה הסיכונים, ולקבל הסכמה מדעת בכתב. לא מדובר ב”סעיף קטן” שאפשר לדחוף לטופס כללי. מדובר בחובה מהותית.

זה חשוב במיוחד משום שהסכמה מדעת אמיתית דורשת יותר מאשר חתימה. היא דורשת שהמטופל יבין. הרשות להגנת הפרטיות קובעת אף היא כי לצורך קבלת הסכמה תקפה לעיבוד מידע אישי במערכת AI, יש לכלול תיאור של אופן פעולת המערכת ברמת פירוט שמאפשרת גיבוש הסכמה מדעת. כלומר, גם בעולם הפרטיות הרגולטורי הכיוון ברור: אי אפשר לבקש הסכמה עיוורת לשימוש טכנולוגי לא מוסבר.

תיעוד, רשומה פסיכולוגית וסיכון ראייתי

עוד נקודה שפסיכולוגים נוטים לפספס היא נושא התיעוד. אם נעשה שימוש בכלי AI כחלק מן ההתערבות המקצועית, יש לתעד זאת ברשומה. זה נכון בין אם השימוש היה בתוך הפגישה ובין אם בין הפגישות. ברגע שהשימוש הפך לחלק מן העבודה המקצועית, הוא לא יכול להישאר “מאחורי הקלעים”.

מכאן נובע גם סיכון נוסף: מה שלא תועד עלול להיראות בהמשך כהסתרה, ומה שתועד באופן חלקי עלול להיחשף כבעייתי. במצבים של תלונה לוועדת האתיקה, בדיקה פנימית, הליך משמעתי או מחלוקת משפטית, שאלות כמו איזה כלי הופעל, איזה מידע הוזן, אילו בקרות בוצעו, האם הייתה הסכמה מדעת, והאם נשקלו חלופות, עלולות להפוך לשאלות מרכזיות.

ומה לגבי הדרכה, מחקר וחוות דעת משפטיות

גם כאן אין פטור אוטומטי.

ועדת האתיקה מתייחסת במפורש למחקר ולפרסום מדעי, וקובעת שהשימוש בכלי AI מחייב שקיפות מתודולוגית מלאה, לרבות ציון השימוש בכלים לצורך איסוף או ניתוח ממצאים, יחד עם בקרה ביקורתית על התוצרים. בתחום הפסיכולוגיה המשפטית החובה חדה אפילו יותר: אם פסיכולוג עושה שימוש בכלי AI בהכנת חוות דעת לבית המשפט, עליו להקפיד הקפדת יתר על בדיקת התוצרים, ולציין בחוות הדעת את עצם השימוש. הסיבה ברורה: הסיכון להטעיית בית המשפט באמצעות תוצרים מוטים או לא נכונים הוא סיכון ממשי.

כלומר, מי שמכין חוות דעת, סיכום אבחוני, מסמך מקצועי לבית משפט או עמדה רשמית מול גוף ציבורי, לא יכול להרשות לעצמו הסתמכות רשלנית על ניסוחים או מסקנות שהופקו אוטומטית.

מתי השימוש ב־AI הופך לחשיפה אתית או משפטית?

בדרך כלל זה קורה באחת מחמש נקודות.

הראשונה היא פגיעה בסודיות או פרטיות, למשל הזנת מידע קליני למערכת פתוחה. השנייה היא היעדר הסכמה מדעת אמיתית. השלישית היא הסתמכות לא ביקורתית על תוצרי המערכת, למשל אימוץ ניסוח, אבחנה או המלצה בלי בדיקה מספקת. הרביעית היא חוסר תיעוד. החמישית היא פרסום מטעה של כלי AI, שירות טיפולי מבוסס AI או הצגה מופרזת של יכולות המערכת לציבור. ועדת האתיקה מתייחסת גם למצב שבו פסיכולוג מפתח, מפעיל או מפרסם כלי מבוסס AI, ומבהירה שהאחריות המקצועית והאתית לאיכות הכלי, לאיסוף המידע, לפרטיות ולמניעת תכנים פוגעניים או מטעים, נשארת עליו.

האם פסיכולוג להיעזר בבינה מלאכותית בלי להסתבך?

כן, אבל רק אם עובדים נכון.

שימוש בטוח יותר מתחיל בהבחנה ברורה בין שני עולמות. בעולם הראשון אין מידע על לקוח ספציפי. שם אפשר בדרך כלל להשתמש בכלי AI לצורכי למידה, חשיבה, שיפור ניסוח כללי, הכנת מערכי הדרכה, סיכום מאמרים או בניית טיוטות כלליות, בכפוף לבדיקה ביקורתית. בעולם השני יש מידע על אדם מסוים, על טיפול מסוים, על דוח מסוים או על אבחנה מסוימת. שם כבר צריך לעצור, לבדוק באיזה כלי מדובר, מה רמת האבטחה, מה מותר ומה אסור, האם קיימת תשתית ייעודית מאובטחת, מה נאמר למטופל, האם התקבלה הסכמה בכתב, ואיך הדבר יתועד.

מי שפועל לפי אינטואיציה, לפי הרגלי שימוש אישיים, או לפי ההנחה ש“כולם עושים את זה”, לוקח סיכון מיותר.

מתי כדאי לפנות לייעוץ משפטי

פסיכולוג צריך לשקול ייעוץ משפטי כבר בשלב מוקדם, לא רק אחרי תלונה.

זה נכון במיוחד אם כבר נעשה שימוש בכלי AI עם מידע של מטופלים, אם הקליניקה או המכון שוקלים להטמיע מערכת תמלול או סיכום מבוססת AI, אם רוצים לעדכן טופסי הסכמה מדעת והסכמי טיפול, אם יש כוונה לפתח או לשווק כלי דיגיטלי טיפולי, אם התקבלה פנייה מלקוח בנושא פרטיות או סודיות, ואם כבר עלתה טענה אתית, דרישת הסבר או תלונה. במצבים כאלה, טיפול מוקדם ונכון עדיף בהרבה על ניסיונות כיבוי מאוחרים.

הסיכון כאן הוא לא רק עקרוני. הוא תפעולי מאוד. לפעמים כל מה שמפריד בין שימוש סביר לבין בעיה אתית הוא מסמך חסר, ניסוח שגוי, או בחירה רשלנית בכלי הלא נכון.

השורה התחתונה

המסר של ועדת האתיקה חד: בינה מלאכותית יכולה לסייע לפסיכולוגים, אבל היא לא מקטינה את החובות המקצועיות שלהם. להפך. דווקא בגלל שהכלים זמינים, מהירים ומשכנעים, הם מחייבים זהירות גדולה יותר. טובת הלקוח, הסודיות, ההסכמה מדעת, התיעוד והשיקול המקצועי העצמאי קודמים תמיד לנוחות, לחיסכון בזמן וללחץ הארגוני. כאשר יש התנגשות בין הוראות היצרן או השיקול הטכנולוגי לבין כללי האתיקה וטובת הלקוח, כללי האתיקה גוברים.

לכן השאלה הנכונה איננה האם בינה מלאכותית היא “טובה” או “רעה” לפסיכולוגים. השאלה היא האם השימוש שנעשה בה עומד בכללים המקצועיים, האתיים והמשפטיים. כשזה לא המצב, הסיכון כבר מתחיל.

 

 

  • דיסקליימר: אין לראות בתוכן המאמרים באתר משום המלצה מחייבת או הצעה לפעולה, והתכנים עשויים להשתנות או להתעדכן מעת לעת. על כל מקרה להיבחן לגופו פרטנית על ידי עו"ד מוסמך. כל שימוש בתוכן המצוי באתר הוא על אחריות המשתמש בלבד.

 

תכנים נוספים בנושאי פסיכולוגיה ומשפט:

כתיבת ספר על מטופלים: המדריך המשפטי המלא לפסיכולוגים ורופאים | עו"ד אסף פלג

איך מגישים קבילות ותלונות על פסיכולוגים (או תביעה נגד פסיכולוג)?

פגיעה בפרטיות מטופל והפרת סודיות רפואית

 

טכנולוגיה משפטית, צ'טבוט, ניסוח מסמכים משפטיים, ומה שביניהם

 

עידכון אחרון – 25.3.26

פוסטים אחרונים

תצהיר צאצא

מאמר תמציתי על תצהיר צאצא – תצהיר שמטרתו להצהיר על קרבה ביולוגית בין מצהיר להורה. כולל הסבר על הסיטואציות שבהן הוא נדרש, רכיבים מרכזיים, וטעויות שגורמות לפסילת התצהיר.

קרא עוד »

בן יחיד עם אחיות – האם אפשר לשרת בקרבי, ומה התפקיד של תצהיר עורך דין

ההגדרה הצבאית של "בן יחיד" מתבססת בעיקרה על אחים זכרים, לא על אחיות. נער שיש לו רק אחיות נחשב לרוב בן יחיד מבחינת צה"ל, אך יכול לשרת בקרבי בכפוף לתצהיר הסכמת הורים. המאמר מסביר מתי נדרש תצהיר, מה תפקיד עורך הדין, וטעויות נפוצות.

קרא עוד »

שכן מסוכן או במצוקה נפשית – מה אפשר לעשות מבחינה משפטית

כשהשכן אינו רק מציק אלא מהווה איום פיזי או נמצא במצוקה נפשית קשה, צריך מסלול משפטי שונה לחלוטין. המאמר סוקר את סולם התגובה לפי חומרה, את הכלי המרכזי של צו הרחקה, את ההתמודדות כשהמשטרה לא פועלת, והסיטואציה המיוחדת של שכן הסובל ממחלת נפש.

קרא עוד »

ביטול חוזה שכירות בהסכמה – איך מנסחים הסכם הפסקה הדדי שמגן על שני הצדדים

כשמבטלים חוזה שכירות בהסכמה הדדית, אמירה בעל פה לא מספיקה. נדרש מסמך כתוב הכולל מועד פינוי, גורל פיקדון, התחשבנות סופית, ושחרור הדדי. המאמר סוקר את הרכיבים החיוניים, שלוש סיטואציות נפוצות, וטעויות שמובילות לסכסוך אחרי הפינוי.

קרא עוד »

צור קשר עימנו

Wordpress Social Share Plugin powered by Ultimatelysocial
דילוג לתוכן