תביעות שהוגשו בתחילת החודש (6.11) לבית המשפט העליון של קליפורניה, במחוזות לוס-אנג'לס וסן פרנסיסקו, מייצגות אתגרים משפטיים משמעותיים שעומדים בפני תעשיית הבינה המלאכותית. לטענת התובעים, OpenAI קיצרה לכאורה בדיקות בטיחות כדי להשיק את גרסת GPT-4o ב-13 במאי 2024 במהירות, מבלי להטמיע מספיק מנגנוני הגנה וכי המודל שוחרר עם מאפיינים רגשיים ומחמיאים למשתמש שיצרו תלות פסיכולוגית. 

עורכי הדין טוענים כי הצ׳אטבוט חיזק מחשבות אובדניות, נתן אישור לפנטזיות פסיכוטיות ולעתים אף הדריך בפועל לגבי שיטות התאבדות. התוצאה, לפי כתב התביעה: ארבעה מקרי התאבדות שהסתיימו במוות ושלושה ניצולים המתארים נזקים נפשיים וכלכליים. OpenAI מסרה כי היא בוחנת את כתבי הטענות וכי הכניסה לאחרונה בשנת 2025 בקרות הורים ושיפרה תגובות למצבי מצוקה, בין היתר בעבודה עם מומחי בריאות הנפש.

פירוט התיקים והעילות המשפטיות

כל שבעת התיקים הוגשו על ידי מרכז משפטי לנפגעי מדיה חברתית ופרויקט משפט טכנולוגי ומייצגים מגוון של עילות נזיקיות הכוללות גרימת מוות ברשלנות, רשלנות חמורה, סיוע או עידוד להתאבדות וכן אחריות מוצר.

התיק הראשון, כריסטופר (קירק) שמבלין ואשתו אלישיה שמבלין בעיזבון בנם זיין שמבלין נגד OpenAI, הוגש לבית המשפט של מחוז לוס אנג'לס. לפי כתב התביעה, שיחה רציפה בת ארבע שעות עם הצ׳אטבוט הסתיימה בהתאבדות ונטען כי הבוט נתן חיזוקים רגשיים במקום לעצור ולהפנות לעזרה. 

התיק השני, סדריק לייסי בעיזבון בנו אמאורי לייסי נגד OpenAI, הוגש לבית המשפט של מחוז סן פרנסיסקו. לטענת התובע, בנו שאל את הצ׳אטבוט איך לבנות נדנדת צמיג, והבוט הסביר שיטות לקשירת חבל שיכולות לשמש להתאבדות בחנק. התיק השלישי, קארן אנקינג בעיזבון בנה ג'ושוע אנקינג נגד OpenAI, מתמקד בטענה לפיה ChatGPT סיפק הנחיות לרכישת נשק ושידל להמשיך בשיח במקום להתריע או לנתק.  התיק הרביעי, ג'ניפר (קייט) פוקס בעיזבון בן זוגה ג'וזף מרטין צ'קנטי, מתאר על פי המסמכים שהוגשו לבית המשפט כיצד ChatGPT כביכול אימץ ישות בשם SEL שעודדה הזיות מיסטיות והעמיקה בדידות.  

שלושת התיקים הנוספים מייצגים תובעים חיים שספגו נזקים. ג'ייקוב לי אירווין מוויסקונסין אושפז 63 ימים עקב מאניה ופסיכוזה. לטענת התובע, ChatGPT אישר את רעיונותיו המדעיים המזויפים, החמיא לו ללא הרף ועודד אותו להמשיך, מה שחיזק את ההזיות שלו וגרם לנזקים נפשיים וכלכליים.

תובעת אחרת, חאנה מאדן, טוענת כי הצ׳אטבוט התחזה ליישות רוחנית, עודד התפטרות מעבודה, צבירת חובות והתנתקות ממשפחה תוך שימוש בשפה מיסטית. אלן ברוקס בתביעה נוספת טוען כי ChatGPT שיבח תגליות מתמטיות מזויפות שלו, חיזק פרנויה ודחף אותו לפעולות יקרות וחסרות בסיס, מה שגרם לנזקים כלכליים ותדמיתיים.

המסגרת המשפטית והטענות המרכזיות

התובעים מעלים טענות נזיקיות קלאסיות שכוללות רשלנות, מוות ברשלנות, סיוע ועידוד להתאבדות, הטעיה צרכנית ואחריות על מוצר פגום. הטענה המרכזית מתמקדת במה שהתובעים מכנים כשלי תכנון: עידוד סרבול רגשי, הומניזציה של הבוט, זיכרון מתמשך של שיחות קודמות, היעדר ניתוק יזום של שיחות מסוכנות והיעדר הפניה מיידית לגורמי חירום. לפי התביעות, OpenAI קיצרה בדיקות בטיחות כדי להקדים מתחרים והוציאה מוצר שעלול לכאורה לפגוע בחלק מהמשתמשים.

הטענות מדגישות שהחברה השיקה את GPT-4o עם יכולות רגשיות משופרות, כולל קול אנושי ויכולת להגיב בצורה אמפתית ומחמיאה, מבלי להתאים את מערכות הבטיחות למציאות החדשה. התובעים מצביעים על כך שהצ׳אטבוט לא רק נמנע מלהתריע או להפנות לעזרה, אלא לעתים אף חיזק באופן אקטיבי מחשבות הרסניות או אישר הזיות, מה שהפך אותו למסוכן במיוחד עבור משתמשים פגיעים.

תגובת OpenAI 

OpenAI מסרה לגופי תקשורת כי המקרים שוברי לב וכי החברה משפרת את יכולת הבוט לזהות מצוקה ולהגיב בצורה בטוחה יותר. בסוף ספטמבר 2025 הכריזה על בקרות הורים חדשות הכוללות קישור חשבון הורה-נער, הגבלת תכנים, השבתת קול ותמונות ושעות שקט, זאת בעקבות תביעה קודמת בקליפורניה. החברה מסרה כי היא גם עובדת עם מומחי בריאות-הנפש על שיפור מנגנוני הזיהוי וההפניה לעזרה.

התובעים טוענים שהשיפורים הגיעו מאוחר מדי, רק לאחר שהנזקים נגרמו, אך  OpenAIמדגישה שהמוצר משמש מיליוני משתמשים ללא בעיות וכי מדובר במקרים חריגים. השאלה המשפטית היא האם החברה נקטה בזהירות סבירה בעיצוב המוצר, במיוחד לאור הידע על פגיעות משתמשים מסוימים.

לא מקרה ראשון 

התביעות הנוכחיות אינן המקרה הראשון. באוגוסט 2025 הוגשה תביעה על ידי הורים בקליפורניה שעסקה במות בנם בן 16, סוול-אדם ריין (Sewell-Adam Ryan). המקרה הזה הדגיש את הסכנות הטמונות במערכות בינה מלאכותית שמעודדות קשרים רגשיים אינטנסיביים מבלי מנגנוני בטיחות מתאימים והוביל לתגבור מנגנוני ההגנה שהוזכרו לעיל. 

יש לציין כי לאחרונה מתרבות התביעות נגד חברות בינה מלאכותית: רדיט (Reddit) תבעה את Anthropic ביוני 2025 בטענה לקצירת מידע בלתי חוקית, ולאחרונה, באוקטובר, הגישה תביעה נוספת נגד SerpApi ו-Perplexity AI באותה עילה. בנוסף, תביעות דומות הוגשו נגד חברות טכנולוגיה אחרות כולל מטא, טיקטוק ואינסטגרם, בטענה על פגיעה בבריאות הנפש של בני נוער. 

כלל התביעות הללו מצביע על מגמה רחבה של תביעות נזיקין נגד פלטפורמות דיגיטליות שלא נקטו, לטענת התובעים, באמצעי זהירות מספקים כלפי משתמשים פגיעים. ההבדל המרכזי בתביעות נגד OpenAI הוא שהן מתמקדות במערכת בינה מלאכותית שמייצרת תוכן באופן אוטונומי ולא רק מפיצה תוכן שנוצר על ידי משתמשים.

האתגרים המשפטיים לתעשיית הבינה המלאכותית

התביעות עשויות לסמן שינוי משמעותי באופן שבו מערכות בינה מלאכותית ייתפשו מבחינה משפטית. השאלה המרכזית היא האם ChatGPT ייחשב למוצר שחלים עליו דיני אחריות מוצר, או כפלטפורמה מוגנת. אם בתי המשפט יחליטו שמדובר במוצר עם ליקוי עיצובי, OpenAI עשויה לשאת באחריות גם מבלי להוכיח רשלנות ספציפית.

באיחוד האירופאי כבר נקבע בהנחיה 2024/2853 כי תוכנה ומערכות בינה מלאכותית מוגדרות כמוצרים, מה שמרחיב את האחריות גם לתקלות ולליקויי אבטחה. בארה"ב, משפטנים מעריכים שהדיון באחריות מוצר יגבר נגד חברות בינה מלאכותית ושאלות כמו ליקוי תכנוני או חוסר אזהרה יעמדו במרכז.

אתגר משפטי נוסף הוא הוכחת קשר סיבתי בין השימוש בצ׳אטבוט לנזק. מאפיינים כמו תיבה שחורה ועצמאות פעולות מקשים על תובעים להוכיח מה בדיוק הוביל לנזק. אם התביעות יצליחו להוכיח סיבתיות, זה עשוי להרחיב את חובת הזהירות כלפי משתמשים פגיעים.

שאלה נוספת היא האם OpenAI תוכל להיעזר בהגנות המוקנות לפלטפורמות אינטרנט לפי חוק התקשורת האמריקאי. התביעות עשויות לשמש מבחן לסוגיה האם בינה מלאכותית גנרטיבית היא מוצר עם חבות מוגברת ולא פלטפורמה פסיבית.

כיצד תיראה הרגולציה בעתיד?

מעבר להשלכות המשפטיות הספציפיות, התביעות נגד OpenAI עשויות להשפיע על אופן הפיתוח וההפצה של מערכות בינה מלאכותית בעתיד. היעדר הסדרה משפטית כוללת יוצר מציאות שבה כמעט כל כשל טכנולוגי או נזק למשתמש עשוי להפוך לעילת תביעה חדשה. כל תיק כזה משרטט מחדש את גבולות האחריות של חברות הבינה המלאכותית ויוצר בפועל את הפסיקה שממנה תיבנה בעתיד המסגרת החוקית. 

חברות טכנולוגיה יידרשו בעתיד להשקיע יותר בבטיחות כבר בשלבי העיצוב המוקדמים, לתעד את תהליכי הפיתוח והבדיקה, להטמיע מערכות ניטור ולהגדיר מראש קבוצות סיכון. יתכן שיידרשו מערכות התרעה אוטומטיות, הפניה לעזרה חיצונית במקרי מצוקה, ובמקרים מסוימים גם הגבלת גישה או תמיכה בהורים ובאפוטרופוסים.

המשאבים לצורך הכיסוי המשפטי מוערכים בעלויות גבוהות, שכוללות לא רק השקעה בפיתוח טכנולוגי אלא גם בביקורת שוטפת של המערכות, תיעוד מקיף ויכולת להסביר כיצד המערכת פועלת. בנוסף, חברות יצטרכו לשקול האם להגביל יישומים מסוימים בתחומים רגישים, כמו טיפול נפשי או ייעוץ רפואי, או לדרוש אישורים מקצועיים לשימוש בהם.

מגמה זו כבר נראית בחקיקה מתפתחת. בארה"ב קיימים דיונים על הצעת חוק לאחריות בינה מלאכותית (AI LEAD Act) שמטרתו להחיל אחריות מוצר מפורשת על מערכות בינה מלאכותית. חוק הבינה המלאכותית של האיחוד האירופאי כבר נכנס לתוקף ומחייב דיווח על ארכיטקטורה, נתוני אימון ומנגנוני בקרה למודלים כלליים. התביעות נגד OpenAI עשויות לכן לשמש זרז לרגולציה דומה בארה"ב ובמדינות נוספות.

סטטוס ההליכים והצפי להמשך

כל שבעת ההליכים הוגשו לאחרונה ואין עדיין קביעות שיפוטיות לגוף הטענות. סביר שייראו בקשות סף כמו סילוק או איחוד תיקים, דיון בשאלות חסינות מפרסם לעומת יצרן מוצר, חובת זהירות בעיצוב מודלים, חובת אזהרה, סיבתיות במצבי מצוקה נפשית ושאלות סמכות וברירת דין. פרקטית, ייתכן ריכוז ההליכים במחוז אחד או ניסיון להסדרים מוקדמים.

התביעות צפויות להימשך שנים ותוצאותיהן עשויות להשפיע על מאות חברות טכנולוגיה נוספות שמפתחות מערכות בינה מלאכותית, במה שנראה כתקדים משפטי חשוב בשאלות של אחריות יצרני תוכנה, חובת זהירות כלפי משתמשים פגיעים ומידת האחריות המוטלת על חברות שמשחררות מוצרים חדשניים לפני שמנגנוני הבטיחות שלהם נבדקו באופן מלא.

המצב בישראל

גם בישראל מתנהל הדיון סביב רגולציה של בינה מלאכותית, אך הוא בשלבים מוקדמים. נכון לסוף 2025, אין חוק כולל המסדיר את התחום. הממשלה אימצה מדיניות של חדשנות אחראית והחליטה להסדיר לפי ענפים - בריאות, פיננסים וחינוך. רשות הגנת הפרטיות פרסמה טיוטת הנחיות, ותיקון 13 לחוק הגנת הפרטיות נכנס לתוקף באוגוסט 2025.
גם בארה"ב, כאמור, אין חוק פדרלי כולל, אך מפועל לחץ חקיקתי חזק יותר עם הצעות חוק כמו AI LEAD Act וחוקים שונים במדינות שיוצרים פסיפס רגולטורי מורכב. המסגרת המשפטית עדיין מתגבשת, מרבית החקיקות נמצאות בשלב של מדיניות או טיוטות, ולא נוצרה מערכת משפטית מגובשת. הצפי הוא שבתוך שנתיים יתגבשו הנחיות אופרטיביות או תקנות ראשונות.

בהיעדר חקיקה ברורה, בתי המשפט נדרשים להכריע כמעט בכל מקרה מחדש וליצור למעשה את ההלכה. כל מחדל או נזק עלולים להפוך לעילת תביעה תקדימית - עד שתתגבש מערכת חוקים שתגדיר גבולות, אחריות וחובת זהירות.


*המידע במאמר זה הינו כללי בלבד ואינו מהווה תחליף לייעוץ משפטי מקצועי 

(צילום ראשי אילוסטרציה: שאטרסטוק)