עו"ד תמיר לוי. "הסכנה לאפליה סמויה בתהליכי גיוס כוח אדם באמצעות בינה מלאכותית היא ממשית ומתועדת". צילום: ללא קרדיט

בינה מלאכותית (AI) משנה את שוק העבודה בקצב מהיר: חברות בעולם מאמצות מערכות אוטומטיות לניהול עובדים, לקבלת החלטות, להערכות ביצועים ולשירות לקוחות. לצד היתרונות, מתגברים גם הסיכונים המשפטיים: חשש מהפרת זכויות יוצרים, פגיעה בפרטיות, עיבוד לא מפוקח של מידע אישי, החלטות שגויות והטיות בתהליכי גיוס. בארה"ב ובאירופה כבר נרקמות מסגרות רגולציה מחמירות, כמו ה-AI Act של האיחוד האירופאי, שמבקשות להבטיח אחריות ושקיפות.

בישראל, לעומת זאת, טרם נקבעה חקיקה ייעודית לבינה מלאכותית. הממשלה אימצה מסמך מדיניות (2023) המעודד רגולציה "רכה", אך בפועל נותרו פרצות משפטיות. במקביל נכנס לתוקף תיקון 13 לחוק הגנת הפרטיות (2025), שמחייב חברות למנות קצין פרטיות, לפתח מנגנוני בקרה ולדווח על ניהול מידע, מה שמקשה עוד יותר על שימוש בלתי מבוקר בכלי AI. מחקרים עדכניים מצביעים על כך שישראל מפגרת בהיערכות לשוק עבודה עתידי בהשוואה למדינות המערב, בעוד עורכי דין מזהירים מפני אחריות אישית של מנהלים ודירקטוריונים.

כדי להבין מהי המשמעות עבור עסקים ועובדים בישראל, דיברנו עם מומחה בתחום, עו"ד תמיר לוי, המתמחה בייעוץ משפטי טכנולוגי ומסחרי לארגונים, עם דגש על AI והיי-טק, ומספק אסטרטגיה משפטית ארוכת טווח המבוססת על ניסיון נרחב בתעשיה.

לדברי עו"ד לוי, "בישראל אין עדיין חוק AI כללי, והמצב הזה יוצר דו משמעות. מצד אחד, הגישה הגמישה הנוכחית מעודדת חדשנות ומאפשרת לחברות לפתח ולהטמיע טכנולוגיות חדשניות מבלי להיתקל במחסומים רגולטוריים מיותרים. זה יתרון משמעותי במשק שמבוסס על טכנולוגיות מתקדמות. מצד שני, החוסר בוודאות רגולטורית יוצר סיכונים עסקיים ומשפטיים. חברות נאלצות לנחש מה יהיו הכללים בעתיד ולפעמים להסתמך על פרשנויות של חוקים קיימים שלא נכתבו עבור טכנולוגיית הבינה המלאכותית. זה אומר שחברות צריכות להיות יותר פרואקטיביות ולפתח מנגנוני ממשל פנימיים חזקים, כולל קביעת כללי משחק ברורים, מינוי גורמים אחראיים ויצירת תהליכי בקרה ופיקוח מתאימים".

מהו הסיכון המשפטי המרכזי עבור חברות שמשלבות AI בתהליכי עבודה?

"הסיכון העיקרי הוא היעדר שליטה ותיעוד מספק. כשחברה מפעילה מערכת AI היא חייבת להבין איך המערכת עובדת, מאיפה מגיעים הנתונים שהיא מעבדת ואיך היא מגיעה להחלטות. הבעיה היא שרבות ממערכות הבינה המלאכותית הן קופסאות שחורות - לא ברור איך בדיוק הן מתפקדות.

"זה יוצר חשיפה משפטית בכמה מישורים: ראשית, אי אפשר לזהות ולתקן הטיות או שגיאות אם לא מבינים איך המערכת עובדת. שנית, קשה לעמוד בדרישות רגולטוריות לשקיפות ואחריותיות. שלישית, במקרה של בעיה או נזק, יהיה קשה להוכיח שהחברה פעלה בזהירות הנדרשת. זה פותח פתח לקנסות מצד הרגולטורים, לתביעות מצד נפגעים ולבעיות עם לקוחות ושותפים עסקיים. לכן, חשוב לשמור על תיעוד מפורט של כל השימושים בבינה מלאכותית, לבצע בדיקות תקופתיות ולוודא שיש פיקוח אנושי מתאים".

כיצד תיקון 13 לחוק הגנת הפרטיות משפיע על ארגונים המשתמשים בכלי AI?

"תיקון 13 מביא עימו שינוי משמעותי בנוף הרגולטורי הישראלי. הוא מגביר מאוד את הדרישות לשקיפות ומעניק לנושאי המידע זכויות רחבות יותר. לגבי השימוש בבינה מלאכותית, זה אומר שחברות חייבות להיות הרבה יותר זהירות ושקופות.

"החובות החדשות כוללות עדכון מדיניות הפרטיות כך שתכלול הסברים מפורטים על השימוש בבינה מלאכותית, ניהול רישומי עיבוד מפורטים שמתעדים איך נעשה שימוש בכליAI , ביצוע הערכות השפעה על הפרטיות לפני הטמעת מערכות חדשות, ובנוסף, יש חובה לאפשר לנושאי מידע לממש זכויות כמו זכות עיון, זכות תיקון וזכות מחיקה גם במערכות אוטומטיות. 

"הסמכויות החדשות של רשות הגנת הפרטיות כוללות גם אפשרות להטיל קנסות משמעותיים, מה שהופך את הציות לדרישות לנושא קריטי מבחינה עסקית".

האם ניתן להטיל אחריות אישית על דירקטוריון או מנהלים במקרים של נזק שנגרם משימוש במערכת AI?

"אחריות אישית של דירקטורים ומנהלים היא בהחלט אפשרית, בעיקר במקרים של כשל פיקוח חמור או הזנחה של חובת הזהירות. זה יכול לקרות כאשר החברה מפעילה מערכות בינה מלאכותית מבלי לקיים ניהול סיכונים בסיסי, כשלא מקיימים בקרה או פיקוח מתאימים או כשמתעלמים מאזהרות או סיכונים ידועים.

"חובת הזהירות של דירקטורים כוללת הבנת הסיכונים הטכנולוגיים שהחברה חשופה להם, וידוא שקיימים מנגנוני בקרה מתאימים ודרישה לקבל דיווחים תקופתיים על ביצועי המערכות. אם דירקטור או מנהל ידע על בעיות ולא פעל לתקנן, או אם לא טרח להבין את הסיכונים הכרוכים בטכנולוגיה שהחברה משתמשת בה, זה עלול לחשוף אותו לאחריות אישית".

עד כמה סוגיות של זכויות יוצרים בתוכן שנוצר בבינה מלאכותית רלוונטיות לעסקים בישראל?

"זהו נושא מורכב מאוד ורלוונטי למעשה לכל עסק שמשתמש בבינה מלאכותית ליצירת תוכן. יש כאן כמה שכבות של בעיות משפטיות: ראשית, השאלה מי בעל הזכויות על התוכן שמערכת הבינה המלאכותית יוצרת והאם זה המשתמש, החברה שפיתחה את המערכת, או שמא אין בעלות כלל. שנית, יש בעיה עם חומרי האימון. רבות ממערכות הבינה המלאכותית אומנו על תכנים שמוגנים בזכויות יוצרים ולא תמיד התקבלה הסכמה מהבעלים. זה יכול לחשוף משתמשים לתביעות על הפרת זכויות יוצרים.
"סיכון נוסף הוא שמערכת הבינה המלאכותית תיצור תוכן שדומה מדי לעבודות קיימות, מה שיכול להוביל להאשמות על פלגיאט או הפרת זכויות יוצרים.

"הפתרון העיקרי הוא בחוזים ברורים עם ספקי הטכנולוגיה שמגדירים בדיוק מי אחראי למה, והבטחת רישוי מתאים לכל השימושים. חשוב גם לפתח מדיניות פנימית לשימוש באמצעי בינה מלאכותית ולהכשיר עובדים בנוגע לסיכונים ולמגבלות".

מה לגבי גיוס עובדים באמצעות  AI- האם קיימת סכנה אמיתית לאפליה סמויה?

"הסכנה לאפליה סמויה בתהליכי גיוס באמצעות בינה מלאכותית היא ממשית ומתועדת. אלגוריתמים יכולים לפתח קיצורי דרך שמבוססים על מתאמים סטטיסטיים במקום על קריטריונים רלוונטיים באמת לתפקיד. למשל, אם המערכת מגלה שעובדים מוצלחים בעבר באו מאזורי מגורים מסוימים או למדו במוסדות מסוימים, היא עלולה להעדיף מועמדים עם מאפיינים דומים, גם אם אין לכך הצדקה מקצועית.

"זה יכול להוביל לאפליה עקיפה על רקע מגזר, מגדר, גיל או מאפיינים אחרים המוגנים בחוק. הבעיה מחריפה כי לעתים קרובות הארגון אפילו לא מודע להטיות שנוצרות אוטומטית במהלך תהליך הלמידה של המכונה. נדרשת לכן חובת בקרה אנושית בכל שלבי התהליך, ביצוע בדיקות הטיה תקופתיות, תיעוד מפורט של כל ההחלטות וההיגיון מאחוריהן, והכשרת הצוות האנושי לזהות ולטפל בבעיות. חשוב גם לוודא שמועמדים יודעים שנעשה שימוש בבינה מלאכותית ושיש להם אפשרות לבקש בחינה אנושית".

אילו עקרונות אפשר לאמץ מה- AI Act האירופאי?

"ה-AI Act האירופאי מספק מודל מתקדם לרגולציה של בינה מלאכותית ויש בו כמה עקרונות חשובים שכדאי לאמץ גם בלי חקיקה מחייבת. הגישה של עבודה לפי רמות סיכון היא חכמה - מערכות בסיכון גבוה דורשות יותר בקרות ומגבלות מאשר מערכות בסיכון נמוך. אפשר ליישם את כל העקרונות האלה כבר היום כחלק ממדיניות פנימית של הארגון, גם מבלי לחכות לחקיקה ממשלתית".

האם ביטוחי אחריות מקצועית או ביטוח סייבר מכסים טעויות או נזקים שנגרמים מהחלטות AI? 

"המצב בביטוחים עדיין מתפתח והכיסוי תלוי מאוד בפרטי הפוליסה הספציפית. חלק מביטוחי האחריות המקצועית או הסייבר כן מכסים נזקים שנגרמים מטעויות במערכות אוטומטיות, אבל יש גם הרבה חריגים ומגבלות. בביטוח אחריות מקצועית, הכיסוי עשוי לחול כשהנזק נגרם בגלל רשלנות מקצועית בהפעלת המערכת, אבל לא בגלל כשלים טכניים במערכת עצמה. בביטוח סייבר, הכיסוי עשוי להתמקד יותר בנזקי אבטחת מידע ופרטיות. הבעיה היא שרבות מהפוליסות הקיימות נכתבו לפני שבינה מלאכותית הפכה לנפוצה ולכן יש חוסר ברור בכיסוי".

איך יכולים עובדים להתגונן משפטית אם הם נפגעים מהחלטות שהתקבלו על ידי אלגוריתמים?

"לרשותם של עובדים שנפגעו מהחלטות אוטומטיות עומדים כמה כלים משפטיים. ראשית, חשוב לתעד הכל - לשמור מסמכים, תכתובות והוכחות למה שקרה. תיעוד טוב הוא הבסיס לכל טענה משפטית. כמו כן, זכות העיון במידע היא כלי חשוב - העובד יכול לבקש מהמעסיק להסביר איך התקבלה ההחלטה, אילו נתונים נבחנו ומה היה ההיגיון מאחורי התוצאה. אם יש שגיאות בנתונים, יש זכות לתקן אותם. במקרים של חשד לאפליה, אפשר לפנות לנציבות שוויון הזדמנויות בעבודה או לרשות הגנת הפרטיות. אם ההחלטה היתה אוטומטית לחלוטין מבלי מעורבות אנושית, אפשר לדרוש בחינה חוזרת על ידי בן אדם".

מהו לדעתך הצעד הפרקטי הראשון שחברה בישראל צריכה לעשות כדי להגן על עצמה משפטית בשימוש ב-AI?

"הצעד הראשון והחשוב ביותר הוא יצירת מיפוי מקיף של כלל השימושים בבינה מלאכותית בארגון - מה שאני מכנה 'רישום שימושי AI'. זה צריך לכלול מי ובאיזו מחלקה משתמש בכלי בינה מלאכותית, באיזה כלי בדיוק מדובר, איזה סוג נתונים המערכת מעבדת, מי הגורם האחראי על כל שימוש ואיך מתבצעים בקרה ופיקוח.

"המיפוי הזה צריך לכלול גם הערכת סיכונים לכל שימוש - האם יש סיכון לאפליה, לפגיעה בפרטיות, לטעויות משמעותיות וכו'. עבור כל סיכון צריך לקבוע איך מתמודדים איתו - בדיקות תקופתיות, פיקוח אנושי או בקרות טכניות".

האם לעובדים יש כיום זכות לערער/ לדרוש שקיפות בהחלטות AI?

"המצב בישראל עדיין לא חד-משמעי מבחינה חוקית. אין חובה מפורשת בחוק לבחינה אנושית של החלטות אוטומטיות, שלא כמו באירופה למשל. אבל יש זכויות חלקיות לפי כמה מקורות. מחוק הגנת הפרטיות נובעת זכות לדעת איך מידע אישי מעובד, וזה יכול לכלול הסבר על השימוש בבינה מלאכותית. מחוקי השוויון והאפליה יכולות לנבוע הזכות להבין איך התקבלה החלטה שעלולה להיות מפלה. בנוסף, הסכמי עבודה וההסכמים הקיבוציים יכולים לכלול הוראות שמחייבות שקיפות ואפשרות ערעור".

האם לדעתך נדרש מנגנון חקיקתי או הסכמים קיבוציים שיגנו על עובדים מפני שימוש לרעה במערכות בינה מלאכותית במקום העבודה?

"לדעתי בהחלט יש מקום לרגולציה ברורה יותר, אם זה דרך חקיקה או דרך הסכמים קיבוציים מורחבים. השוק זז הרבה יותר מהר מהחקיקה, ועובדים נמצאים במצב של חוסר ודאות לגבי הזכויות שלהם. עקרונות שחשוב לעגן כוללים הודעה מראש על כל שימוש בבינה מלאכותית בתהליכים שנוגעים לעובדים - גיוס, הערכת ביצועים, קידום, פיטורים וכו'. כמו כן, איסור על החלטה אוטומטית 'טהורה' בעניינים רגישים - תמיד צריך להיות מעורב גורם אנושי שיכול לבחון ולשנות החלטות".

יש לכם שאלות לעו"ד תמיר לוי בנושא בינה מלאכותית? גילשו לאתר