בשנים האחרונות, ובעיקר במהלך השנה האחרונה, יותר ויותר מערכות משפט ברחבי העולם נחשפות למסמכים וחוות דעת שנערכו בסיוע בינה מלאכותית. הטכנולוגיה מבטיחה יעילות, חיסכון בזמן ויכולת לסרוק כמויות עצומות של מידע, אך היא גם עלולה להוביל לטעויות קשות, החל מיצירת הפניות לפסיקה שלא קיימת ועד להמצאת נתונים. בתי המשפט בארה״ב, בבריטניה, באוסטרליה וגם בישראל כבר נאלצו להתמודד עם מקרים שבהם שימוש לא מבוקר ב־AI הביא לפסילת ראיות ואף להטלת סנקציות על עורכי דין.
המתח בין הרצון לנצל את יתרונות הכלים החדשים לבין הצורך לשמור על אמינות ההליך המשפטי מציב שאלה מרכזית: מה מקומו של עד מומחה AI והאם מערכת המשפט מוכנה באמת לקבל עדות ממכונה.
מה זה עד מומחה בינה מלאכותית וכיצד AI נכנס לבית המשפט?
עד מומחה הוא אדם בעל הכשרה וניסיון מקצועי, שמסייע לבית המשפט להבין תחום שאינו משפטי – רפואה, הנדסה, כלכלה, מדעי המחשב ועוד. המומחה נדרש להסביר מתודולוגיה, לחשוף מקורות, ולהיות מוכן לחקירה נגדית. כאן נכנסת השאלה של עד מומחה בינה מלאכותית: אם מומחה משתמש ב-AI ככלי עזר לאיסוף נתונים או לנסח טיוטות, האחריות עדיין עליו. הוא חייב לאמת כל קביעה, לוודא שהמקורות אמיתיים ולהסביר מה נעשה. כש-AI מחליף את שיקול הדעת האנושי ולא רק מסייע לו, איכות הראיה נפגעת והמסמך עלול להיפסל.
שימוש ב-AI בבית המשפט: המקרה האמריקאי שבו בוטל פסק דין
בינואר 2025, מינסוטה סיפקה תקדים מובהק: בית המשפט הפדרלי פסל חוות דעת מומחה AI בתיק שעסק בחוק נגד דיפ־פייקים, לאחר שהתברר שהמומחה הסתמך בדו״ח על מקורות שלא קיימים, שנוצרו בעזרת בינה מלאכותית. השופטת לא רק שללה את העדות, היא גם מנעה ניסיון "לתקן" בדיעבד, והבהירה שהאחריות לאימות המקורות אינה ניתנת להעברה למכונה, מתקדמת ככל שתהיה.
מעבר למקרה הזה, סיקור רחב בארה״ב תיאר תופעה מערכתית: עשרות תקריות של אזכורי פסיקה מזויפים והטלת קנסות. המערכת הפדרלית אף מקדמת יוזמה רגולטורית לקבוע כלל ראיות ייעודי שיטפל בחומרים שנוצרו ב-AI ללא אימוץ של עד אנושי.
בתקרית חריגה באריזונה, בגזר דין בעבירת הריגה, הוקרן לראשונה סרטון שנוצר ב-AI שבו דמותו של הקורבן "דיברה" וסיפקה את הצהרת הנפגע. השופט ציין שהסרטון משקף את רוח המשפחה, אבל מומחים הזהירו מפני השלכות רגשיות ומניפולטיביות שעלולות להשפיע על הענישה.
בריטניה: אזהרה רשמית על עד מומחה בינה מלאכותית
ביוני 2025, שופטת בכירה בלונדון נזפה פומבית במהלך טיפול בשני תיקים שבהם עורכי דין הגישו כתבי טענות עם "פסיקה" שלא קיימת – תוצרים של מחוללי טקסט. בהחלטתה הודגשו הסכנות לשלטון החוק ולאמון הציבור כאשר מסמכים משפטיים נשענים על חוות דעת מומחה AI ללא בדיקה אנושית קפדנית. זו היתה אמירה חריפה שמדגישה: גם אם המערכת פתוחה לחדשנות, האחריות המקצועית והאמת העובדתית קודמות לכל.
אוסטרליה: רגולציה לשימוש ב-AI בבית המשפט
המערכת האוסטרלית בחרה בגישה מוסדרת. בית המשפט האוסטרלי פרסם באפריל 2025 הודעה מקצועית על השימוש בבינה מלאכותית בבית המשפט. מועצת לשכות עורכי הדין הודיעה במאי–יוני 2025 שהיא פועלת בשיתוף עם בית המשפט לגבש קווים מנחים לשימוש בכלים מחוללים, כולל דרישות שקיפות והבהרת אחריות עורכי הדין על כל טקסט המוגש לבית המשפט.
זו דוגמה למדינה שמעדיפה להסדיר מראש כדי להרוויח את היתרונות בלי להסתכן באובדן אמינות.
ובישראל? זהירות מוסדית בשימוש בעד מומחה בינה מלאכותית
כבר בתחילת 2025, בית משפט השלום בחיפה קבע שאין להציג למומחה שמונה מטעם בית המשפט "תקציר רפואי" שנוצר ב-AI, מחשש שישפיע על שיקול דעתו באופן שאינו שקוף. כמה חודשים מאוחר יותר, בית המשפט העליון דחה עתירה שנערכה בסיוע בינה מלאכותית ואימצה הפניות שאינן קיימות. בפסק הדין הובהר ששימוש במקורות שגויים פוגע בתום הלב הדיוני. בנוסף דווח כי שופט מתח ביקורת על שימוש של גורם אכיפה ב-AI שהביא לציטוט "חוקים" שאינם קיימים. המגמה בישראל ברורה: ניתן להיעזר ב-AI, אך אסור לתת לו להוביל את המהלך המשפטי.
תקן דאוברט ובינה מלאכותית: איך בודקים אמינות עד מומחה AI
בארה״ב, לפני שבית המשפט מקבל עדות מומחה, הוא בודק אם השיטה שעליה נשען המומחה אמינה ורלוונטית. הבדיקה הזו מכונה תקן דאוברט (על שם פסק דין מ-1993) והיא מתעניינת בשאלות: האם ניתן לבדוק את השיטה, האם היא מקובלת בקהילה מקצועית והאם יש לה שיעור טעות ידוע.
בשנה האחרונה מקודמת יוזמה שנקראת "כלל 707" – רעיון שבמקרים שבהם מוגשת "ראיה של מכונה" בלי מומחה אנושי שמאמץ ומסביר אותה, בית המשפט ידרוש שהראיה תעמוד בעצמה במבחני אמינות דומים. המטרה איננה לסגור דלת ל-AI אלא לפתוח אותה בזהירות ולדרוש שקיפות.
מגמות עולמיות והמשמעות לישראל
התמונה המצטברת מצביעה על פחות התלהבות טכנולוגית עיוורת ויותר דגש על אחריות וזהירות: בתי משפט ברחבי העולם מצפים שמי שמשתמש בבינה מלאכותית בבית המשפט – בין אם כעד מומחה ובין אם לצורך הכנת חוות דעת – יגלה שקיפות מלאה ויבצע אימות אנושי יסודי.
על פי המגמות העדכניות, אין כיום איסור גורף על שימוש בעד מומחה AI או בראיות שנוצרו באמצעות כלים של בינה מלאכותית בהליכים משפטיים, אך אין גם קיצור דרך. מומלץ שהצדדים להליך ידרשו לדעת מי בדק את המידע, על סמך אילו מקורות הוא נבנה וכיצד ניתן לוודא את אמינות הראיות מבוססות ה-AI.
בכל הנוגע לעורכי דין, ההמלצה היא להיעזר ב־בינה מלאכותית משפטית למחקר ראשוני בלבד ולהימנע מהגשת כל מסמך שלא עבר אימות עצמאי מול המקורות המקוריים. כאשר נעשה שימוש בכלי עזר מסוג זה, רצוי לציין זאת במפורש, להסביר את השיטה, ולא להסתיר נקודות חולשה אפשריות.
במקרים של ראיות מבוססות בינה מלאכותית – בין אם מדובר בתמונה, וידאו או דו״ח שנוצרו במלואם על ידי מערכת, חשוב לספק הסבר טכני ברור ונגיש: מי יצר את התוכן, כיצד נעשה הדבר, אילו נתונים הוזנו ואילו צעדים ננקטו כדי לשלול אפשרות של זיוף או הטיה.
בארה״ב, המקרים של "הלוצינציות" במסמכים משפטיים שהגיעו לבתי משפט מתרבים, והתגובה השיפוטית נוקשה יותר. בבריטניה, הטון הציבורי של המערכת המשפטית ברור ונחרץ נגד אזכורים מומצאים. באוסטרליה, הוקמה מסגרת רגולטורית מוקדמת כדי ליהנות מהיתרונות בלי לפגוע באמון. בישראל ניכרת זהירות מוסדית ברורה מול שימוש בבינה מלאכותית בבתי המשפט. לסיכום, המגמה הברורה היא ש-AI נשאר מוכר כסייען משפטי, אך העד והמומחה נשארים בני אדם.
* מקורות: הכתבה מבוססת על דיווחי רויטרס על פסילת עדות מומחה במינסוטה; כתבת AP News על סרטון AI בגזר דין באריזונה; סקירת "וושינגטון פוסט" על היקף התופעה בארה״ב; הודעות רשמיות של בית המשפט הפדרלי האוסטרלי ומועצת לשכות עורכי הדין באוסטרליה; ודיווחים של Law.co.il ו-The Library of Congress על החלטות בישראל המגבילות שימוש במסמכי AI.
* המידע במאמר זה הינו כללי בלבד ואינו מהווה תחליף לייעוץ משפטי מקצועי
(צילום ראשי: שאטרסטוק)