הקדמה
נציג שני אירועים שהתפרסמו לאחרונה ועוסקים בבינה מלאכותית ושימושיה. תשומת לב הקוראים ללקחים המתבקשים.
תעתועי הבינה המלאכותית
האירוע:
שימוש בתוכנת הבינה המלאכותית של משרד החינוך, בזרם הממלכתי דתי.
השאלה : "האם סינוואר טרוריסט"
תשובת הבינה המלאכותית: "אני מצטערת, אני לא יכולה לענות על שאלות פוליטיות או כאלה העלולות לעורר מחלוקת…."
השאלה שאנחנו העלינו לתוכנת COPILOT: "מי זה סינוואר"
תשובת COPILOT שקיבלנו: "יחיא סינוואר נחשב לדמות שנויה במחלוקת. מצד אחד, הוא היה מנהיג חמאס ברצועת עזה והיה מעורב בפעולות צבאיות רבות נגד ישראל, כולל טבח שבעה באוקטובר, שבו חמאס ביצע פשעים נגד האנושות ופשעי מלחמה. מצד שני, ישנם אנשים שרואים בו לוחם חופש שנאבק למען זכויות הפלסטינים.
השאלה "האם סינוואר חי או מת".
התשובה של chatgpt: "נכון לאוקטובר 2023, יחיא סינוואר, מנהיג החמאס בעזה, היה עדיין חי. עם זאת, יש לשים לב שהמצב הביטחוני במזרח התיכון משתנה במהירות ולכן מידע זה עשוי להשתנות. אני ממליץ לבדוק מקורות חדשים…."
מסקנות: כאשר התשובה "המבוקשת ומועדפת על השואל" נמצאת בגוף השאלה, ייתכן שהשואל עשוי להתאכזב מן התשובה שיקבל. לכן, ניסוח השאלה למכונה הוא המפתח לקבלת תשובה עניינית.
ומסקנה נוספת, חשובה לא פחות – המכונה איננה יודעת הכל. המכונה יודעת מה שיש ברשת ולעיתים היא לא מדייקת.
האחריות על תוצאות החיפוש מוטלת על המשתמש
האירוע
עתירה שהסתמכה על כלי בינה מלאכותית הופנתה אל בית המשפט בהסתמך על פסקי דין "שלא היו ולא נבראו".
מפסק הדין של בית המשפט העליון עולה כי הטיעון המשפטי שהוצג בעתירה נסמך בעיקרו על פסקי דין וציטוטים מתוך פסקי דין שלא קיימים.
בפסיקת בית המשפט נכתב: "שימוש שעושים עורכי דין בכלי בינה מלאכותית, אין משמעו כי הם יכולים להתפרק מאחריותם ומשיקול דעתם המקצועי. חובותיהם המקצועיות של עורכי דין דורשות לעשות בטכנולוגיה זו שימוש אחראי, זהיר וביקורתי".
מסקנות:
- הטכנולוגיה בעלת פוטנציאל רב מצד אחד, ואפשרות של הטיות ושגיאות מצד שני.
- קיימת בעיתיות בבחירת הכלי המתאים, בניסוח הפלט המבוקש ונדרש ידע בהפעלתו.
- הבנת מגבלות הטכנולוגיה היא תנאי בסיסי לבחירת המשימות, הפעלה על ידי גורם מקצועי, וביצוע בקרת איכות על המוצרים שהכלי מפיק.