בדיקה טכנולוגית
איך ניתן לשפר שירותים דיגיטליים? אילו מוצרים חדשים יש היום בשוק, ומה איכותם לעומת המתחרים? כיצד פותרים בעיות טכנולוגיות? מדי שבוע המדור ינסה לענות על שאלות אלה ודומות להן. אם נתקלתם בתקלות ואתם זקוקים לעזרה, או שאתם מעוניינים שנסקור מוצרים מסוימים, אתם מוזמנים לפנות למייל: nevo-t@globes.co.il
הבינה המלאכותית משבשת כמעט כל היבט בחיינו. הדבר נכון גם לשימושים האישיים, וגם לשימושים המקצועיים. השוק מוצף במערכות ומודלים, והשאלה היא מה בדיוק אתם צריכים. בכל הקשור לכתיבת פרומפטים ושימוש במודלי שפה גדולים, חשוב להבין שמדובר בתהליך.
● גיוס הענק בוואסט דאטה: המשקיעים והעובדים צפויים לקבל מאות מיליוני דולרים
● "מהלוטוס הלבן" עד "קרב רודף קרב": בדקנו את HBO Max
התפיסה הבסיסית ביותר היא שלא ניתן להגיע לתוצאה הטובה ביותר מפרומפט בודד שניתן למודל, ולכן שווה להכיר את הכלים ואת השיטות כדי לדייק, לשפר ולהגיע לתוצאה הטובה ביותר.
המודל: מה השימוש שלכם?
עוד לפני שאתם פונים לכתיבת פרומפט באחד ממודלי השפה המוכרים, עליכם קודם כל להבין מה המשימה. כך, למשל, GPT של OpenAI נחשב לבעל יכולת הסקה לוגית מורכבת ופתרון בעיות מורכבות; לקלוד מבית Anthropic יש יכולות קידוד מהטובות בשוק, ובכלל, גישה יותר "אנושית" ופחות מענה רובוטי; וג'מיני של גוגל מתמחה בניתוח רב מודלים, יצירת תמונות באיכות גבוהה ועוד.
חשוב לציין שכלל הדברים שנכתבים פה עשויים להשתנות, שכן כל מודל מקבל שיפורים משמעותיים. במקרים אחרים, מודלים חווים רגרסיה, ואז המודל שהצטיין במשימה מסוימת, מצליח בה פחות. בכל מקרה כדאי לעשות מנוי בכלי שעונה על הצרכים שלכם, ולקבל את הפיצ'רים המתקדמים.
המצב: מורכבות המשימה
מודלי השפה השונים מציעים כמה מצבים. ראשית, ישנו Fast Mode שמאפשר לקבל תשובות מהירות ומיידיות, ומתאים בעיקר למשימות פשוטות. שנית, מצב Thinking Mode מאפשר להתמודד עם משימות מורכבות, שדורשות כוח עיבוד משמעותי יותר.
גם כאן יש כמה אפשרויות בהתאם למודל - כמו מצב "מחקר עמוק" שעושה מחקר רחב באינטרנט; או מצב "למידה מונחה", שעוזר ללמד את המשתמש סוגיה מסוימת בצורה פשוטה ומפורקת לגורמים.
הדמות: משחק תפקידים
אחד ההיבטים הקריטיים שעוזרים למודלים להבין את הפרומפט, ובכלל להביא תוצאה טובה, הוא ההקשר הרחב שמספקים להם. לכן, אחת הגישות בשוק היא שבזמן ה"שיחה" עם מודל הבינה המלאכותית כדאי להתייחס אליו כפרסונה מסוימת. לדוגמה, אפשר לבקש ממנו להתנהג או לספק מענה כאילו הוא "עורך דין" או "שופט". בקשה כזו מכניסה את המודל לדמות, ומסייעת לקבל את ההתייחסות הרלוונטית.
הצד השני של הטיפ הזה הוא ה-Audience Persona, כלומר להגדיר לכלי למי המידע אמור להגיע. כששואלים את שאלת קהל היעד ולמי זה נועד, זה מאפשר למודל להעביר את המידע בצורה ספציפית יותר. כך, לדוגמה, אם יבקשו ממנו לדבר עם תיכוניסטים או לקחת חלק בשיח של משפטנים - ההתייחסויות שלו יהיו שונות.
הידען: לצמצם "הזיות"
כששואלים מודלי שפה גדולים שאלות או מטילים עליהם משימות מבלי שהם אומנו על המידע הרלוונטי, הם מתחילים "להזות". במלים אחרות, המודל לא בהכרח יודע להגיד "אני לא יודע", והוא מנסה לענות על כל שאלה שמגיעה, גם אם אין לו את המידע.
כך נוצר מצב שהמודל משקר, וממציא מערכות שלמות. אחת הדרכים להתמודד עם כך היא לספק עבורו את המידע החדש והחסר. במובן הזה, החיפוש באינטרנט יכול לבלבל, ולספק מענה לא נכון ולא מדויק.
כך לדוגמה, אתם יכולים לצרף מסמכים, גם אם הם זמינים באינטרנט, ולבקש ממנו להסתמך אך ורק עליהם. אפשר גם לספק לו מסמך עם נתונים רבים, ולבקש ממנו לדלות ממנו את כל הנתונים הרלוונטיים או תובנות רלוונטיות. ההקשר חשוב, והוא מאפשר לקבל מענה מדויק יותר.
המפרק: לנמק את התוצאה
הטיפ הזה דומה להיבט קוגניטיבי שמוכר משיח עם בני אדם. אם תבקשו ממישהו לנמק החלטה שהוא ביצע, לעיתים זה יגרום לו לשקול אחרת את השיקולים, בניגוד לתהליך שלם חסוי שמתנהל בראש. כך, לדוגמה, אם תבקשו מהמודל לנמק תשובה, זה יכול לעזור לו לדלג על הזיות אפשריות או לכל הפחות לעזור להבין היכן נפל פגם בתהליך.
לכן, מומלץ לבקש ממנו לפרק את התשובה ל"שלב אחרי שלב". יתרה מכך, ובמיוחד במצבי "מחקר עמוק", המודלים לוקחים משימה גדולה כמו "איך צמח עושה פוטוסינתזה?", ומפרקים אותה לתתי שאלות, שכל אחת מהן מובילה לשלב אחר בתהליך עיבוד המידע. כך מקבלים תשובות מדויקות וטובות יותר.
הטריק: לייצר יחד פרומפט
לעיתים, הצרכן יודע בדיוק מה הוא רוצה לקבל מה-AI, אבל הוא לא יודע איך לנסח את זה ואיך לכתוב את הפרומפט. לכן, אחד הטריקים היותר מתקדמים הוא להיעזר במודל כדי שיכתוב לכם את הפרומפט: להסביר לו מה אתם רוצים לעשות, ואז לשאול אותו איך הוא היה מנסח את הפרומפט.
ככל הנראה, התוצאה הראשונה לא תהיה לטעמכם או לא מדויקת, אבל תוכלו לדייק אותה - פשוט תגידו לכלי מהם השינויים שאתם רוצים, כדי ליצור פרומפט חדש וטוב יותר. במקרים מסוימים הוא יתקשה להתמודד עם הפרומפט שהוא בעצמו יצר, ואז אפשר ממש לשאול אותו: "איך כדאי לנסח את הפרומפט כדי שתצליח לספק את המשימה המבוקשת?".
החיבוריות: לקשר חשבונות
ככל שמשתמשים יותר בכלי AI, יש להם יותר מידע אישי עליכם. צרכנים שמשלמים ומעוניינים בחוויית התאמה אישית, יכולים לחבר אליהם את חשבון ה-Gmail, ולאפשר לכלי למשוך משם מידע. המשמעות היא שהכלים האלו יכולים לקבל הקשר מסוים, ולקבל תשובות יותר מותאמות אישיות.
ל-Claude, לדוגמה, יש תוסף לכרום, וניתן להשתמש בו במסגרת הגלישה ולשתף את המסך כדי לקבל את ההקשר הרחב יותר. חשוב לציין, כשמחברים Gmail או Drive המשמעות היא שהמידע נגיש למודל - ולכן צריך לקחת בחשבון היבטי אבטחת מידע.
הפער: ממה להימנע
יש דברים שהמודלים לא יודעים לעשות, בגלל האופן שבו הם בנויים. לדוגמה, צריך להיזהר מבקשה לספור מילים. אחת הדוגמאות המפורסמות היא השאלה כמה פעמים האות R מופיעה במילה Strawberry - המודלים לא מצליחים לזהות את המספר הנכון, מכיוון שהם לא קוראים אותיות. כשהם מקבלים טקסט, הוא מתפרק לטוקנים, ואז המודל מנסה להעריך סטטיסטית את התשובה הנכונה בבלוק. חלק מהמודלים ניסו לפתור את הבעיה ולהתקדם, אך אחת הדרכים המומלצות כדי היא לבקש מהמודל לכתוב קוד פייתון שסופר את המילים, ואז הוא ישתמש בכלים חיצוניים כדי לספק את המענה.
דוגמה נוספת קשורה למקורות תיאורטיים שנותן המודל - בחודשים האחרונים דווחו יותר ויותר מקרים של המצאת מקורות, כמו פסקי דין או חוקים, שלא היו ולא נבראו. זה כמובן דורש בדיקה של כל מענה שהמודל נותן, וחשוב להיזהר שלא לסמוך עליו בעיניים עצומות.
השורה התחתונה: האחריות של המשתמש
בהיבטים רבים, מודלים של בינה מלאכותית הם "קופסה שחורה", שקשה להבין מדוע היא נותנת תוצאה מסוימת. הטכנולוגיה החדשה משנה דרמטית את הצורה שאנחנו עובדים ומתנהלים בעולם, ולכן ראוי ללמוד אותה כראוי. עם זאת, צריך להיזהר, שכן היא לא תמיד מדייקת, ויש לבחון את התוצאות שהמודל נותן. כמו כל שימוש לא אחראי בכלים ובטכנולוגיה, מי שיישא באחריות אלה הצרכנים.
ככל הנראה, הבינה המלאכותית לא תחליף את בני אדם, אלא תעזור לנו במשימות פשוטות שלא דורשות שיקול דעת אנושי - ותפנה אותנו להתעסק בדברים עמוקים יותר.
לתשומת לבכם: מערכת גלובס חותרת לשיח מגוון, ענייני ומכבד בהתאם ל
קוד האתי
המופיע
בדו"ח האמון
לפיו אנו פועלים. ביטויי אלימות, גזענות, הסתה או כל שיח בלתי הולם אחר מסוננים בצורה
אוטומטית ולא יפורסמו באתר.