צ'טבוטים של בינה מלאכותית הפכו לחלק מחיי היומיום של מיליוני אנשים, אבל מעטים אפילו מבינים איך הם עובדים. פורטל theconversation.com שיתף חמש עובדות על איך בינה מלאכותית באמת עובדת וכיצד להשתמש בהן בצורה הטובה ביותר.

הבוט לומד מתגובות האנשים
צ'טבוטים של AI מאומנים במספר שלבים, והשלב הראשון הוא אימון מקדים, שבו המודלים לומדים לחזות את המילים הבאות בכמות גדולה של טקסט. תהליך זה מאפשר להם להגיע להבנה משותפת של שפה, עובדות והיגיון.
אם אתה שואל דוגמנית מיומנת מראש כל שאלה, הוא יכול לספק בקלות הוראות מפורטות – גם אם המשתמש שואל משהו חשוד. כדי להפוך את הבינה המלאכותית לשימושית ובטוחה עבור בני אדם, כותבים עוזרים להנחות את תגובות המודל בכיוון יעיל יותר – שלב שנקרא "התאמה".
לאחר תקופה זו, ה-AI יכול לסרב לענות על כל שאלה זדונית, תוך ציון החוק או מקורות מידע אמינים אחרים. ללא התאמה אישית נוספת, צ'אטבוטים יהיו בלתי צפויים: לא יהיה דבר שימנע מהם להפיץ מידע שגוי או תוכן מזיק.
בוטים לומדים לא באמצעות מילים אלא באמצעות אסימונים
בני אדם לומדים באופן טבעי שפה באמצעות מילים, אך AI משתמשת ביחידות קטנות של נתונים הנקראות אסימונים למטרה זו. הם יכולים להיות מילים, תתי מילים, או אפילו רק מחרוזות של אותיות. ולמרות שתהליך הקידוד עוקב לעתים קרובות אחר דפוסים לוגיים, לפעמים הוא מייצר תוצאות בלתי צפויות שחושפות גם את החוזקות וגם החולשות של היכולת של ה-AI לפרש שפה. לצורך הקשר, לצ'אטבוטים מודרניים יש בדרך כלל אוצר מילים של 50,000 עד 100,000 אסימונים.
הידע על בוטים מיושן מדי יום
צ'אטבוטים של AI אינם מעדכנים את עצמם באופן רציף, מה שמקשה עליהם לענות על כל שאילתה הקשורה לאירועים אחרונים, תנאים חדשים ומידע מלבד תאריכי תפוגה – או התאריך האחרון שבו מאגר ההדרכה עודכן.
לדוגמה, לגרסה הנוכחית של ChatGPT יש תאריך יעד של יוני 2024. אם תשאלו מיהו הנשיא הנוכחי של מדינה מסוימת, ה-AI עצמו יצטרך ללכת למנוע החיפוש, "לקרוא" את התוצאות ולתת תשובה על סמךהן. AI רבים אחרים משתמשים גם במנועי חיפוש כדי להבטיח שהתשובות שלהם מעודכנות ככל האפשר. עדכון צ'טבוטים של AI הוא תהליך מורכב ויקר. שיפור האפקטיביות של עדכונים נותרה בעיה מדעית פתוחה.
בוטים רגישים להזיות
צ'טבוטים של בינה מלאכותית סובלים לפעמים מ"הזיות" – כלומר הם מייצרים תוצאות שגויות או פשוט ממציאים אותם בביטחון מלא בדייקנות שלהם, שכן המודל מנבא טקסט על סמך דפוסים מבלי לבדוק את העובדות. שגיאות כאלה הן תוצאה של המבנה הפנימי של ה-AI; הם מתעדפים קוהרנטיות על פני דיוק, מסתמכים על נתוני אימון לא מושלמים וחסרים לחלוטין הבנה של העולם האמיתי. בעוד ש-ChatGPT קיבל כמה שיפורים, כמו כלי בדיקת עובדות והיכולת לבקש ישירות מהבוט לצטט מקורות אמינים, אין טריקים שיכולים למנוע את האשליה מלכתחילה.
בוטים עושים מתמטיקה באמצעות מחשבים
לאחרונה, כמה צ'אטבוטים עברו למה שנקרא. מודל חשיבה לוגי המאפשר להם לפרק בעיה לרכיבים בודדים כדי לפתור בעיה מורכבת. לדוגמה, אם תשאל את ChatGPT "מה זה 56,345 פחות 7,865 כפול 350,468", ה-AI ייתן את התשובה הנכונה כי הוא "מבין" שכפל בא לפני חיסור. וכדי לבצע חישובים, הבוט משתמש במחשבון מובנה, המאפשר להגיע לתוצאות מדויקות.














