@one1010 כתב בצאט AI | מודל שפה!:
@nigun כתב בצאט AI | מודל שפה!:
@one1010 כתב בצאט AI | מודל שפה!:
אבל כל מי שמתכתב קצת עם AI יודע לומר כמה נתונים:
היא מבלבלת את השכל! [כמובן לא תמיד...]
אבל בכישרון רב [כמובן לא תמיד...]
כך שלומר שכל מה שהיא עושה זה רק לחבר מילה למילה לפי הסתברות לדעתי זה רחוק מהמציאות.
למה העובדה שהיא מבלבלת את השכל בכישרון רב זה סתירה למה שכתבתי?
כי הסתברות של מילה עוקבת לא יכולה לתת סברה אמיתית ועמוקה אלא זה היה יוצא סלט גדול של תוכן שלא מביע משהו אמיתי.
אני עדיין לא מומחה לנושא ואני ניזון רק ממה שאני שומע ומנסה להבין מהמומחים.
כמו שכתבתי לעיל ככל הידוע לי החוקרים עדיין מנסים להבין איך מודל שפה מצליח לדבר בהגיון, אבל אפשר להבין קצת איך זה עובד בכל זאת.
אם אני מאמן מודל ונותן לו את הטקסט הבא:
" הדשא בצבע ירוק.
באיזה צבע הדשא?: "
והוא ינסה לשנות את המבנה של המודל שלו אלפי פעמים עד שיצליח לנחש נכון את התשובה הנכונה "ירוק"
עכשיו אם אני מציג לו טקסט חדש
" השמים בצבע תכלת.
באיזה צבע השמים?"
הוא יעביר את הטקסט דרך אותו מודל שהצליח לחזות פעם שעברה והנה אחרי כמה נסיונות הוא מצליח לנחש נכון "תכלת".
עכשיו אם תנסה להסתכל בתוך המודל ולחפש מידע על דשא שמים או צבעים לא תבין כלום אבל יש לו שם "משהו" שמצליח לנחש נכון את המילה הבאה.
עכשיו אם תמשיך לאמן אותו
" החתול בצבע חום.
באיזה צבע החתול?"
עכשיו יהיה לו ממש קל לשער שבהסתברות גבוהה הלימה הבאה היא "חום".
עכשיו אתה יכול לאמן אותו בשאלות חדשות
"החתול בצבע חום.
מה בצבע חום?"
כאן הוא יצטרך כנראה הרבה יוצר נסיונות (ובכל ניסיון המודל משתנה) אבל בסוף "משהו" נכנס לתוך הרשת של המודל והוא מצליח לנחש את המילה "החתול".
ובאופן "מפתיע" אם נשאל אותו "מה בצבע תכלת?" הוא ישער שהכי מסתבר שהמילה הבאה היא "שמים".