@one1010 כתב בתוכנת זיהוי פנים:
הבנתי שאם זה מעל 80 אחוז דמיון הוא טוען שזה אותו בנאדם אז איך זה מגיע ל99 אחוז?...
אם התמונות דומות ב80% זה כנראה אותו בן אדם.
המודל מדייק ברמה של 99%
@one1010 כתב בתוכנת זיהוי פנים:
הבנתי שאם זה מעל 80 אחוז דמיון הוא טוען שזה אותו בנאדם אז איך זה מגיע ל99 אחוז?...
אם התמונות דומות ב80% זה כנראה אותו בן אדם.
המודל מדייק ברמה של 99%
@משה-יונה2
תבדוק את voxer
מתאים רק אם לשני הצדדים יש שם חשבון.
המעלה היא שהנמען שומע את ההודעה תוך כדי שהיא מוקלטת ולא צריך להמתין לשליחה.
https://www.voxer.com/
@איש-נחמד
נראה שהאתר חסום לגישה מחו"ל
@אף-אחד-3
יש את הפלטפורמה הזאת שבה מתווכים בין שוכרים למשכירים לפי שעה
אם היה לי מידע סודי כנראה שלא הייתי סומך שהמידע לא ידלוף אבל אם אתה סתם רוצה לייצר תמונות נראה שאין הרבה מה להפסיד
https://cloud.vast.ai
@שמואל4 כתב באיפה כדאי לשכור שרת חזק?:
תקח בחשבון ש600 שעות זה פחות מחודש אחד, זה אומר שמי שרוצה לעשות משהוא עם מחשב חזק, ואני מתכוון באמת לעשות משהוא, צריך לקנות אחד כזה.
תלוי מה הוא רוצה לעשות, אם הוא רוצה לאמן מודל אז הוא צריך הרבה שעות הפעלה
אבל אם הוא רק רוצה לייצר תמונות/טקסט הוא לא מריץ את המודל 24/7 ויקח לו הרבה זמן להגיע ל600 שעות
@שמואל4 כתב באיפה כדאי לשכור שרת חזק?:
גם לא נראה שיש דברים לפי שעה עם GPU עוצמתי.
Nvidia 8x A40 לא נחשב מספיק?
כמה עולה מחשב עם מעבד כזה?
עריכה: בדקתי באמזון עולה GPU "פשוט" Nvidia T4 כ1200 דולר (לפני מיסים) לשכור את הGPU הזה עולה $0.00055 לשניה
כך יוצא שיצטרך להריץ את המעבד הזה בערך 600 שעות כדי שיהיה שווה לקנות אותו.
לקנות את הNvidia 8x A40 עולה 4000$ ועולה $0.00471 לשניה
@one1010 כתב בצאט AI | מודל שפה!:
אם השיטה היא אותה שיטה התוצאות חייבות להיות שוות.
אז זה נכון שבבסיס הוא מושתת על אותו ההליך אבל הוא חייב להשתנות באמצע וכפי שכבר כתבו שבשלב מסויים הוא רוכש היגיון לא מוסבר.
ההגיון הוא שיש משהו מבני בשפת של בני אדם וניתן לחשב מה המשפט הנכון לומר ע"פ הסתברות, מה שעדיין נחשב קופסה שחורה היא איך נוצרים מבנים כאלו שיוצרים מודל כזה חכם, אבל מה שברור הוא שלא ניתן לצפות ממנו לספור תווים כי עם כל הכבוד למבנה שיש בשפת של בני אדם הוא לא "קרא" מספיק טקסט שבו כתוב "במסמך זה יש 300 מילים ו1650 תווים" כדי שייוצר המבנה הזה במודל ההסתברותי וגם אם הוא יאומן על ספירת מילים הוא לא ידע לענות על שאלות בחשבון כי כשמנסים לחשב מה המילה הבאה בהסתברות קשה לענות על שאלות מורכבות בחשבון (וגם אם היה נוצר מבנה שהיה מצליח לענות על שאלות בחשבון זה לא יעיל ועדיף לפתור את זה בדרך הטובה והישנה והמדוייקת)
@one1010 כתב בצאט AI | מודל שפה!:
@nigun כתב בצאט AI | מודל שפה!:
נוצר כאן הגיון שאנחנו לא יכולים להבין,
על זה אני מדבר...
מודל של 100K לא היה יוצר את ההיגיון הזה ורק במודל גדול יותר נוצר היגיון שא"א להסביר... אז גם א"א לסתור כל הסבר...
אבל השיטה אותה שיטה, לחשב בהסתברות מה המילה הבאה.
ולכן אי אפשר לספור תווים, כי ההסתברות שהמילה הבאה אחרי המשפט "כמה מילים יש במסמך הזה?" היא 100 דומה מאוד להסתברות שהמיל הבאה היא 101.
למודל אין "שכל" ללכת ו"לספור" את המילים הוא סך הכל מנסה לנחש את המילה הבאה.
(אפשר לחבר אותו לתוכנה שיודעת לספור ואז בהסתברות גבוהה הוא יכתוב "הפעל תוכנה X" ואז התוכנה תופעל ע"י המחשב שמריץ את המודל, אבל המודל נשאר אותו מודל שיודע רק לחשב מה מסתבר שיהיה המילה הבאה)
@חוקר כתב במחשבי לוח אחד/רספברי פיי/זולים/לינוקס:
האם רספברי פיי הפתרון או משהו אחר?
יש גם חברות סיניות
ואם יש הבדל ניכר במחיר אפשר להזמין אחד ולבדוק שהוא מתאים
https://he.aliexpress.com/item/1005005789361492.html
@one1010 כתב בצאט AI | מודל שפה!:
@nigun כתב בצאט AI | מודל שפה!:
ואולי אין מה לומר על איך זה יכול להיעשות מעבר ל"איכשהו זה קורה כשיש לך 175 מיליארד משקלים נטו עצביים". אבל אני חושד מאוד שיש סיפור הרבה יותר פשוט וחזק.
זה בקיצור הטענה שלי...
הוא גם טוען שמעבר להסתברות יש תוספת של היגיון שהוא לא יודע להסביר אבל היא קימת
הוא אומר שכשאתה מחשב הסתברות ע"פ 175B נוצר כאן הגיון שאנחנו לא יכולים להבין, אבל המודל נשאר אותו דבר כמו המודל של 100K פרמטרים, הוא מחשב באותה שיטת הסתברות.
ולכן אי אפשר לצפות שיעשה פעולות שדורשות חשיבה מסוג של בני אדם כמו לספור תווים או לעשות פעולה חשבונית מסובכת.
@NH-LOCAL כתב בצאט AI | מודל שפה!:
@nigun אפשר קישור?
אני רואה שהקישור שבור
זה מה שהובא באשכול הקודם
https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/
הנה עוד קטע מהמאמר הנ"ל
מה באמת מאפשר ל-ChatGPT לעבוד?
השפה האנושית - ותהליכי החשיבה הכרוכים ביצירתה - תמיד נראו כמעין שיא של מורכבות. ואכן זה נראה קצת מדהים שמוחות אנושיים - עם הרשת שלהם של "רק" 100 מיליארד נוירונים בערך (ואולי 100 טריליון קשרים) יכולים להיות אחראים לכך. אולי, אפשר היה לדמיין, יש משהו יותר במוח מאשר רשתות הנוירונים שלהם - כמו איזו שכבה חדשה של פיזיקה שלא התגלתה. אבל עכשיו עם ChatGPT יש לנו פיסת מידע חדשה וחשובה: אנחנו יודעים שרשת עצבית טהורה ומלאכותית עם קשרים רבים כמו למוח שיש לנו נוירונים מסוגלת לעשות עבודה טובה באופן מפתיע לייצר שפה אנושית.
וכן, זו עדיין מערכת גדולה ומסובכת - עם משקלים עצביים רבים בערך כמו שיש מילות טקסט הזמינות כיום בעולם. אבל ברמה מסוימת עדיין נראה שקשה להאמין שכל העושר של השפה והדברים שהיא יכולה לדבר עליהם יכולים להיות מובלעים במערכת כה סופית. חלק ממה שקורה הוא ללא ספק השתקפות של התופעה בכל מקום (שהתבררה לראשונה בדוגמה של כלל 30) שתהליכי חישוב יכולים למעשה להגביר מאוד את המורכבות הנראית לעין של מערכות גם כאשר הכללים הבסיסיים שלהן פשוטים. אבל למעשה, כפי שדיברנו לעיל, רשתות עצביות מהסוג המשמש ב-ChatGPT נוטות להיבנות באופן ספציפי כדי להגביל את ההשפעה של תופעה זו - וחוסר ההפחתה החישובית הקשורה אליה - מתוך אינטרס להפוך את האימון שלהן לנגיש יותר.
אז איך זה, אם כן, שמשהו כמו ChatGPT יכול להגיע עד כמה שהוא מגיע עם השפה? התשובה הבסיסית, אני חושב, היא שהשפה היא ברמה בסיסית איכשהו פשוטה יותר ממה שהיא נראית. וזה אומר ש-ChatGPT - אפילו עם מבנה הרשת העצבית הפשוט בסופו של דבר - מסוגל "ללכוד את המהות" של השפה האנושית והחשיבה שמאחוריה. ויותר מכך, בהכשרתה, ChatGPT איכשהו "גילתה באופן מרומז" את כל הקביעות בשפה (ובחשיבה) שמאפשרות זאת.
הצלחתו של ChatGPT היא, לדעתי, נותנת לנו עדות לפיסת מדע בסיסית וחשובה: היא מעידה על כך שאנו יכולים לצפות שיהיו "חוקי השפה" חדשים עיקריים - ולמעשה "חוקי המחשבה" - כדי לגלות שם. . ב-ChatGPT - שנבנה כפי שהוא כרשת עצבית - החוקים האלה הם לכל היותר מרומזים. אבל אם נוכל איכשהו להבהיר את החוקים, יש פוטנציאל לעשות את הדברים ש-ChatGPT עושה בדרכים הרבה יותר ישירות, יעילות ושקופות.
אבל, בסדר, אז איך החוקים האלה עשויים להיות? בסופו של דבר הם חייבים לתת לנו איזשהו מרשם לאופן שבו השפה - והדברים שאנו אומרים איתה - מורכבים יחד. מאוחר יותר נדון כיצד "הסתכלות בתוך ChatGPT" עשויה לתת לנו כמה רמזים על כך, וכיצד מה שאנו יודעים מבניית שפת חישוב מעיד על דרך קדימה. אבל תחילה בואו נדון בשתי דוגמאות ידועות ארוכות של מה שמסתכם ב"חוקי השפה" - וכיצד הם קשורים לפעולה של ChatGPT.
הראשון הוא תחביר השפה. שפה היא לא רק ערבוביה אקראית של מילים. במקום זאת, ישנם כללים דקדוקיים מוגדרים (די) לאופן שבו ניתן לחבר מילים מסוגים שונים: באנגלית, למשל, שמות עצם יכולים להיות מקדימים שמות תואר ואחריהם פעלים, אבל בדרך כלל שני שמות עצם לא יכולים להיות ממש ליד כל אחד מהם. אַחֵר. מבנה דקדוקי כזה יכול (לפחות בקירוב) להיתפס על ידי מערכת כללים המגדירים כיצד ניתן להרכיב איזו כמות ל"נתח עצים" :
ל-ChatGPT אין "ידע" מפורש על כללים כאלה. אבל איכשהו באימון שלו הוא "מגלה" אותם במרומז - ואז נראה שהוא טוב במעקב אחריהם. אז איך זה עובד? ברמת "תמונה גדולה" זה לא ברור. אבל כדי לקבל קצת תובנות זה אולי מאלף להסתכל על דוגמה הרבה יותר פשוטה.
שקול "שפה" שנוצרה מרצפים של סוגריים דהיינו התווים () עם דקדוק המציין שסוגריים תמיד צריכים להיות מאוזנים, כפי שמיוצג על ידי עץ ניתוח כמו:
האם נוכל לאמן רשת עצבית לייצר רצפי סוגריים "נכונים מבחינה דקדוקית"? ישנן דרכים שונות לטפל ברצפים ברשתות עצביות, אבל בואו נשתמש ברשתות שנאים, כפי שעושה ChatGPT. ובהינתן רשת transformer פשוטה, נוכל להתחיל להזין אותה ברצפי סוגריים נכונים מבחינה דקדוקית כדוגמאות אימון. עדינות (שלמעשה מופיעה גם בדור השפה האנושית של ChatGPT) היא שבנוסף ל"אסימוני התוכן" שלנו (כאן "(" ו")") עלינו לכלול אסימון "סוף", שנוצר כדי לציין שה- הפלט לא אמור להמשיך יותר (כלומר עבור ChatGPT, זה הגיע ל"סוף הסיפור").
אם נקים רשת transformer עם רק בלוק קשב אחד עם 8 ראשים ווקטורי תכונה באורך 128 (ChatGPT משתמש גם בוקטורי תכונה באורך 128, אבל יש לו 96 בלוקי קשב, כל אחד עם 96 ראשים), אז לא נראה שאפשר להביא אותו ללמוד הרבה על שפת סוגריים. אבל עם 2 בלוקים של קשב, נראה שתהליך הלמידה מתכנס - לפחות לאחר שניתנו 10 מיליון דוגמאות לערך (וכפי שמקובל ברשתות transformer, הצגת דוגמאות נוספות נראה רק פוגעת בביצועים שלה).
אז עם הרשת הזו, אנחנו יכולים לעשות את האנלוגי של מה ש-ChatGPT עושה, ולבקש הסתברויות מה צריך להיות האסימון הבא - ברצף של סוגריים:
ובמקרה הראשון, הרשת "די בטוחה" שהרצף לא יכול להסתיים כאן - וזה טוב, כי אם כן, הסוגריים היו נותרים לא מאוזנים. אולם במקרה השני, הוא "מזהה נכון" שהרצף יכול להסתיים כאן, אם כי הוא גם "מציין" שאפשר "להתחיל מחדש", לשים ")", ככל הנראה עם "(" שאחריו. . אבל, אופס, אפילו עם כ-400,000 המשקולות שאומנו בעמל רב, זה אומר שיש סבירות של 15% לקבל "(" בתור האסימון הבא - וזה לא נכון, כי זה בהכרח יוביל לסוגריים לא מאוזנים.
זה מה שנקבל אם נבקש מהרשת את ההשלמות בעלות ההסתברות הגבוהה ביותר עבור רצפים ארוכים יותר ויותר של ) :
וכן, עד אורך מסוים הרשת מסתדרת מצוין. אבל אז זה מתחיל להיכשל. זה סוג די אופייני לראות במצב "מדויק" כזה עם רשת עצבית (או עם למידת מכונה באופן כללי). מקרים שאדם "יכול לפתור במבט חטוף" גם הרשת העצבית יכולה לפתור. אבל מקרים הדורשים לעשות משהו "אלגוריתמי יותר" (למשל ספירה מפורשת של סוגריים כדי לראות אם הם סגורים) הרשת העצבית נוטה איכשהו להיות "רדודה מדי מבחינה חישובית" מכדי לעשות זאת בצורה מהימנה. (אגב, אפילו ChatGPT הנוכחי המלא מתקשה להתאים נכון סוגריים ברצפים ארוכים.)
אז מה זה אומר לגבי דברים כמו ChatGPT והתחביר של שפה כמו אנגלית? שפת הסוגריים היא "מחמירה" - והרבה יותר "סיפור אלגוריתמי". אבל באנגלית זה הרבה יותר ריאלי להיות מסוגל "לנחש" מה יתאים מבחינה דקדוקית על סמך בחירות מקומיות של מילים ורמזים אחרים. וכן, הרשת העצבית הרבה יותר טובה בזה - למרות שאולי היא עשויה להחמיץ מקרה "נכון פורמלית" שגם בני אדם עלולים לפספס. אבל הנקודה העיקרית היא שהעובדה שיש מבנה תחבירי כולל לשפה - עם כל הסדירות שמשתמעת מכך - מגבילה במובן מסוים "כמה" לרשת העצבית צריכה ללמוד.
תחביר מספק סוג אחד של אילוץ על השפה. אבל ברור שיש עוד. משפט כמו "אלקטרונים סקרנים אוכלים תיאוריות כחולות לדגים" הוא נכון מבחינה דקדוקית אבל הוא לא משהו שבדרך כלל היה מצפים לומר, ולא ייחשב להצלחה אם ChatGPT ייצר אותו - כי, ובכן, עם המשמעויות הרגילות עבור מילים בו, זה בעצם חסר משמעות.
אבל האם יש דרך כללית לדעת אם יש משמעות למשפט? אין תיאוריה כללית מסורתית לכך. אבל זה משהו שאפשר לחשוב על ChatGPT כמי ש"פיתח עבורו תיאוריה" באופן מרומז לאחר שעבר הכשרה עם מיליארדי משפטים (כנראה בעלי משמעות) מהאינטרנט וכו'.
איך יכולה להיות התיאוריה הזו? ובכן, יש פינה אחת קטנטנה שבעצם ידועה כבר אלפיים שנה, וזה היגיון. ובוודאי בצורה הסילוגיסטית שבה גילה זאת אריסטו, ההיגיון הוא בעצם דרך לומר שמשפטים העוקבים אחר דפוסים מסוימים הם סבירים, בעוד שאחרים לא. כך, למשל, סביר לומר "כל ה-X הם Y. זה לא Y, אז זה לא X" (כמו ב"כל הדגים כחולים. זה לא כחול, אז זה לא דג"). וכמו שאפשר לדמיין בצורה קצת גחמנית שאריסטו גילה את ההיגיון הסילוגיסטי על ידי מעבר ("סגנון למידה מכונה") על המון דוגמאות של רטוריקה, כך גם אפשר לדמיין שבאימונים של ChatGPT הוא היה מסוגל "לגלות היגיון סילוגיסטי" על ידי הסתכלות על הרבה טקסט באינטרנט וכו'. (וכן, בעוד שניתן לצפות מ-ChatGPT לייצר טקסט שמכיל "מסקנות נכונות" על סמך דברים כמו לוגיקה סילוגיסטית,
אבל מעבר לדוגמא הצרה של ההיגיון, מה ניתן לומר על איך לבנות באופן שיטתי (או לזהות) אפילו טקסט בעל משמעות מתקבלת על הדעת? כן, יש דברים כמו Mad Libs שמשתמשים ב"תבניות ביטוי" מאוד ספציפיות. אבל איכשהו ל-ChatGPT יש באופן מרומז דרך הרבה יותר כללית לעשות את זה. ואולי אין מה לומר על איך זה יכול להיעשות מעבר ל"איכשהו זה קורה כשיש לך 175 מיליארד משקלים נטו עצביים". אבל אני חושד מאוד שיש סיפור הרבה יותר פשוט וחזק.
@NH-LOCAL כתב בצאט AI | מודל שפה!:
הסבר לא מדויק של למידה: ההסבר מצביע על כך שה"ניחושים" של המודל הם תוצאה של ניסוי וטעייה במהלך כל מפגש עם טקסט חדש. עם זאת, GPT-3 לומד דפוסים ויחסים מהטקסט עליו הוכשר, והוא לא משנה באופן אקטיבי את המבנה שלו כדי לנחש נכון.
אני משער שהתהליך הוא הרבה יותר חכם ויעיל ממה שכתבתי, בעיקר נסיתי לפשט.
אבל גם במאמר הזה נראה שהוא מתאר משהו דומה (יכול להיות שהוא רק ניסה לפשט)
But, OK, given all this data, how does one train a neural net from it? The basic process is very much as we discussed it in the simple examples above. You present a batch of examples, and then you adjust the weights in the network to minimize the error (“loss”) that the network makes on those examples. The main thing that’s expensive about “back propagating” from the error is that each time you do this, every weight in the network will typically change at least a tiny bit, and there are just a lot of weights to deal with. (The actual “back computation” is typically only a small constant factor harder than the forward one.)
@one1010 כתב בצאט AI | מודל שפה!:
@aaron כתב בצאט AI | מודל שפה!:
הסתברות של עשרות מיליארדי פרמטרים שונים, בעיקר, כן.
שזה אומר במילים אחרות הבנה של המילה...
ברמה כזו או אחרת
אוקי כאן מתחיל השאלה הפילוסופית מה זה "הבנה"
לבנתיים למודלי שפה אין "הבנה" כמו שאנחנו רגילים לחושב עליו, אלא רק חישובים סטטיסטיים מאוד מורכבים.
ולכן אי אפשר לצפות ש"יבינו" כמו בני אדם.
@one1010 כתב בצאט AI | מודל שפה!:
@nigun כתב בצאט AI | מודל שפה!:
@one1010 כתב בצאט AI | מודל שפה!:
אבל כל מי שמתכתב קצת עם AI יודע לומר כמה נתונים:
היא מבלבלת את השכל! [כמובן לא תמיד...]
אבל בכישרון רב [כמובן לא תמיד...]
כך שלומר שכל מה שהיא עושה זה רק לחבר מילה למילה לפי הסתברות לדעתי זה רחוק מהמציאות.למה העובדה שהיא מבלבלת את השכל בכישרון רב זה סתירה למה שכתבתי?
כי הסתברות של מילה עוקבת לא יכולה לתת סברה אמיתית ועמוקה אלא זה היה יוצא סלט גדול של תוכן שלא מביע משהו אמיתי.
אני עדיין לא מומחה לנושא ואני ניזון רק ממה שאני שומע ומנסה להבין מהמומחים.
כמו שכתבתי לעיל ככל הידוע לי החוקרים עדיין מנסים להבין איך מודל שפה מצליח לדבר בהגיון, אבל אפשר להבין קצת איך זה עובד בכל זאת.
אם אני מאמן מודל ונותן לו את הטקסט הבא:
" הדשא בצבע ירוק.
באיזה צבע הדשא?: "
והוא ינסה לשנות את המבנה של המודל שלו אלפי פעמים עד שיצליח לנחש נכון את התשובה הנכונה "ירוק"
עכשיו אם אני מציג לו טקסט חדש
" השמים בצבע תכלת.
באיזה צבע השמים?"
הוא יעביר את הטקסט דרך אותו מודל שהצליח לחזות פעם שעברה והנה אחרי כמה נסיונות הוא מצליח לנחש נכון "תכלת".
עכשיו אם תנסה להסתכל בתוך המודל ולחפש מידע על דשא שמים או צבעים לא תבין כלום אבל יש לו שם "משהו" שמצליח לנחש נכון את המילה הבאה.
עכשיו אם תמשיך לאמן אותו
" החתול בצבע חום.
באיזה צבע החתול?"
עכשיו יהיה לו ממש קל לשער שבהסתברות גבוהה הלימה הבאה היא "חום".
עכשיו אתה יכול לאמן אותו בשאלות חדשות
"החתול בצבע חום.
מה בצבע חום?"
כאן הוא יצטרך כנראה הרבה יוצר נסיונות (ובכל ניסיון המודל משתנה) אבל בסוף "משהו" נכנס לתוך הרשת של המודל והוא מצליח לנחש את המילה "החתול".
ובאופן "מפתיע" אם נשאל אותו "מה בצבע תכלת?" הוא ישער שהכי מסתבר שהמילה הבאה היא "שמים".
@איש-נחמד
אולי נחל ראש פינה
לא זוכר את האורך של המסלול ועד כמה ילדים יהיו מוכנים ללכת
@איש-נחמד כתב בדרוש מידע - אטרקציות ומסלולים באזור צפת:
בגדול אין שם הרבה מה לעשות, חוץ מהמעיין שבכניסה לפארק
אתה מחפש עוד משהו בסנגון או משהו קצת יותר מעניין?
@one1010 כתב בצאט AI | מודל שפה!:
אבל כל מי שמתכתב קצת עם AI יודע לומר כמה נתונים:
היא מבלבלת את השכל! [כמובן לא תמיד...]
אבל בכישרון רב [כמובן לא תמיד...]
כך שלומר שכל מה שהיא עושה זה רק לחבר מילה למילה לפי הסתברות לדעתי זה רחוק מהמציאות.
למה העובדה שהיא מבלבלת את השכל בכישרון רב זה סתירה למה שכתבתי?
@צדיק-תמים כתב בצאט AI | מודל שפה!:
איך ע"י ניחוש מילה הבאה (שהוא בעיקר ע"פ המידע מכל הרשת ש"האכילו" את המודל ואימון בצורה של שאלה-תשובה) מודל יוכל להסביר דבר שבני אדם המומחים בתחום לא יודעים להסביר?
לא אמרתי שמודל שפה יוכל להסביר מודל שפה אחר
אלא מודל בינה מלאכותית (שלא חייב להיות מודל שפה) יוכל להסביר