@גמליאל
אני התחלתי עם lowchost ב10 ש"ח לחודש וזה היה בסדר
אבל לא היה לי שם וורדפרס אז כנראה זה לא אינדיקציה נכונה
אבל בכל מקרה לרוב החברות יש לך כמה ימים חינם אז מה אכפת לך לנסות כמה

nigun
-
אחסון אתר לוורדפרס -
API לשליחת צנתוקים (זיוף מספר) למטרת שליחת קוד למספרים כשרים@למדן-וידען
בימות אתה יכול לעשות גם שישלח באופן רנדומאלי מספר מתוך המספרים שיש לך ושיקיש את הספרות האחרונות של המספר -
סימון הודעה חדשה בגימייל@aiib
אם מדובר במייל שאתה לא צריך עדכון מיידית
אתה יכול לפתוח חשבון בprotonmail
ושם יש אפשרות שישלח התרעה אם יש לך הודעה חדשה שלא נקראה ולא נכנסת לחשבון ב24 שעות אחרונות
החסרון הוא שזה רק באנגלית
וכמובן שאם דקה אחרי שיצאת מהמייל מישהו שלח לך הודעה אתה תקבל התרעה רק למחרת -
סימון הודעה חדשה בגימייל@aiib
למה שלא תעשה הפנייה למייל שפתוח לך
ותעשה סינון לכל ההודעות מהמייל הסגור
שיקבלו תווית מסויימת
כמובן זה לא פתרון אם יש למישהו אחר גישה וכדו' -
השלמות בסיסיות לפרויקט מAI@one1010 כתב בהשלמות בסיסיות לפרויקט מAI:
@nigun כתב בהשלמות בסיסיות לפרויקט מAI:
בקשות בדקה
בAI סטודיו נראה לי טכנית א"א להגיע ליותר מבקשה אחת מקסימום 2 בדקה...
אורך לו זמן לחשוב וזמן לענות.תלוי באורך התשובה
אם הוא עונה לך משהו קצר זה אפשרי -
השלמות בסיסיות לפרויקט מAI@one1010 כתב בהשלמות בסיסיות לפרויקט מAI:
זה שימוש חינמי ולא מוגבל?
אתה שם איזה טוקן שאתה רוצה
גוגל מגבילים את הבקשות בדקה במסלול החינמי ולמיטב ידיעתי אין הבדל בין הסטודיו לטוקן -
השלמות בסיסיות לפרויקט מAI@אבי-203 כתב בהשלמות בסיסיות לפרויקט מAI:
רציתי לעלות לו את כל הקבצים שיש לי התקייה והקבים רק חושב לא עובד..
בשביל מה יש לך כלים בקוד פתוח שמשתלבים לך בIDE?
https://github.com/cline/cline
https://github.com/voideditor/void -
API חדש להשליט AI על המחשב המקומי@one1010 כתב בAPI חדש להשליט AI על המחשב המקומי:
@Whenever כתב בAPI חדש להשליט AI על המחשב המקומי:
חיכינו ליום הזה בציפיה או חרדה והנה זה הגיע, AI שיכול לשלוט לנו על המחשב האישי שלנו.
הבעלים של CLAUDE הודיעו שיש עכשיו API פתוח המאפשר לפתח יכולות שליטה בתוכנות במחשב שלנו.
זה לא פתוח בנטפרי כי במועד הם סגורים.
לדעתי פחות שימושי עבור מי שלא משלם על תוכנית, אחרי כמה ניסיונות קצרים זה בטח ייחסם עד לפתיחת צ'אט חדש...
קיים כרגע רק דרך הAPI שלהם ולא באתר הGUI שלהם
https://www.anthropic.com/news/developing-computer-use
https://docs.anthropic.com/en/docs/build-with-claude/computer-use -
מספר ישראלי למערכת@צדיק-תמים כתב במספר ישראלי למערכת:
לגבי תשלום - המצב הנוכחי לאחר ההורדה של דמי הקישוריות ולפני הביטול המוחלט שלהם זה שלא משלמים ולא מקבלים (שייך לקבל אבל פרוטות ממש) למעט הפניית שיחות למענה אנושי שעולה כסף, המספר עצמו חינם בתנאי שהמערכת מכניסה לפחות 2000 דקות בחודש אחרת היא נסגרת אוטומטית, או שמשלמים סכום חודשי קטן על המספר
רק צריך להדגיש שכנראה בעוד כמה חודשים המצב ישתנה ויצטרכו לשלם על כל המערכות
-
מחפש מידע - שליטה מרחוק למחשבים מרובים (בתשלום)@mekev
בדקת אם rustdesk מתאים?
https://rustdesk.com/pricing.html -
צאט AI | מודל שפה!@חגי כתב בצאט AI | מודל שפה!:
@nigun
Mathematica קיים כבר הרבה שנים (מ-1988) וזה פותר משוואות מתמטיות מורכבות ללא עזרה מAI.
כנראה שהחיפוש של גוגל משתמש במשהו דומה, לא צריך בשביל זה LLM.לWolfram אין שפה טבעית עשירה כל כך
-
תוכנת זיהוי פנים@one1010 כתב בתוכנת זיהוי פנים:
הבנתי שאם זה מעל 80 אחוז דמיון הוא טוען שזה אותו בנאדם אז איך זה מגיע ל99 אחוז?...
אם התמונות דומות ב80% זה כנראה אותו בן אדם.
המודל מדייק ברמה של 99% -
צאט AI | מודל שפה!@one1010 כתב בצאט AI | מודל שפה!:
@nigun כתב בצאט AI | מודל שפה!:
נוצר כאן הגיון שאנחנו לא יכולים להבין,
על זה אני מדבר...
מודל של 100K לא היה יוצר את ההיגיון הזה ורק במודל גדול יותר נוצר היגיון שא"א להסביר... אז גם א"א לסתור כל הסבר...אבל השיטה אותה שיטה, לחשב בהסתברות מה המילה הבאה.
ולכן אי אפשר לספור תווים, כי ההסתברות שהמילה הבאה אחרי המשפט "כמה מילים יש במסמך הזה?" היא 100 דומה מאוד להסתברות שהמיל הבאה היא 101.
למודל אין "שכל" ללכת ו"לספור" את המילים הוא סך הכל מנסה לנחש את המילה הבאה.
(אפשר לחבר אותו לתוכנה שיודעת לספור ואז בהסתברות גבוהה הוא יכתוב "הפעל תוכנה X" ואז התוכנה תופעל ע"י המחשב שמריץ את המודל, אבל המודל נשאר אותו מודל שיודע רק לחשב מה מסתבר שיהיה המילה הבאה) -
צאט AI | מודל שפה!@NH-LOCAL כתב בצאט AI | מודל שפה!:
@nigun אפשר קישור?
אני רואה שהקישור שבור
זה מה שהובא באשכול הקודם
https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/ -
צאט AI | מודל שפה!הנה עוד קטע מהמאמר הנ"ל
מה באמת מאפשר ל-ChatGPT לעבוד?
השפה האנושית - ותהליכי החשיבה הכרוכים ביצירתה - תמיד נראו כמעין שיא של מורכבות. ואכן זה נראה קצת מדהים שמוחות אנושיים - עם הרשת שלהם של "רק" 100 מיליארד נוירונים בערך (ואולי 100 טריליון קשרים) יכולים להיות אחראים לכך. אולי, אפשר היה לדמיין, יש משהו יותר במוח מאשר רשתות הנוירונים שלהם - כמו איזו שכבה חדשה של פיזיקה שלא התגלתה. אבל עכשיו עם ChatGPT יש לנו פיסת מידע חדשה וחשובה: אנחנו יודעים שרשת עצבית טהורה ומלאכותית עם קשרים רבים כמו למוח שיש לנו נוירונים מסוגלת לעשות עבודה טובה באופן מפתיע לייצר שפה אנושית.וכן, זו עדיין מערכת גדולה ומסובכת - עם משקלים עצביים רבים בערך כמו שיש מילות טקסט הזמינות כיום בעולם. אבל ברמה מסוימת עדיין נראה שקשה להאמין שכל העושר של השפה והדברים שהיא יכולה לדבר עליהם יכולים להיות מובלעים במערכת כה סופית. חלק ממה שקורה הוא ללא ספק השתקפות של התופעה בכל מקום (שהתבררה לראשונה בדוגמה של כלל 30) שתהליכי חישוב יכולים למעשה להגביר מאוד את המורכבות הנראית לעין של מערכות גם כאשר הכללים הבסיסיים שלהן פשוטים. אבל למעשה, כפי שדיברנו לעיל, רשתות עצביות מהסוג המשמש ב-ChatGPT נוטות להיבנות באופן ספציפי כדי להגביל את ההשפעה של תופעה זו - וחוסר ההפחתה החישובית הקשורה אליה - מתוך אינטרס להפוך את האימון שלהן לנגיש יותר.
אז איך זה, אם כן, שמשהו כמו ChatGPT יכול להגיע עד כמה שהוא מגיע עם השפה? התשובה הבסיסית, אני חושב, היא שהשפה היא ברמה בסיסית איכשהו פשוטה יותר ממה שהיא נראית. וזה אומר ש-ChatGPT - אפילו עם מבנה הרשת העצבית הפשוט בסופו של דבר - מסוגל "ללכוד את המהות" של השפה האנושית והחשיבה שמאחוריה. ויותר מכך, בהכשרתה, ChatGPT איכשהו "גילתה באופן מרומז" את כל הקביעות בשפה (ובחשיבה) שמאפשרות זאת.
הצלחתו של ChatGPT היא, לדעתי, נותנת לנו עדות לפיסת מדע בסיסית וחשובה: היא מעידה על כך שאנו יכולים לצפות שיהיו "חוקי השפה" חדשים עיקריים - ולמעשה "חוקי המחשבה" - כדי לגלות שם. . ב-ChatGPT - שנבנה כפי שהוא כרשת עצבית - החוקים האלה הם לכל היותר מרומזים. אבל אם נוכל איכשהו להבהיר את החוקים, יש פוטנציאל לעשות את הדברים ש-ChatGPT עושה בדרכים הרבה יותר ישירות, יעילות ושקופות.
אבל, בסדר, אז איך החוקים האלה עשויים להיות? בסופו של דבר הם חייבים לתת לנו איזשהו מרשם לאופן שבו השפה - והדברים שאנו אומרים איתה - מורכבים יחד. מאוחר יותר נדון כיצד "הסתכלות בתוך ChatGPT" עשויה לתת לנו כמה רמזים על כך, וכיצד מה שאנו יודעים מבניית שפת חישוב מעיד על דרך קדימה. אבל תחילה בואו נדון בשתי דוגמאות ידועות ארוכות של מה שמסתכם ב"חוקי השפה" - וכיצד הם קשורים לפעולה של ChatGPT.
הראשון הוא תחביר השפה. שפה היא לא רק ערבוביה אקראית של מילים. במקום זאת, ישנם כללים דקדוקיים מוגדרים (די) לאופן שבו ניתן לחבר מילים מסוגים שונים: באנגלית, למשל, שמות עצם יכולים להיות מקדימים שמות תואר ואחריהם פעלים, אבל בדרך כלל שני שמות עצם לא יכולים להיות ממש ליד כל אחד מהם. אַחֵר. מבנה דקדוקי כזה יכול (לפחות בקירוב) להיתפס על ידי מערכת כללים המגדירים כיצד ניתן להרכיב איזו כמות ל"נתח עצים" :
ל-ChatGPT אין "ידע" מפורש על כללים כאלה. אבל איכשהו באימון שלו הוא "מגלה" אותם במרומז - ואז נראה שהוא טוב במעקב אחריהם. אז איך זה עובד? ברמת "תמונה גדולה" זה לא ברור. אבל כדי לקבל קצת תובנות זה אולי מאלף להסתכל על דוגמה הרבה יותר פשוטה.
שקול "שפה" שנוצרה מרצפים של סוגריים דהיינו התווים () עם דקדוק המציין שסוגריים תמיד צריכים להיות מאוזנים, כפי שמיוצג על ידי עץ ניתוח כמו:
האם נוכל לאמן רשת עצבית לייצר רצפי סוגריים "נכונים מבחינה דקדוקית"? ישנן דרכים שונות לטפל ברצפים ברשתות עצביות, אבל בואו נשתמש ברשתות שנאים, כפי שעושה ChatGPT. ובהינתן רשת transformer פשוטה, נוכל להתחיל להזין אותה ברצפי סוגריים נכונים מבחינה דקדוקית כדוגמאות אימון. עדינות (שלמעשה מופיעה גם בדור השפה האנושית של ChatGPT) היא שבנוסף ל"אסימוני התוכן" שלנו (כאן "(" ו")") עלינו לכלול אסימון "סוף", שנוצר כדי לציין שה- הפלט לא אמור להמשיך יותר (כלומר עבור ChatGPT, זה הגיע ל"סוף הסיפור").
אם נקים רשת transformer עם רק בלוק קשב אחד עם 8 ראשים ווקטורי תכונה באורך 128 (ChatGPT משתמש גם בוקטורי תכונה באורך 128, אבל יש לו 96 בלוקי קשב, כל אחד עם 96 ראשים), אז לא נראה שאפשר להביא אותו ללמוד הרבה על שפת סוגריים. אבל עם 2 בלוקים של קשב, נראה שתהליך הלמידה מתכנס - לפחות לאחר שניתנו 10 מיליון דוגמאות לערך (וכפי שמקובל ברשתות transformer, הצגת דוגמאות נוספות נראה רק פוגעת בביצועים שלה).
אז עם הרשת הזו, אנחנו יכולים לעשות את האנלוגי של מה ש-ChatGPT עושה, ולבקש הסתברויות מה צריך להיות האסימון הבא - ברצף של סוגריים:
ובמקרה הראשון, הרשת "די בטוחה" שהרצף לא יכול להסתיים כאן - וזה טוב, כי אם כן, הסוגריים היו נותרים לא מאוזנים. אולם במקרה השני, הוא "מזהה נכון" שהרצף יכול להסתיים כאן, אם כי הוא גם "מציין" שאפשר "להתחיל מחדש", לשים ")", ככל הנראה עם "(" שאחריו. . אבל, אופס, אפילו עם כ-400,000 המשקולות שאומנו בעמל רב, זה אומר שיש סבירות של 15% לקבל "(" בתור האסימון הבא - וזה לא נכון, כי זה בהכרח יוביל לסוגריים לא מאוזנים.
זה מה שנקבל אם נבקש מהרשת את ההשלמות בעלות ההסתברות הגבוהה ביותר עבור רצפים ארוכים יותר ויותר של ) :
וכן, עד אורך מסוים הרשת מסתדרת מצוין. אבל אז זה מתחיל להיכשל. זה סוג די אופייני לראות במצב "מדויק" כזה עם רשת עצבית (או עם למידת מכונה באופן כללי). מקרים שאדם "יכול לפתור במבט חטוף" גם הרשת העצבית יכולה לפתור. אבל מקרים הדורשים לעשות משהו "אלגוריתמי יותר" (למשל ספירה מפורשת של סוגריים כדי לראות אם הם סגורים) הרשת העצבית נוטה איכשהו להיות "רדודה מדי מבחינה חישובית" מכדי לעשות זאת בצורה מהימנה. (אגב, אפילו ChatGPT הנוכחי המלא מתקשה להתאים נכון סוגריים ברצפים ארוכים.)
אז מה זה אומר לגבי דברים כמו ChatGPT והתחביר של שפה כמו אנגלית? שפת הסוגריים היא "מחמירה" - והרבה יותר "סיפור אלגוריתמי". אבל באנגלית זה הרבה יותר ריאלי להיות מסוגל "לנחש" מה יתאים מבחינה דקדוקית על סמך בחירות מקומיות של מילים ורמזים אחרים. וכן, הרשת העצבית הרבה יותר טובה בזה - למרות שאולי היא עשויה להחמיץ מקרה "נכון פורמלית" שגם בני אדם עלולים לפספס. אבל הנקודה העיקרית היא שהעובדה שיש מבנה תחבירי כולל לשפה - עם כל הסדירות שמשתמעת מכך - מגבילה במובן מסוים "כמה" לרשת העצבית צריכה ללמוד.
תחביר מספק סוג אחד של אילוץ על השפה. אבל ברור שיש עוד. משפט כמו "אלקטרונים סקרנים אוכלים תיאוריות כחולות לדגים" הוא נכון מבחינה דקדוקית אבל הוא לא משהו שבדרך כלל היה מצפים לומר, ולא ייחשב להצלחה אם ChatGPT ייצר אותו - כי, ובכן, עם המשמעויות הרגילות עבור מילים בו, זה בעצם חסר משמעות.
אבל האם יש דרך כללית לדעת אם יש משמעות למשפט? אין תיאוריה כללית מסורתית לכך. אבל זה משהו שאפשר לחשוב על ChatGPT כמי ש"פיתח עבורו תיאוריה" באופן מרומז לאחר שעבר הכשרה עם מיליארדי משפטים (כנראה בעלי משמעות) מהאינטרנט וכו'.
איך יכולה להיות התיאוריה הזו? ובכן, יש פינה אחת קטנטנה שבעצם ידועה כבר אלפיים שנה, וזה היגיון. ובוודאי בצורה הסילוגיסטית שבה גילה זאת אריסטו, ההיגיון הוא בעצם דרך לומר שמשפטים העוקבים אחר דפוסים מסוימים הם סבירים, בעוד שאחרים לא. כך, למשל, סביר לומר "כל ה-X הם Y. זה לא Y, אז זה לא X" (כמו ב"כל הדגים כחולים. זה לא כחול, אז זה לא דג"). וכמו שאפשר לדמיין בצורה קצת גחמנית שאריסטו גילה את ההיגיון הסילוגיסטי על ידי מעבר ("סגנון למידה מכונה") על המון דוגמאות של רטוריקה, כך גם אפשר לדמיין שבאימונים של ChatGPT הוא היה מסוגל "לגלות היגיון סילוגיסטי" על ידי הסתכלות על הרבה טקסט באינטרנט וכו'. (וכן, בעוד שניתן לצפות מ-ChatGPT לייצר טקסט שמכיל "מסקנות נכונות" על סמך דברים כמו לוגיקה סילוגיסטית,
אבל מעבר לדוגמא הצרה של ההיגיון, מה ניתן לומר על איך לבנות באופן שיטתי (או לזהות) אפילו טקסט בעל משמעות מתקבלת על הדעת? כן, יש דברים כמו Mad Libs שמשתמשים ב"תבניות ביטוי" מאוד ספציפיות. אבל איכשהו ל-ChatGPT יש באופן מרומז דרך הרבה יותר כללית לעשות את זה. ואולי אין מה לומר על איך זה יכול להיעשות מעבר ל"איכשהו זה קורה כשיש לך 175 מיליארד משקלים נטו עצביים". אבל אני חושד מאוד שיש סיפור הרבה יותר פשוט וחזק.
-
צאט AI | מודל שפה!@NH-LOCAL כתב בצאט AI | מודל שפה!:
הסבר לא מדויק של למידה: ההסבר מצביע על כך שה"ניחושים" של המודל הם תוצאה של ניסוי וטעייה במהלך כל מפגש עם טקסט חדש. עם זאת, GPT-3 לומד דפוסים ויחסים מהטקסט עליו הוכשר, והוא לא משנה באופן אקטיבי את המבנה שלו כדי לנחש נכון.
אני משער שהתהליך הוא הרבה יותר חכם ויעיל ממה שכתבתי, בעיקר נסיתי לפשט.
אבל גם במאמר הזה נראה שהוא מתאר משהו דומה (יכול להיות שהוא רק ניסה לפשט)But, OK, given all this data, how does one train a neural net from it? The basic process is very much as we discussed it in the simple examples above. You present a batch of examples, and then you adjust the weights in the network to minimize the error (“loss”) that the network makes on those examples. The main thing that’s expensive about “back propagating” from the error is that each time you do this, every weight in the network will typically change at least a tiny bit, and there are just a lot of weights to deal with. (The actual “back computation” is typically only a small constant factor harder than the forward one.)
-
צאט AI | מודל שפה!@one1010 כתב בצאט AI | מודל שפה!:
אבל כל מי שמתכתב קצת עם AI יודע לומר כמה נתונים:
היא מבלבלת את השכל! [כמובן לא תמיד...]
אבל בכישרון רב [כמובן לא תמיד...]
כך שלומר שכל מה שהיא עושה זה רק לחבר מילה למילה לפי הסתברות לדעתי זה רחוק מהמציאות.למה העובדה שהיא מבלבלת את השכל בכישרון רב זה סתירה למה שכתבתי?
-
כלי שורת פקודה להורדת פודקאסטים ב ubuntu, יש ?@אף-אחד-3
ואתה רוצה כלי שעובר על כל הRSS ומוריד אותם אחד אחרי השני?
או משהו שנותן לך תפריט לבחירה? -
דיון ענייני: איך לתמחר פרוייקט תוכנה@OdedDvir
אתה מדבר על מוצר מדף או על תוכנה בהתאמה אישית?
בכל אופן מאמר יפה ומסודר. -
האם יש אפשרות להשמיע קובץ לתוך הקלטה ברשת?