DeepSeek: האחד המשבש מהפך מהפכה בנוף ה- AI

קבוצת איפו ווטון

מָבוֹא

חרדה מתמשכת בקרב דגמים גדולים מתחרים, ספקי ענן המתחרים על נתח שוק ויצרני שבבים עובדים קשה - אפקט DeepSeek נמשך.

עם סיום פסטיבל האביב, ההתרגשות סביב Deepseek נותרה חזקה. החג האחרון הדגיש תחושת תחרות משמעותית בתעשיית הטכנולוגיה, כאשר רבים דיברו וניתוחים "שפמנון" זה. עמק הסיליקון חווה תחושת משבר חסרת תקדים: תומכי קוד פתוח משמיעים שוב את דעותיהם, ואפילו Openai מעריך מחדש אם אסטרטגיית המקור הסגור שלה הייתה הבחירה הטובה ביותר. הפרדיגמה החדשה של עלויות חישוב נמוכות יותר עוררה תגובת שרשרת בקרב ענקי שבבים כמו NVIDIA, מה שהוביל לרשמת הפסדי שווי שוק יחיד בהיסטוריה של שוק המניות האמריקני, בעוד שסוכנויות ממשלתיות חוקרות את עמידה בשבבים המשמשים את דיפסק. בין ביקורות מעורבות של Deepseek מעבר לים, מבחינה מקומית, היא חווה צמיחה יוצאת דופן. לאחר השקת מודל R1, האפליקציה המשויכת חלה על גל בתנועה, מה שמצביע על כך שגידול במגזרי היישומים יניע את המערכת האקולוגית הכוללת של AI קדימה. ההיבט החיובי הוא ש- Deepseek תרחיב את אפשרויות היישום, מה שמציע כי הסתמכות על צ'אט לא תהיה יקרה בעתיד. שינוי זה בא לידי ביטוי בפעילותו האחרונה של Openai, כולל מתן מודל הנמקה שנקרא O3-Mini למשתמשים בחינם בתגובה ל- Deepseek R1, כמו גם לשדרוגים שלאחר מכן שהפכו את שרשרת המחשבה של ציבור O3-Mini. משתמשים רבים בחו"ל הביעו הכרת תודה ל- DeepSeek על התפתחויות אלה, אם כי שרשרת מחשבה זו משמשת כסיכום.

באופן אופטימי, ניכר כי Deepseek מאחדת שחקנים ביתיים. עם ההתמקדות שלה בהפחתת עלויות ההדרכה, יצרני שבבים במעלה הזרם, ספקי ענן ביניים וסטארט -אפים רבים מצטרפים באופן פעיל למערכת האקולוגית, ומשפרים את יעילות העלות לשימוש במודל DeepSeek. על פי העיתונים של DeepSeek, ההדרכה המלאה של דגם ה- V3 דורשת רק 2.788 מיליון שעות H800 GPU, ותהליך ההדרכה יציב ביותר. ארכיטקטורת MOE (תערובת המומחים) היא קריטית להפחתת עלויות אימונים לפני גורם של עשרה בהשוואה ללמה 3 עם 405 מיליארד פרמטרים. נכון לעכשיו, V3 הוא המודל הראשון המוכר בפומבי המדגים דלילות כה גבוהה ב- MOE. בנוסף, ה- MLA (תשומת לב רב שכבות) פועל באופן סינרגטי, במיוחד בהיבטי הנמקה. "ככל שה- MOE יותר, כך גודל האצווה היה גדול יותר במהלך ההנמקה כדי להשתמש במלוא הכוח החישובי, כאשר גודל ה- KVCache הוא הגורם המגביל העיקרי; ה- MLA מפחית משמעותית את גודל KVCache", ציין חוקר מטכנולוגיית צ'ואנג'ינג בניתוח לבדיקת טכנולוגיית AI. בסך הכל, ההצלחה של Deepseek טמונה בשילוב של טכנולוגיות שונות, ולא רק אחת אחת. מבפנים בתעשייה משבחים את יכולות ההנדסה של צוות DeepSeek, ומציין את מצוינותם בהכשרה מקבילה ואופטימיזציה של מפעילים, ומשיג תוצאות פורצות דרך על ידי זיקוק כל פרט ופרט. גישת הקוד הפתוח של Deepseek מתדלקת עוד יותר את ההתפתחות הכוללת של דגמים גדולים, וצפוי שאם מודלים דומים יתרחבו לתמונות, סרטונים ועוד, הדבר יעודד משמעותית את הביקוש בכל הענף.

הזדמנויות לשירותי נימוק של צד שלישי

הנתונים מצביעים על כך שמאז שחרורו, Deepseek צברה 22.15 מיליון משתמשים פעילים מדי יום (DAU) תוך 21 יום בלבד, והשיגה 41.6% מבסיס המשתמשים של CHATGPT ועברו על 16.95 מיליון משתמשים פעילים מדי יום של Doubao, ובכך הפכו לאפליקציה הצמיחה המהירה ביותר ברחבי העולם, מה שממלא את חנות האפליקציות של אפל ב -157 מדינות/אזורים. עם זאת, בעוד שמשתמשים נהרו בהמוניהם, האקרים סייבר תוקפים ללא רחם את אפליקציית DeepSeek, וגרמו למתח משמעותי על שרתיה. אנליסטים בתעשייה מאמינים כי הדבר נובע בחלקו מהפרסת DeepSeek כרטיסים להכשרה תוך שהם חסרי כוח חישוב מספיק לצורך נימוק. סקירה של טכנולוגיית AI בענף הודיעה לתעשייה, "ניתן לפתור את בעיות השרת התכופות בקלות על ידי חיוב עמלות או מימון לרכישת מכונות נוספות; בסופו של דבר, זה תלוי בהחלטות של DeepSeek." זה מציג סחר בהתמקדות בטכנולוגיה לעומת ייצור. Deepseek הסתמכה במידה רבה על כימות קוונטי לצורך תחום עצמי, לאחר שקיבלה מעט מימון חיצוני, וכתוצאה מכך לחץ תזרים מזומנים נמוך יחסית וסביבה טכנולוגית טהורה יותר. נכון לעכשיו, לאור הבעיות שהוזכרו לעיל, משתמשים מסוימים קוראים ל- DeepSeek במדיה החברתית להעלות את ספי השימוש או להציג תכונות בתשלום כדי לשפר את נוחות המשתמש. בנוסף, מפתחים החלו להשתמש ב- API הרשמי או ממשקי API של צד שלישי לאופטימיזציה. עם זאת, הפלטפורמה הפתוחה של DeepSeek הודיעה לאחרונה, "משאבי השרת הנוכחיים הם נדירים, וטעינה של שירותי API הושעו."

 

זה ללא ספק פותח הזדמנויות נוספות עבור ספקי צד ג 'בענף התשתיות AI. לאחרונה, מספר ענקי ענן מקומיים ובינלאומיים השיקו את ה- API של Deepseek - Assoverseas Giants Microsoft ואמזון היו מהראשונים שהצטרפו בסוף ינואר. המנהיג המקומי, Huawei Cloud, עשה את הצעד הראשון, ושחרר את שירותי ההנמקה של Deepseek R1 ו- V3 בשיתוף פעולה עם זרימה מבוססת סיליקון ב -1 בפברואר. דיווחים מתוך סקירת טכנולוגיות AI מצביעים על כך ששירותי זרימה מבוססי סיליקון ראו זרם של משתמשים, למעשה "מתרסק" את הפלטפורמה. שלוש חברות הטכנולוגיה הגדולות-BAT (Baidu, Alibaba, Tencent) ו- Bytedance-פרסמו גם הצעות בעלות נמוכה, זמן מוגבל, החל מה -3 בפברואר, והזכירו את מלחמות המחירים של ספקי הענן בשנה שעברה שהוצגו על ידי השקת ה- V2 של Deepseek, שם החלה Deepseek "מחיר בוטצ'ר." הפעולות המטורפות של ספקי הענן מהדהדים את הקשרים החזקים המוקדמים יותר בין מיקרוסופט Azure לפתוח, שם בשנת 2019, מיקרוסופט השקיעה השקעה משמעותית של מיליארד דולר בפתוח וקצרה יתרונות לאחר ההשקה של צ'טגפט בשנת 2023. עם זאת, מערכת יחסים קרובה זו התחילה להתעלם לאחר מטא-סור-סור לאלה לאלמה, ומאפשרת את הדגמים של מיקרוסופט. במקרה זה, Deepseek לא רק עלה על צ'אט בג'ונקציות של חום מוצרים, אלא גם הציגה דגמי קוד פתוח בעקבות שחרור ה- O1, בדומה להתרגשות סביב תחייתו של לאמה של GPT-3.

 

במציאות, ספקי ענן ממקמים את עצמם גם כשערי תנועה ליישומי AI, כלומר העמקת קשרים עם מפתחים מתורגמת ליתרונות מקדימים. מהדיווחים עולה כי ל- Baidu Smart Cloud היו למעלה מ -15,000 לקוחות המשתמשים בדגם DeepSeek דרך פלטפורמת Qianfan ביום ההשקה של הדגם. בנוסף, מספר חברות קטנות יותר מציעות פתרונות, כולל זרימה מבוססת סיליקון, טכנולוגיית Luchen, Chuanjing Technology וספקי AI Infra שונים שהשיקו תמיכה במודלים של DeepSeek. סקירת טכנולוגיות AI נודע כי הזדמנויות האופטימיזציה הנוכחיות לפריסות מקומיות של DeepSeek קיימות בעיקר בשני תחומים: האחת מיטוב את מאפייני הדלילות של מודל MOE באמצעות גישה הנמקה מעורבת לפריסת מודל MOE של 671 מיליארד פרמטר באופן מקומי תוך שימוש בהיבריד היברידי GPU/CPU. בנוסף, אופטימיזציה של MLA חיונית. עם זאת, שני הדגמים של DeepSeek עדיין מתמודדים עם אתגרים מסוימים באופטימיזציה של הפריסה. "בגלל גודל הדגם ופרמטרים רבים, האופטימיזציה אכן מורכבת, במיוחד עבור פריסות מקומיות בהן השגת איזון אופטימלי בין ביצועים לעלות תהיה מאתגרת", הצהיר חוקר מטכנולוגיית צ'ואנג'ינג. המכשול המשמעותי ביותר טמון בהתגברות על גבולות יכולת הזיכרון. "אנו מאמצים גישה שיתוף פעולה הטרוגני לשימוש במלואם במעבדים ומשאבים חישוביים אחרים, ומציבים רק את החלקים הלא-שותפים של מטריצת MOE הדלילה ב- CPU/DRAM לצורך עיבוד באמצעות מפעילי CPU בעלי ביצועים גבוהים, בעוד שהחלקים הצפופים נשארים ב- GPU," הוא הסביר עוד יותר. מהדיווחים עולה כי מסגרת הקוד הפתוח של צ'ואנג'ינג Ktransformers מזריקה בעיקר אסטרטגיות ומפעילים שונים ליישום השנאים המקורי באמצעות תבנית, ומשפרת משמעותית את מהירות ההסקה בשיטות כמו Cudagraph. Deepseek יצרה הזדמנויות לסטארט -אפים אלה, ככל שהיתרונות הצמיחה מתבררים; חברות רבות דיווחו על צמיחת לקוחות בולטת לאחר השקת ה- API של DeepSeek, וקיבלו פניות מלקוחות קודמים המחפשים אופטימיזציות. מבקרי התעשייה ציינו, "בעבר, קבוצות לקוחות שהוקמו במקצת היו נעולות לעתים קרובות בשירותים הסטנדרטיים של חברות גדולות יותר, כבול בחוזקה על ידי יתרונות העלויות שלהן בגלל קנה מידה. עם זאת, לאחר השלמת פריסת Deepseek-R1/V3 לפני פסטיבל האביב, קיבלנו לפתע בקשות שיתוף פעולה מכמה לקוחות ידועים, ואף פעם לקוחות DORMANT יזמו את הקשר שלנו" נכון לעכשיו, נראה כי DeepSeek הופך את ביצועי ההסקה של המודל לקריטיים יותר ויותר, ועם אימוץ רחב יותר של מודלים גדולים, הדבר ימשיך להשפיע באופן משמעותי על ההתפתחות בענף ה- AI Infra. אם ניתן לפרוס דגם ברמת העמוק באופן מקומי בעלות נמוכה, הוא היה מסייע מאוד למאמצי טרנספורמציה דיגיטלית ממשלתית וארגונית. עם זאת, האתגרים נמשכים, שכן לקוחות מסוימים עשויים להחזיק בציפיות גבוהות ביחס ליכולות מודל גדולות, מה שמבהיר יותר כי איזון הביצועים והעלות הופך חיוני בפריסה מעשית. 

כדי להעריך האם DeepSeek טוב יותר מ- Chatgpt, חיוני להבין את ההבדלים העיקריים, חוזקותיהם ומקרי השימוש שלהם. הנה השוואה מקיפה:

תכונה/היבט DeepSeek צ'אט
בַּעֲלוּת פותח על ידי חברה סינית פותח על ידי Openai
מודל המקור קוד פתוח קנייני
עֲלוּת חינם לשימוש; אפשרויות גישה זולות יותר של API מנוי או תמחור לתשלום לפי שימוש
התאמה אישית ניתן להתאמה אישית מאוד, ומאפשר למשתמשים לצבוט ולבנות עליו ההתאמה האישית המוגבלת זמינה
ביצועים במשימות ספציפיות מצטיין באזורים מסוימים כמו ניתוח נתונים ואחזור מידע רב -תכליתי עם ביצועים חזקים בכתיבה יצירתית ומשימות שיחה
תמיכה בשפה התמקדות חזקה בשפה הסינית ותרבות תמיכה בשפה רחבה אך ארה"ב-מרכזית
עלות אימונים עלויות אימונים נמוכות יותר, המותאמות ליעילות עלויות אימונים גבוהות יותר, הדורשות משאבים חישוביים משמעותיים
וריאציה של תגובה עשוי להציע תגובות שונות, אולי מושפעות מהקשר גיאו -פוליטי תשובות עקביות המבוססות על נתוני אימונים
קהל יעד מכוון למפתחים וחוקרים לרצות גמישות מכוון למשתמשים כלליים המחפשים יכולות שיחה
השתמש במקרים יעיל יותר לייצור קוד ומשימות מהירות אידיאלי ליצירת טקסט, לענות על שאילתות ולהעסק בדיאלוג

נקודת מבט ביקורתית על "שיבוש nvidia"

נכון לעכשיו, מלבד Huawei, כמה יצרני שבבים ביתיים כמו חוטי מור, Muxi, Biran Technology ו- Tianxu Zhixin מסתגלים גם הם לשני הדגמים של Deepseek. יצרנית שבבים אמרה ל- AI Technology Review, "המבנה של Deepseek מדגים חדשנות, ובכל זאת הוא נותר LLM. ההתאמה שלנו ל- DeepSeek מתמקדת בעיקר ביישומי הנמקה, מה שהופך את היישום הטכני לפשוט ומהיר למדי." עם זאת, גישת MOE דורשת דרישות גבוהות יותר מבחינת אחסון והפצה, יחד עם הבטחת תאימות בעת פריסה עם שבבים מקומיים, ומציגה אתגרים הנדסיים רבים הזקוקים לפיתרון במהלך ההסתגלות. "נכון לעכשיו, כוח חישוב מקומי אינו תואם את NVIDIA בשימושיות ויציבות, הדורש השתתפות מקורית במפעל להגדרת סביבת תוכנה, פתרון בעיות ואופטימיזציה לביצועים יסודיים", אמר מתרגל התעשייה על סמך ניסיון מעשי. במקביל, "בשל סולם הפרמטרים הגדול של DeepSeek R1, כוח חישוב מקומי מחייב יותר צמתים להקבלה. בנוסף, מפרטי החומרה המקומית עדיין מאחור במקצת; למשל, Huawei 910B כרגע לא יכול לתמוך בהספק FP8 שהוצג על ידי Deepseek." אחד משיאי הדגם של DeepSeek V3 הוא הצגת מסגרת אימונים מדויקת של FP8, אשר אושרה ביעילות על מודל גדול במיוחד, המסמן הישג משמעותי. בעבר, שחקנים גדולים כמו מיקרוסופט ו- NVIDIA הציעו עבודה קשורה, אך ספקות מתעכבים בענף ביחס לכדאיות. מובן כי בהשוואה ל- INT8, היתרון העיקרי של FP8 הוא שכימות שלאחר האימונים יכול להשיג דיוק כמעט ללא הפסד תוך שיפור משמעותי מהירות ההסקה. בהשוואה ל- FP16, FP8 יכול לממש עד פעמיים תאוצה ב- H20 של NVIDIA ולמעלה פי 1.5 פעמים בהאצה ב- H100. ראוי לציין כי ככל שהדיונים סביב מגמת הכוח החישובי המקומי פלוס מודלים מקומיים זוכים לתנופה, ספקולציות אם ניתן לשבש NVIDIA, והאם ניתן לעקוף את חפיר הקודה הופכת להיות נפוצה יותר ויותר. עובדה אחת בלתי ניתנת להכחשה היא ש- Deepseek אכן גרמה לירידה משמעותית בערך השוק של NVIDIA, אך שינוי זה מעלה שאלות הנוגעות לשלמות הכוח החישובית המתקדמת של NVIDIA. נרטיבים שהתקבלו בעבר על הצטברות חישובית מונעת הון, ובכל זאת נותר קשה להחלפת NVIDIA בתרחישים של אימונים. ניתוח השימוש העמוק של DeepSeek ב- CUDA מראה כי גמישות - כמו שימוש ב- SM לתקשורת או לתפעל ישירות כרטיסי רשת - אינה אפשרית עבור GPUs רגילים להתאים. עמדות בתעשייה מדגישות כי החפיר של NVIDIA מקיף את כל המערכת האקולוגית של CUDA ולא סתם את CUDA עצמה, והוראות PTX (ביצוע חוט מקביל) ש- DeepSeek מעסיקה הן עדיין חלק ממערכת האקולוגית של CUDA. "בטווח הקצר, לא ניתן לעקוף את כוח החישוב של NVIDIA - זה ברור במיוחד באימונים. עם זאת, פריסת כרטיסים מקומיים לצורך נימוק תהיה קלה יחסית, כך שסביר להניח שההתקדמות תהיה מהירה יותר. ההתאמה של כרטיסים ביתיים מתמקדת בעיקר בהסקה; אף אחד לא הצליח להכשיר מודל של ביצועי Deepseek על כרטיסים ביתי בהיקף," אנליסטים של אנשי תעשיה. בסך הכל, מבחינה מסקנה, הנסיבות מעודדות את שבבי הדגם הגדולים המקומיים. ההזדמנויות עבור יצרני השבבים המקומיים בתחום ההסקה ניכרים יותר בגלל הדרישות הגבוהות ביותר של הכשרה, מה שמפריע לכניסה. אנליסטים טוענים כי פשוט רתימת כרטיסי ההסקה המקומיים די מספיקים; במידת הצורך, רכישת מכונה נוספת ניתנת לביצוע, ואילו דגמי אימונים מהווים אתגרים ייחודיים - ניהול מספר מוגבר של מכונות יכול להיות מכביד, ושיעורי שגיאות גבוהים יותר יכולים להשפיע לרעה על תוצאות האימונים. להכשרה יש גם דרישות סולם אשכול ספציפיות, בעוד שהדרישות לאשכולות להסקרה אינן מחמירות באותה מידה, ובכך מקלות את דרישות ה- GPU. נכון לעכשיו, הביצועים של כרטיס ה- H20 היחיד של NVIDIA אינם עולים על זה של Huawei או Cambrian; כוחו טמון באשכול. בהתבסס על ההשפעה הכוללת על שוק הכוח החישובי, מייסד טכנולוגיית לוצ'ן, אתה יאנג, ציין בראיון לסקירה של AI Technology, "Deepseek עשויה לערער באופן זמני את הממסד והשכירות של אשכולות חישוביים אולטרה-גדולים בהדרכה, על פי סביר להניח כי ביקוש זה על העלויות המבוססות על סביר להניח על העלויות בהן, על פי דרישה, על פי דרישה זו, על פי דרישה. ביקוש מתמשך בשוק הכוח החישובי. " בנוסף, "הביקוש המוגבר של Deepseek לשירותי נימוק וכוונון עדין תואם יותר את הנוף החישובי המקומי, בו יכולות מקומיות חלשות יחסית, ומסייעות להפחתת פסולת ממקורות סרק פוסט-אשכול; זה יוצר הזדמנויות בר-קיימא עבור יצרנים ברמות שונות של המערכת האקולוגית החישובית הביתית." Luchen Technology שיתפה פעולה עם Huawei Cloud כדי להשיק מסדרת Deepseek R1 APIs APIS ושירותי הדמיה בענן המבוססים על כוח חישוב מקומי. אתה יאנג הביע אופטימיות לגבי העתיד: "DeepSeek מחדיר אמון בפתרונות המיוצרים מקומיים, ועידוד התלהבות והשקעה רבה יותר ביכולות חישוב מקומיות קדימה."

微信图片 _20240614024031.jpg1

מַסְקָנָה

האם DeepSeek הוא "טוב יותר" מאשר chatgpt תלוי בצרכים וביעדים הספציפיים של המשתמש. עבור משימות הזקוקות לגמישות, עלות נמוכה והתאמה אישית, DeepSeek עשוי להיות עדיף. לצורך כתיבה יצירתית, חקירה כללית וממשקי שיחה ידידותיים למשתמש, CHATGPT עשויה לקחת את ההובלה. כל כלי משרת מטרות שונות, כך שהבחירה תהיה תלויה מאוד בהקשר בו הם משמשים.

מצא פתרון כבל ELV

כבלי שליטה

עבור BMS, אוטובוס, כבל מכשור.

מערכת כבלים מובנית

רשת ונתונים, כבל סיבים אופטיים, כבל תיקון, מודולים, לוחית פנים

2024 תערוכות ואירועים סקירת

אפריל 16th-18, 2024 אנרגיה אמצעית-מזרח בדובאי

אפריל 18-18, 2024 Securika במוסקבה

מאי 9, 2024 מוצרים וטכנולוגיות חדשות אירוע השקה בשנגחאי

אוקטובר 22-25, 2024 סין אבטחה בבייג'ינג

נובמבר 19-20, 2024 KSA עולם מחובר


זמן ההודעה: פברואר -10-2025