עבור BMS, אוטובוס, כבל מכשור.

גרוק 3 הותיר אותי נדהם לחלוטין. לאחר שצפיתי באירוע ההשקה, התרשמתי בתחילה מיכולות הנתונים החזקות שלה ומדדי ביצועים גבוהים. עם זאת, עם שחרורו הרשמי, המשוב על המדיה החברתית וחוויותיי שלי חשף סיפור אחר. בעוד שיכולות הכתיבה של גרוק 3 חזקות ללא ספק, חוסר הגבולות המוסריים שלה מדאיג. זה לא רק מתמודד עם נושאים פוליטיים עם נועזות בלתי מרוסנת, אלא גם מציע תגובות מקוממות לדילמות אתיות כמו בעיית העגלה.
מה שבאמת הושיט את גרוק 3 לאור הזרקורים היה יכולתו לייצר תוכן בוגר מפורש. הפרטים גרפיים מכדי לשתף, אך די אם נאמר, התוכן היה כה מפורש עד ששיתוף זה יסתכן בהשעיית חשבונות. יישור ה- AI לפרוטוקולי בטיחות נראה לא תקין כמו יכולת החיזוי הידועה לשמצה של יוצרו. אפילו הערות תמימות המכילות מילות מפתח הקשורות לגרוק 3 ותכנים מפורשים זכו לתשומת לב מסיבית, כאשר קטעי התגובות מוצפים בבקשות להדרכות. זה מעלה שאלות רציניות לגבי מוסר, אנושיות ומנגנוני הפיקוח במקום.

מדיניות קפדנית נגד NSFW
למרות שהשימוש ב- AI לצורך יצירת תוכן למבוגרים אינו חדש-מכיוון ש- GPT-3.5 הכניס את AI למיינסטרים בשנת 2023, כל מהדורה חדשה של מודל AI חלה מהמהרה מצד בודקי הטכנולוגיה וגם מהחובבים המקוונים-המקרה של גרוק 3 הוא שופע במיוחד. קהילת AI תמיד מיהרה לנצל דגמים חדשים לתוכן למבוגרים, וגרוק 3 אינו יוצא מן הכלל. פלטפורמות כמו Reddit ו- Arxiv עמדות על מדריכים כיצד לעקוף מגבלות ולייצר חומר מפורש.
חברות AI הגדולות שואפות ליישם ביקורות מוסריות מחמירות כדי לרסן שימוש לרעה כזה. לדוגמה, Midjourney, פלטפורמה מובילה של ייצור תמונות AI, יש מדיניות קפדנית נגד תוכן NSFW (לא בטוח לעבודה), כולל תמונות אלימות, עירומות או מיניות. הפרות יכולות להוביל לאיסורי חשבון. עם זאת, אמצעים אלה נכללים לעתים קרובות כאשר המשתמשים מוצאים דרכים יצירתיות לעקוף מגבלות, תרגול המכונה "שבירת כלא".
הביקוש לתוכן למבוגרים הוא תופעה גלובלית ונצחית, ו- AI רק סיפקה פורקן חדש. לאחרונה, אפילו Openai הרפה את חלק ממגבלות התוכן שלה בלחצי צמיחה, למעט תוכן המעורב קטינים, שנותרו אסורים בהחלט. שינוי זה הפך את האינטראקציות עם AI יותר דמוי אנושי ומרתק, כפי שמעידים התגובות הנלהבות ב- Reddit.

ההשלכות האתיות של AI לא קשורה הן עמוקות
עם זאת, ההשלכות האתיות של AI לא קשור הן עמוקות. בעוד ש- AI עם רוח חופשית עשוי לספק דרישות משתמשים מסוימות, הוא גם מכיל צד אפל. מערכות AI מיושרות בצורה לא טובה ונבדקות באופן לא מספיק יכולות לייצר לא רק תוכן למבוגרים אלא גם דיבור שנאה קיצוני, קונפליקטים אתניים ואלימות גרפית, כולל תוכן הכרוך בקטינים. סוגיות אלה מתעלות על תחום החופש ונכנסים לשטח של הפרות משפטיות ומוסריות.
איזון יכולות טכנולוגיות לשיקולים אתיים הוא קריטי. ההרפיה ההדרגתית של Openai של מגבלות תוכן, תוך שמירה על מדיניות אפס סובלנות כלפי קווים אדומים מסוימים, מדגימה את האיזון העדין הזה. באופן דומה, DeepSeek, למרות הסביבה הרגולטורית הקפדנית שלה, רואה משתמשים מוצאים דרכים לדחוף גבולות, מה שמביא עדכונים רציפים למנגנוני הסינון שלה.

אפילו אלון מאסק, הידוע במיזמים הנועזים שלו, לא סביר שיאפשר לגרוק 3 ספירלה לצאת משליטה. המטרה הסופית שלו היא מסחור גלובלי ומשוב נתונים, לא קרבות רגולטוריים קבועים או זעקה ציבורית. אמנם אני לא מתנגד לשימוש ב- AI לתוכן למבוגרים, אך חובה לבסס סקירת תוכן ברורה, סבירה ותואמת חברתית ותקנים אתיים.

מַסְקָנָה
לסיכום, בעוד ש- AI חופשי לחלוטין עשוי להיות מסקרן, הוא אינו בטוח. פגיעה באיזון בין חדשנות טכנולוגית לאחריות אתית חיונית לפיתוח בר -קיימא של AI.
נקווה שהם מנווטים בדרך זו בטיפול.
כבלי שליטה
מערכת כבלים מובנית
רשת ונתונים, כבל סיבים אופטיים, כבל תיקון, מודולים, לוחית פנים
אפריל 16th-18, 2024 אנרגיה אמצעית-מזרח בדובאי
אפריל 18-18, 2024 Securika במוסקבה
מאי 9, 2024 מוצרים וטכנולוגיות חדשות אירוע השקה בשנגחאי
אוקטובר 22-25, 2024 סין אבטחה בבייג'ינג
נובמבר 19-20, 2024 KSA עולם מחובר
זמן ההודעה: פברואר 20-2025