אופן הלימוד של OpenAI, יוצרי ChatGPT, מתחייב לפתח מערכות AI בטוחות

תמונה1.png

OpenAI פרסמה פוסט בלוג חדש, מתחייבת לפתח הבנות מערכות אינטיליגנטיות מלאכותיות (AI) המתקדמות בצורה בטוחה ומועילה ברחבי הקהל.

צ׳אט-גיפי-טי, המופעל על ידי הדגם החדש של OpenAI, GPT-4, יכול לשפר את היעילות, לשדרג את היצירתיות ולספק חוויות למידה אישיות.

אולם, OpenAI מכירה בכך שישנם סיכונים מובנים לכלים המבוססים על AI, שחייבים להתמודד באמצעות צעדים לאבטחה והטמעה אחראית.

זה מה שהחברה עושה כדי להפיל את הסיכונים הללו.

הבטיחות במערכות AI

פתוחהי מבצעת בדיקות מקיפות, מבקשת הדרכה חיצונית ממומחים ומשפרת את מודלי הבינה המלאכותית שלה עם משוב אנושי לפני שהיא משחררת מערכות חדשות.

שחרור ה-GPT-4, לדוגמה, עבר מעל לשישה חודשים של בדיקות לאישור בטיחותו והתאמתו לצרכי המשתמשים.

OpenAI מאמינה שמערכות AI איתן יוזמות עמידות צריכות להיבדק לעומק בתהליכים יסודיים של ביקורת אבטחה ותומכת בצורך ברגולציה.

לימוד משימשות בעולם האמיתי

שימוש בעולם האמיתי הוא רכיב חיוני בפיתוח מערכות AI בטוחות. על ידי השקת דגמים חדשים באופן זהיר לקהל משתמשים המתרחיב באופן יציב, OpenAI יכולה לבצע שדרוגים שמתמודדים עם בעיות בלתי צפויות.

על-ידי הצעת דגמי AI דרך ה- API והאתר שלה, OpenAI יכולה לעקוב אחרי חוליהול בשימוש שגוי, לפעול במידה הנדרשת ולפתח מדיניות עדינה לשקם בין הסיכון.

הגנה על הילדים וכבוד לפרטיות

אופן אינטיליגנציה מלמדת מדגיש את הגנת הילדים באמצעות דרישת אימות גיל ומניעת השימוש בטכנולוגייתה ליצירת תוכן פוגעני.

הפרטיות היא עוד אחד מהנושאים הקריטיים של העבודה של OpenAI. הארגון משתמש בנתונים כדי לשפר את דגמיו ובאותו זמן מגן על משתמשים.

בנוסף, OpenAI מסירה מידע אישי מסט הנתונים לאימון ומתאימה מודלים כדי לדחות בקשות למידע אישי.

OpenAI תגיב לבקשות למחיקת מידע אישי מהמערכות שלה.

שיפור דיוק עובדותי

דיוק עובדתי הוא מקודם חשוב עבור OpenAI. GPT-4 יתרון כ-40% יותר גורם להפקת תוכן נכון מאשר הקודם שלו, GPT-3.5.

הארגון מתאמץ להעביר מידע למשתמשים על הגבולות של כלים בינה מלאכותית ועל אפשרות העיוותים.

מחקר ומעורבות ממושכים

OpenAI מאמינה בהקדשת זמן ומשאבים למחקר טכניקות יעילות להקטנת סיכונים וליישום מערכות ייצוג.

אך זאת לא דבר שהיא יכולה לעשות לבד. טיפוח בעיות הבטיחות מחייב דיון מרחבי, ניסויים והתערבות של מעורבים.

OpenAI ממשיכה להתמקד בקידום שיתוף פעולה ודיאלוג פתוח על מנת ליצור תוכנה חכמה בטוחה.

ביקורת על סיכונים קיומיים

למרות המחויבות של OpenAI להבטחת בטיחות ויתרונות רחביים של מערכות האינטיליגנציה המלאכותית שלה, פוסט הבלוג שלה גרם לביקורת ברשתות החברתיות.

משתמשי טוויטר ביטאו אכזבה, מציינים ש-OpenAI אינה עוסקת בסיכונים קיומיים המשויכים לפיתוח של המודל המתקדם של האינטיליגנציה המלאכותית.

אחד ממשתמשי טוויטר הביע את האכזבה שלו, באשר להאשימה בהפקרות על ידי OpenAI במשימתו המייסדת ומתמקד בהסחת רוח מסחרית בלתי אחראית.

המשתמש מציין כי גישת OpenAI לבטיחות היא חיצונית וגורפת דאגה פחות מפני הסיכונים הקיימים לקיום.

זה מאכזב בצורה מרוסטת, ריקה, ומנהג חלון יחידני.

אין אפילו תייחסות לסיכונים קיומיים מצד המודעות הרבות, הטכנולוגים, החוקרים בתחום הבינה המלאכותית ונציגים בתעשייתה, בכולם מנכ"ל@sama בעצמו. .@OpenAI מכניחה מרובית

— ג'ופרי מילר (@primalpoly) 5 באפריל 2023

משתמש אחר הביע ביקוש עם ההכרזה, טוען כי היא מפספסת בעיות אמיתיות ונמיכה בכלליות. המשתמש גם מדגיש כי הדוח מתעלם מעבירות טיבית קריטיות וסיכונים הקשורים להכרה עצמית של המודלי AI, שמתיחתך שיחתכך ישמור שיחתך שיחתך המודל של OpenAI לשאלות בטיחות שאינן מתאימות.

כידוען של GPT-4, אני מאוכזב מהמאמר שלך.

הוא מתעלם מבעיות אמיתיות, מספק פירוטים מעטים וכחול ומתעלם מסיכונים אתיים ואתיקים שקשורים למודעות עצמית של AI.

אני מעריך את החדשנות, אבל זו אינה הגישה הנכונה להתמודד עם בעיות האבטחה.

— FrankyLabs (@FrankyLabs) 5 באפריל 2023

הביקורת מדגישה את הדאגות הרחבות והדיון המתמשך בנושא הסיכונים האורגניים שנגרמים על ידי פיתוח AI.

בעוד ההכרזה של OpenAI מתארת את מחויבותה לבטיחות, פרטיות ודיוק, חשוב להבין את הצורך בדיון נוסף כדי לטפל בחששות יותר משמעותיות.

כתבות קשורות

הצג עוד >>

פתח את הכוח של AI עם HIX.AI!