לאחר עזיבות מנהיגות מרובות, OpenAI מפזרת את צוות הבטיחות בינה מלאכותית

סמל זמן קריאה 2 דקות לקרוא


קוראים עוזרים לתמוך ב-MSpoweruser. אנו עשויים לקבל עמלה אם תקנה דרך הקישורים שלנו. סמל טיפים

קרא את דף הגילויים שלנו כדי לגלות כיצד תוכל לעזור ל-MSPoweruser לקיים את צוות העריכה קראו עוד

הערות עיקריות

  • OpenAI פירקה את צוות הבטיחות שלה בינה מלאכותית לאחר יציאות מפתח.
  • המנהיג לשעבר לייק דאג שמחקר הבטיחות הוחלף לפיתוח מוצר.
  • OpenAI מבטיחה המשך מחקר בטיחות, אך אינטגרציה בין צוותים אינה ברורה.

OpenAI פירקה את הצוות שלה, שמוקדש לסיכוני בטיחות ארוכי טווח מ-AI מתקדם. הידיעה הזו מגיעה ימים ספורים לאחר ה עזיבה של שתי דמויות מפתח: איליה סוצקבר, מייסד שותף ומדען ראשי לשעבר, ויאן לייקה, שהיה שותף להובלת צוות Superalignment.

לייק הביע בפומבי את חששותיו מכך ש-OpenAI תעדוף פיתוח מוצרים חדשים על פני מחקר בטיחות. 

"תרבות ותהליכי הבטיחות תפסו את המושב האחורי למוצרים מבריקים."

הוא אמר שיש להקצות משאבים נוספים לניטור, מוכנות והשפעה החברתית של AGI (בינה כללית מלאכותית). לייק הביע את אמונתו ש-OpenAI צריכה לתת עדיפות לבטיחות מעל הכל.

פירוק צוות Superalignment מגיע לאחר תקופה של סערה פנימית ב-OpenAI. בנובמבר 2023, המייסד השותף סם אלטמן הודח על ידי הדירקטוריון עקב חוסר שקיפות בתקשורת. 

בעוד שבסופו של דבר אלטמן הוחזר לתפקידו, סוצקבר וחברי דירקטוריון נוספים שהתנגדו לו עזבו את החברה.

OpenAI טוענת שמחקר הבטיחות יימשך, לא ברור באיזו יעילות הוא ישולב בין צוותים שונים ללא קבוצה ייעודית המתמקדת אך ורק בהפחתת סיכונים לטווח ארוך.

החדשות הללו מגיעות לצד ההשקה של דגם ה-AI החדש של OpenAI GPT-4o ו גרסת שולחן העבודה של ChatGPT. 

רק הזמן יגיד כיצד OpenAI ינווט את האתגרים המורכבים של הבטחת פיתוח אחראי של בינה מלאכותית מתקדמת, תוך איזון המאמצים הללו עם החתירה לחדשנות.

עוד כאן.

פורום משתמשים

0 הודעות