שיפור של Google Assistant: 'הסתכל ודיבר', ביטויים מהירים נוספים, זיהוי משופר של גוון העור ופיתוחים עתידיים

סמל זמן קריאה 4 דקות לקרוא


קוראים עוזרים לתמוך ב-MSpoweruser. אנו עשויים לקבל עמלה אם תקנה דרך הקישורים שלנו. סמל טיפים

קרא את דף הגילויים שלנו כדי לגלות כיצד תוכל לעזור ל-MSPoweruser לקיים את צוות העריכה קראו עוד

לאחרונה אנו רואים שיפורים רבים ב-Google Assistant. אחד הדברים הטובים ביותר להדגיש הוא הרשמי של החברה הודעה של התכונה החדשה של יישום התוכנה שנקראת "Look and Talk" במהלך ההרצאה המרכזית שלו ב-Google I/O. עם זאת, ישנם גם פרטים נוספים שכדאי להזכיר ולהעריך, במיוחד אם אתה סומך מאוד על ה-Assistant בפעילויות היומיומיות שלך. אלה כוללים את השיפור של Google Assitant במונחים של זיהוי גווני עור והרחבת ספריית הביטויים המהירים שלו.

לאחרונה, תכונת ה- Look and talk החדשה שהציגה גוגל מתפרסמת באופן נרחב לכולם מקס 'נסט מקס' משתמשים בארה"ב. הרעיון המרכזי מאחורי זה פשוט: להפוך את האינטראקציות של המשתמשים עם המכשיר לפשוטות יותר ובעיקר, יותר טבעיות. זה מפשט את מסירת הפקודות ל-Google Assitant על ידי הסרת ביטוי הרמז "Hey Google" בכל פעם שאדם צריך להפעיל את Nest Hub Max. התכונה פועלת באמצעות תיאום של טכנולוגיות שונות המשולבות על ידי גוגל. באופן ספציפי, Look and Talk משתמש ביכולות Face Match ו- Voice Match של המערכת, ועוזר לה לקבוע מתי להגיב.

באמצעות תכונת המראה והדבר, המשתמש רק צריך לעמוד במרחק של לא יותר מ-5 מטרים מה-Nest Hub Max, לבהות ולפקד על עוזר Google. "בוא נגיד שאני צריך לתקן את כיור המטבח הדולף שלי", אומרת עוזרת סגנית נשיא גוגל סיסי הסיאו, מנסה להסביר איך Look and Talk עובד בפוסט בבלוג. "כשאני נכנס לחדר, אני יכול פשוט להסתכל על Nest Hub Max שלי ולהגיד 'הצג שרברבים בקרבתי' - מבלי לומר קודם 'היי גוגל'".

Hsiao גם מוסיף שהסרטון של האינטראקציות המנותח על ידי ה-Assistant "מעובד כולו במכשיר", מה שמבטיח שהנתונים שלך אינם משותפים עם גוגל או כל אפליקציה אחרת של צד שלישי. Hsiao גם מדגישה כי התכונה החדשה מכבדת פרטיות, כך שיש לך אפשרות להצטרף או לצאת ממנה בכל עת. הוא מושבת בתחילה, ואתה צריך להפעיל אותו באמצעות אפליקציית Google Home. פשוט עבור אל הגדרת המכשיר של Nest Hub Max, לאחר מכן אל "זיהוי ושיתוף", ולאחר מכן לתפריט "Face match" והפעל את ההגדרה.

"יש הרבה מה שקורה מאחורי הקלעים כדי לזהות אם אתה באמת יוצר קשר עין עם המכשיר שלך במקום רק לתת לו מבט חולף", מציין Hsiao. "למעשה, נדרשים שישה מודלים של למידת מכונה כדי לעבד יותר מ-100 אותות הן מהמצלמה והן מהמיקרופון - כמו קרבה, כיוון ראש, כיוון המבט, תנועת שפתיים, מודעות להקשר וסיווג כוונות - והכל בזמן אמת".

מצד שני, בהתחשב בכך ש-Look and Talk עובד דרך Face Match, חשוב לציין שגוגל הקפידה להפוך אותה לאפקטיבית למגוון משתמשים על ידי הכללת הטכנולוגיה Real Tone שהשיקה בשנה שעברה. זה מאפשר למצלמת Nest Hub Max לעבוד ביעילות על פני גווני עור שונים. בנוסף, החברה מבטיחה לדחוף דברים עוד יותר על ידי שימוש ב"סולם גוון העור של הנזיר" על מנת לעזור למכונה להבין תמונות בצורה יעילה יותר.

יתרה מכך, בתקווה לצמצם את הצורך לומר יותר את ביטוי הרמז "היי גוגל", גוגל כוללת גם יותר ביטויים מהירים ב-Nest Hub Max. זה הופך את הדברים לפשוטים יותר עבור המשתמשים מבלי לבהות במצלמת המכשיר או לעמוד מולה. כמו ה-Look and Talk, ניתן לכבות ולהפעיל גם את Voice Match שמנהל את עבודת הביטויים המהירים.

בעוד שהשיפורים שחשפה גוגל הופכים את האסיסטנט ליותר מספק הפעם, גוגל אומרת שעדיין יש לה תוכניות נוספות לתוכנה בעתיד. זה כולל מתן מודלים טובים יותר לדיבור ולשפה כדי "להבין את הניואנסים של הדיבור האנושי". נכון לעכשיו, החברה עובדת על שבב Tensor מהונדס בהתאמה אישית כדי לאפשר ל-Assistant לטפל במשימות למידת מכונה במכשיר בצורה המהירה ביותר. לאחר שהצליחה, גוגל אומרת שהטכנולוגיה המבטיחה הזו תעזור ל-Assistant להבין טוב יותר את הדיבור האנושי גם עם נוכחותם של חומרי מילוי מיותרים (כמו "אהמ" או "אהה") ולהשהות כאשר מישהו מדבר.

השאירו תגובה

כתובת הדוא"ל שלך לא תפורסם. שדות חובה מסומנים *