Google 어시스턴트 개선: '보고 말하기', 더 빠른 구문, 개선된 피부톤 인식 및 향후 개발

독서 시간 아이콘 4 분. 읽다


독자들은 MSpoweruser를 지원하는 데 도움을 줍니다. 당사의 링크를 통해 구매하시면 수수료를 받을 수 있습니다. 툴팁 아이콘

공개 페이지를 읽고 MSPoweruser가 편집팀을 유지하는 데 어떻게 도움을 줄 수 있는지 알아보세요. 자세히 보기

최근 Google 어시스턴트가 많이 개선되었습니다. 강조해야 할 가장 좋은 점 중 하나는 회사의 공식 발표 Google I/O 기조연설에서 "Look and Talk"라는 소프트웨어 응용 프로그램의 새로운 기능에 대해 설명했습니다. 그럼에도 불구하고 특히 일상 활동에서 어시스턴트에 크게 의존하는 경우 언급하고 감상할 가치가 있는 다른 세부 사항도 있습니다. 여기에는 피부 톤 인식 및 빠른 구문 라이브러리 확장 측면에서 Google 어시스턴트의 개선이 포함됩니다.

최근 Google에서 도입한 새로운 Look and Talk 기능이 모든 사용자에게 널리 배포되고 있습니다. 둥지 허브 맥스 미국 사용자. 그 배후의 주요 아이디어는 간단합니다. 사용자와 장치의 상호 작용을 보다 간단하고 무엇보다 자연스럽게 만드는 것입니다. 이렇게 하면 사람이 Nest Hub Max를 활성화해야 할 때마다 "Hey Google"이라는 큐 문구를 제거하여 Google 어시스턴트에 명령을 간편하게 전달할 수 있습니다. 이 기능은 Google이 통합한 다양한 기술의 조정을 통해 작동합니다. 특히 Look and Talk는 시스템의 Face Match 및 Voice Match 기능을 사용하여 응답 시기를 결정하는 데 도움을 줍니다.

Look and Talk 기능을 사용하면 사용자는 Nest Hub Max에서 5피트 이내의 거리에 서서 응시하고 명령하기만 하면 됩니다. 구글 지원. 블로그 게시물에서 Look and Talk의 작동 방식을 설명하기 위해 Google 보조 부사장 Sissie Hsiao는 "누수되는 주방 싱크대를 수리해야 한다고 가정해 봅시다."라고 말합니다. "방에 들어서면서 먼저 'Hey Google'이라고 말할 필요 없이 Nest Hub Max를 보고 '가까운 배관공을 보여 주세요'라고 말할 수 있습니다."

Hsiao는 또한 어시스턴트가 분석하는 상호 작용의 비디오가 "기기에서 완전히 처리"되어 데이터가 Google 또는 다른 타사 앱과 공유되지 않는다는 것을 보장한다고 덧붙입니다. Hsiao는 또한 새로운 기능이 개인 정보를 존중하므로 언제든지 선택하거나 선택 해제할 수 있다고 강조합니다. 처음에는 비활성화되어 있으며 Google Home 앱을 통해 켜야 합니다. Nest Hub Max의 기기 설정으로 이동한 다음 '인식 및 공유'로 이동한 다음 '얼굴 일치' 메뉴로 이동하여 설정을 켜면 됩니다.

Hsiao는 "무대에서 단순히 눈으로만 보는 것이 아니라 실제로 장치와 눈을 마주치고 있는지 여부를 인식하기 위해 많은 일이 진행되고 있습니다."라고 말합니다. "사실 근접성, 머리 방향, 시선 방향, 입술 움직임, 상황 인식 및 의도 분류와 같은 카메라와 마이크 모두에서 100개 이상의 신호를 실시간으로 처리하려면 XNUMX개의 머신 러닝 모델이 필요합니다."

한편 룩앤톡이 페이스매치로 작동한다는 점을 감안하면 구글은 지난해 출시한 리얼톤 기술을 포함해 다양한 사용자들에게 효과를 주었다는 점에 주목해야 한다. 이를 통해 Nest Hub Max 카메라는 다양한 피부 톤에서 효율적으로 작동할 수 있습니다. 또한 회사는 기계가 이미지를보다 효율적으로 이해할 수 있도록 "수도사 피부 톤 스케일"을 활용하여 일을 더 추진할 것을 약속합니다.

또한 큐 프레이즈 "Hey Google"을 더 많이 말할 필요성을 줄이기 위해 Google은 더 많은 것을 포함합니다. 빠른 문구 Nest Hub Max에서 이를 통해 사용자는 장치의 카메라를 쳐다보거나 카메라 앞에 서지 않고도 작업을 더 간단하게 수행할 수 있습니다. Look and Talk와 마찬가지로 퀵 프레이즈 작업을 관리하는 Voice Match도 껐다가 켤 수 있습니다.

Google이 공개한 개선 사항으로 인해 이번에는 어시스턴트가 더 만족스럽지만 Google은 앞으로 소프트웨어에 대한 계획이 더 많다고 말합니다. 여기에는 "인간 말의 뉘앙스를 이해"하기 위해 더 나은 음성 및 언어 모델을 제공하는 것이 포함됩니다. 현재 이 회사는 어시스턴트가 가능한 가장 빠른 방법으로 기기 내 머신 러닝 작업을 처리할 수 있도록 맞춤형 텐서 칩을 개발하고 있습니다. 일단 성공하면 구글은 이 유망한 기술이 불필요한 필러(예: "음" 또는 "아")가 있는 경우에도 어시스턴트가 사람의 말을 더 잘 이해하도록 돕고 누군가가 말할 때 일시 중지한다고 말합니다.

댓글을 남겨주세요.

귀하의 이메일 주소는 공개되지 않습니다. *표시항목은 꼭 기재해 주세요. *