Meningkatkan Asisten Google: 'Lihat dan Bicara', frasa yang lebih cepat, pengenalan warna kulit yang ditingkatkan, dan pengembangan di masa mendatang

Ikon waktu membaca 4 menit Baca


Pembaca membantu dukungan MSpoweruser. Kami mungkin mendapat komisi jika Anda membeli melalui tautan kami. Ikon Keterangan Alat

Baca halaman pengungkapan kami untuk mengetahui bagaimana Anda dapat membantu MSPoweruser mempertahankan tim editorial Baca lebih lanjut

Kami melihat banyak peningkatan di Asisten Google baru-baru ini. Salah satu hal terbaik untuk disorot adalah pejabat perusahaan pengumuman fitur baru aplikasi perangkat lunak yang disebut "Lihat dan Bicara" selama keynote Google I/O-nya. Meskipun demikian, ada juga detail lain yang layak disebutkan dan diapresiasi, terutama jika Anda sangat mengandalkan Asisten dalam aktivitas sehari-hari Anda. Ini termasuk peningkatan Google Assitant dalam hal mengenali warna kulit dan perluasan perpustakaan frasa cepatnya.

Baru-baru ini, fitur Look and talk baru yang diperkenalkan oleh Google terlihat diluncurkan secara luas ke semua orang Nest Hub Maks pengguna di AS. Ide utama di baliknya sederhana: membuat interaksi pengguna dengan perangkat lebih mudah dan, yang terpenting, lebih alami. Ini menyederhanakan pengiriman perintah ke Asisten Google dengan menghapus frasa isyarat "Hai Google" setiap kali seseorang perlu mengaktifkan Nest Hub Max. Fitur ini bekerja melalui koordinasi berbagai teknologi yang terintegrasi oleh Google. Secara khusus, Look and Talk menggunakan kemampuan Face Match dan Voice Match dari sistem, membantunya menentukan kapan harus merespons.

Dengan menggunakan fitur Look and Talk, pengguna hanya perlu berdiri tidak lebih dari 5 kaki dari Nest Hub Max, menatap, dan memerintahkan Google Asisten. “Misalnya saya harus memperbaiki wastafel dapur saya yang bocor,” kata Asisten Wakil Presiden Google Sissie Hsiao, mencoba menjelaskan cara kerja Look and Talk di postingan blog. “Saat saya masuk ke ruangan, saya hanya bisa melihat Nest Hub Max saya dan mengatakan 'Tampilkan tukang ledeng di dekat saya' — tanpa harus mengatakan 'Hai Google' terlebih dahulu."

Hsiao juga menambahkan bahwa video interaksi yang dianalisis oleh Asisten "diproses sepenuhnya di perangkat", memastikan bahwa data Anda tidak dibagikan dengan Google atau aplikasi pihak ketiga lainnya. Hsiao juga menekankan bahwa fitur baru ini menghormati privasi, jadi Anda memiliki opsi untuk ikut serta atau tidak menggunakannya kapan saja. Awalnya dinonaktifkan, dan Anda harus mengaktifkannya melalui aplikasi Google Home. Cukup buka pengaturan perangkat Nest Hub Max, lalu ke "Pengenalan & berbagi", lalu ke menu "Pencocokan wajah", dan aktifkan pengaturan.

“Ada banyak hal yang terjadi di balik layar untuk mengenali apakah Anda benar-benar melakukan kontak mata dengan perangkat Anda daripada hanya melihatnya sekilas,” catat Hsiao. “Faktanya, dibutuhkan enam model pembelajaran mesin untuk memproses lebih dari 100 sinyal dari kamera dan mikrofon — seperti kedekatan, orientasi kepala, arah pandangan, gerakan bibir, kesadaran konteks, dan klasifikasi niat — semuanya secara real time.”

Di sisi lain, mengingat Look and Talk bekerja melalui Face Match, penting untuk dicatat bahwa Google memastikan untuk membuatnya efektif untuk beragam pengguna dengan memasukkan teknologi Real Tone yang diluncurkan tahun lalu. Hal ini memungkinkan kamera Nest Hub Max bekerja secara efisien di berbagai warna kulit. Selain itu, perusahaan berjanji untuk mendorong lebih jauh dengan memanfaatkan "Skala Warna Kulit Biksu" untuk membantu mesin memahami gambar secara lebih efisien.

Selain itu, dengan harapan mengurangi kebutuhan untuk mengucapkan frasa isyarat “Hai Google” lebih banyak, Google juga menyertakan lebih banyak frase cepat di Nest Hub Max. Ini membuat segalanya lebih sederhana bagi pengguna tanpa harus menatap kamera perangkat atau berdiri di depannya. Seperti Look and Talk, Voice Match yang mengatur kerja frase cepat juga bisa dimatikan dan dihidupkan.

Sementara peningkatan yang diungkapkan oleh Google membuat Asisten lebih memuaskan kali ini, Google mengatakan bahwa mereka masih memiliki lebih banyak rencana untuk perangkat lunak di masa depan. Ini termasuk memberikan model bicara dan bahasa yang lebih baik untuk "memahami nuansa ucapan manusia." Sampai sekarang, perusahaan sedang mengerjakan chip Tensor yang direkayasa khusus untuk memungkinkan Asisten menangani tugas pembelajaran mesin di perangkat secepat mungkin. Setelah berhasil, Google mengatakan bahwa teknologi yang menjanjikan ini akan membantu Asisten mendapatkan pemahaman yang lebih baik tentang ucapan manusia bahkan dengan adanya pengisi yang tidak perlu (seperti "uhm" atau "ahh") dan berhenti saat seseorang berbicara.