Usługa Azure AI Search zwiększa teraz pojemność magazynu i rozmiar indeksu wektorowego. Oto, co się zmieniło

Ta aktualizacja znacznie obniża koszty.

Ikona czasu czytania 2 minuta. czytać


Czytelnicy pomagają wspierać MSpoweruser. Możemy otrzymać prowizję, jeśli dokonasz zakupu za pośrednictwem naszych linków. Ikona podpowiedzi

Przeczytaj naszą stronę z informacjami, aby dowiedzieć się, jak możesz pomóc MSPoweruser w utrzymaniu zespołu redakcyjnego Czytaj więcej

Kluczowe uwagi

  • Aplikacje RAG zostaną udostępnione w 2024 r. i będą wymagały ekonomicznego pobierania.
  • Usługa Azure AI Search usprawnia wyszukiwanie w pamięci masowej i wektorach, zachowując wydajność.
  • Uaktualnienia zapewniają lepszą wydajność i skalowalność.

Microsoft właśnie Niedawno ogłosił, że zwiększa pojemność magazynu i rozmiar indeksu wektorowego usługi Azure AI Search, popularnego narzędzia dla deweloperów opartego na sztucznej inteligencji.

Ogłoszenie nadeszło w chwili, gdy aplikacje RAG zostaną udostępnione w 2024 r., dlatego ludzie potrzebują ekonomicznego wyszukiwania. Obecnie w niektórych regionach nowe usługi warstw Basic i Standard oferują więcej przestrzeni dyskowej i mocy obliczeniowej, szczególnie w przypadku wyszukiwania wektorów, tekstu i metadanych. Ta aktualizacja znacznie obniża koszty – cena za wektor spada o około 85%, a ogólne koszty przechowywania zmniejszają się nawet o 75% lub więcej. 

Te ulepszenia oznaczają również, że możesz przechowywać więcej danych na partycję, mieć większe indeksy wektorowe i cieszyć się większą wydajnością w przypadku zadań takich jak indeksowanie i wyszukiwanie.

Firma usprawnia także działanie wyszukiwania wektorowego i oszczędza miejsce na dysku. Teraz możesz używać technik takich jak kwantyzacja i nadpróbkowanie oraz dostosowywać ustawienia, aby zmniejszyć wykorzystanie pamięci nawet o 75%. Ponadto ustawienie właściwości „Przechowywane” w polach wektorowych może jeszcze bardziej zmniejszyć obciążenie pamięci

Azure AI Search to narzędzie, które ułatwia tworzenie zaawansowanych funkcji wyszukiwania i aplikacji opartych na sztucznej inteligencji poprzez łączenie modeli językowych z danymi biznesowymi. Pomaga programistom tworzyć funkcje wyszukiwania dla aplikacji mobilnych i internetowych, zarówno dla ich firmy, jak i oprogramowania, które oferują jako usługę.

Nie tak dawno temu Microsoft powiedział także, że nowy model Command R+ firmy Cohere jest teraz dostępne jako jeden z setek modeli językowych w Azure AI. Model, który właśnie dzisiaj trafił na rynek, ma parametry 104B i twierdzi się, że jest lepszy i tańszy od GPT-4 Turbo.

Więcej szczegółów na temat zwiększonej pojemności można znaleźć tutaj.