Azure AI Search erhöht jetzt seine Speicherkapazität und Vektorindexgröße. Hier ist, was sich geändert hat

Dieses Update senkt die Kosten erheblich.

Symbol für die Lesezeit 2 Minute. lesen


Leser unterstützen MSpoweruser. Wir erhalten möglicherweise eine Provision, wenn Sie über unsere Links kaufen. Tooltip-Symbol

Lesen Sie unsere Offenlegungsseite, um herauszufinden, wie Sie MSPoweruser dabei helfen können, das Redaktionsteam zu unterstützen Lesen Sie weiter

Wichtige Hinweise

  • RAG-Apps gehen im Jahr 2024 in Betrieb und müssen kostengünstig abgerufen werden.
  • Azure AI Search steigert die Speicher- und Vektorsuche und bleibt effizient.
  • Upgrades sorgen für eine bessere Leistung und Skalierbarkeit.

Microsoft hat nur vor kurzem angekündigt, dass es die Speicherkapazität und Vektorindexgröße von Azure AI Search, seinem beliebten KI-gestützten Tool für Entwickler, erweitert.

Die Ankündigung erfolgte genau zu dem Zeitpunkt, als die RAG-Apps im Jahr 2024 in Betrieb gingen, sodass die Leute einen kostengünstigen Abruf benötigen. In bestimmten Regionen bieten die neuen Dienste der Basic- und Standard-Stufe jetzt mehr Speicherplatz und Rechenleistung, insbesondere für die Suche nach Vektoren, Text und Metadaten. Dieses Update senkt die Kosten erheblich: Der Preis pro Vektor sinkt um etwa 85 % und die Gesamtspeicherkosten werden um bis zu 75 % oder mehr gesenkt. 

Diese Upgrades bedeuten auch, dass Sie mehr Daten pro Partition speichern können, über größere Vektorindizes verfügen und eine schnellere Leistung für Aufgaben wie Indizierung und Suche genießen können.

Das Unternehmen verbessert außerdem die Funktionsweise der Vektorsuche und spart Speicherplatz. Jetzt können Sie Techniken wie Quantisierung und Oversampling verwenden und Einstellungen anpassen, um den Speicherverbrauch um bis zu 75 % zu reduzieren. Außerdem kann das Festlegen der Eigenschaft „Stored“ für Vektorfelder den Speicheraufwand weiter reduzieren

Azure AI Search ist ein Tool, das die Erstellung erweiterter Suchfunktionen und KI-gestützter Anwendungen durch die Kombination von Sprachmodellen mit Geschäftsdaten vereinfacht. Es hilft Entwicklern beim Erstellen von Suchfunktionen für Mobil- oder Web-Apps, sei es für ihr Unternehmen oder für die Software, die sie als Service anbieten.

Vor nicht allzu langer Zeit hat Microsoft auch das neue Command R+-Modell von Cohere angekündigt ist ab sofort verfügbar als eines von Hunderten von Sprachmodellen in Azure AI. Das heute erst auf den Markt gebrachte Modell verfügt über 104B-Parameter und soll besser und günstiger als GPT-4 Turbo sein.

Weitere Details zur Kapazitätserweiterung finden Sie hier hier.