Berichten zufolge verfügt das KI-Sprachmodell von Amazon Olympus im Vergleich zu GPT-4 über größere Parameter

Symbol für die Lesezeit 2 Minute. lesen


Leser unterstützen MSpoweruser. Wir erhalten möglicherweise eine Provision, wenn Sie über unsere Links kaufen. Tooltip-Symbol

Lesen Sie unsere Offenlegungsseite, um herauszufinden, wie Sie MSPoweruser dabei helfen können, das Redaktionsteam zu unterstützen Lesen Sie weiter

Amazon steigt in den KI-Wettlauf gegen OpenAI und Google ein. Mit der Angelegenheit vertraute Quellen berichteten Reuters dass der Technologieriese Millionen von Dollar für den Aufbau eines neuen Sprachmodells namens Olympus bereitgestellt hat.

So wie es aussieht, könnte Olympus das größte Modell sein, das bisher in der Geschichte trainiert wurde. Das neueste GPT-4 von OpenAI hat beispielsweise eine Billion Parameter. Der ehrgeizige Plan von Amazon verdoppelt die Parameter auf 2 Billionen. Google Bard hingegen hat 137 Milliarden.

Ein Parameter ist eine Zahl, die wie ein Einstellknopf für ein KI-Sprachmodell fungiert. Diese Knöpfe werden während des Trainings mithilfe von Daten eingestellt, und ihre Anpassung kann dazu führen, dass das Modell für bestimmte Aufgaben besser funktioniert. Je mehr desto besser.

Dem Bericht zufolge hat der frühere Alexa-Chef Rohid Prasad Forscher von Alexa AI und dem Amazon-Wissenschaftsteam zusammengebracht, um das Projekt zu leiten. Es gibt noch keine Informationen darüber, wann genau das Sprachmodell veröffentlicht wird.

Sie erinnern sich vielleicht auch daran, dass vor ein paar Monaten Amazon über 4 Milliarden US-Dollar ausgegeben Investitionen für das KI-Modell-Startup Anthropic und weitere 300 Millionen US-Dollar für Anthropic im letzten Jahr. 

Die Quelle teilte der Veröffentlichung außerdem mit, dass das Modell die Cloud-Computing-Plattform AWS für Unternehmenskunden attraktiver machen wird, die Zugriff auf die modernsten KI-Tools benötigen.