Microsoft übernimmt die Krone, indem es 4 KI-Bestenlisten anführt

Symbol für die Lesezeit 2 Minute. lesen


Leser unterstützen MSpoweruser. Wir erhalten möglicherweise eine Provision, wenn Sie über unsere Links kaufen. Tooltip-Symbol

Lesen Sie unsere Offenlegungsseite, um herauszufinden, wie Sie MSPoweruser dabei helfen können, das Redaktionsteam zu unterstützen Lesen Sie weiter

Während Microsoft nichts so Auffälliges getan hat wie Googles Deepmind, der Go schlägt, machen sich die KI-Forscher von Microsoft immer noch sehr gut.

In einem Blogbeitrag prahlte Steve Guggenheimer, Corporate Vice President of Developer Platform, mit den Errungenschaften von Microsoft auf diesem Gebiet und stellte fest, dass das Unternehmen führend in vier unabhängigen KI-Benchmarks mit Lösungen ist, die sehr gut geeignet wären, komplexe Business-Intelligence-Herausforderungen zu bewältigen und Maßnahmen zu ergreifen Einblicke für Unternehmenskunden.

Die 4 Bestenlisten umfassen:

  1. TEAM 1.1 (Stanford Question Answer Dataset): Der SQUAD-Test fordert eine KI auf, ein Dokument zu lesen und diesbezügliche Fragen zu beantworten. In diesem MRC-Test (Machine Reading Comprehension) kann Microsofts KI Fragen nun so gut lesen und beantworten wie ein Mensch.
  2. Stanford SQuAD 2.0 Leseverständnistest: Im Juni 2018 wurde SQuAD Version 2.0 veröffentlicht, um „die Entwicklung von Leseverständnissystemen zu fördern, die wissen, was sie nicht wissen“. Microsoft belegt derzeit die Position Nr. 1 bei SQuAD 2.0 und drei der fünf besten Platzierungen insgesamt, während es gleichzeitig die Position Nr. 1 bei SQuAD 1.1 behält.
  3. Salesforce WikiSQL-Herausforderung: Dies verwendet einen großen, auf Wikipedia basierenden Crowdsourcing-Datensatz namens WikiSQL, wobei die KI erforderlich ist, um Fragen in natürlicher Sprache aus dem Datensatz zu beantworten. Normalerweise angeführt von Salesforce, nahm Microsoft Anfang dieses Monats mit einem neuen Ansatz namens IncSQL die Spitzenposition auf der Bestenliste von Salesforce ein. Die deutliche Verbesserung (von 81.4 % auf 87.1 %) bei der Testausführung ist das Ergebnis der Zusammenarbeit zwischen Wissenschaftlern in Microsoft Research und in der Business Application Group.
  4. Argumentationsherausforderung des Allen Institute for AI (ARC): Die ARC Question Answering Challenge bietet einen Datensatz von 7,787 Open-Domain-Multiple-Choice-Fragen auf Grundschulebene, die entwickelt wurden, um Ansätze zur Beantwortung von Fragen zu testen. Der Top-Ansatz, Essential Term Awareness – Retriever Reader (ET-RR), wurde gemeinsam vom Microsoft Dynamics 365 + KI-Forschungsteam in Zusammenarbeit mit Praktikanten der University of San Diego entwickelt. Die Nummer 3 auf der Rangliste ist ein separates Forschungsteam, das sich aus Forschern der Sun Yat-Sen University und Microsoft Research Asia zusammensetzt.

Microsoft stellt fest, dass Technologien, die durch die Teilnahme an diesen Herausforderungen entwickelt wurden, bereits ihren Weg in Produkte finden, die bereits im Oktober ausgeliefert werden.

Lesen Sie mehr über die Tests und die Leistung von Microsoft in Steves Blogbeitrag hier.

Mehr zu den Themen: ai, Microsoft, Microsoft Forschung