De CEO van OpenAI zegt dat AI kleine hoeveelheden gegevens van hoge kwaliteit nodig heeft
2 minuut. lezen
Uitgegeven op
Lees onze openbaarmakingspagina om erachter te komen hoe u MSPoweruser kunt helpen het redactieteam te ondersteunen Lees meer
Sam Altman, CEO van OpenAI, gooide een bom in Davos: vergeet Big Data, de toekomst van AI ligt in selectieve slokjes, niet in slokjes.
“Er bestaat de misvatting dat we alles nodig hebben om onze modellen te trainen. Eigenlijk is dat niet het geval. We willen bijvoorbeeld niet trainen op de gegevens van de New York Times.”
Dat zei Altman op het World Economic Forum.
Dit kan een verrassing zijn, gezien de recente juridische strijd van OpenAI met The New York Times beschuldigde het laboratorium van datastroperij, waarvoor OpenAI heeft ook een verklaring uitgebracht. Maar Altman benadrukt dat kwaliteit boven kwantiteit gaat. Hij zei
“Veel van ons onderzoek is erop gericht meer te leren uit kleinere hoeveelheden gegevens van zeer hoge kwaliteit.”
De focusverschuiving van OpenAI weerspiegelt een groeiende bezorgdheid in de AI-gemeenschap: datakwaliteit is belangrijker dan datavolume. Een bevooroordeelde tweet kan een heel model vertekenen, terwijl een zorgvuldig gekozen wetenschappelijk artikel nieuwe mogelijkheden kan ontsluiten.
Dit betekent niet dat OpenAI partnerschappen helemaal vermijdt. Altman onthulde dat het bedrijf momenteel in gesprek is met nieuwsmedia als CNN, Fox en Time, waarbij de nadruk ligt op samenwerking in plaats van op datamining.
De nieuwe aanpak van OpenAI zou AI een nieuwe vorm kunnen geven. Minder data betekent minder energieverbruik, minder ethische zorgen en potentieel slimmere, betrouwbaardere AI. En het zou de spanningen met uitgevers kunnen verminderen en deuren kunnen openen voor samenwerkingen die voor beide partijen voordelig zijn.
Meer hier.
Gebruikersforum
0 berichten