Microsoft explică de ce LLM-urile halucinează și inventează răspunsuri

Pictograma timp de citire 2 min. citit


Cititorii ajută la sprijinirea MSpoweruser. Este posibil să primim un comision dacă cumpărați prin link-urile noastre. Pictograma Tooltip

Citiți pagina noastră de dezvăluire pentru a afla cum puteți ajuta MSPoweruser să susțină echipa editorială Află mai multe

Un schimb recent pe Twitter între un utilizator și un director Microsoft a adus o atenție reînnoită asupra limitărilor modelelor mari de limbaj (LLM) precum Bing și asupra potențialului de lacune de informații atunci când se bazează exclusiv pe cunoștințele lor interne.

Discuția a pornit de la raportarea unui utilizator de rezultate de căutare inexacte pe Bing, când pluginul său de căutare, care accesează date web externe, a fost dezactivat. Ca răspuns, Mikhail Parakhin, CEO al Advertising & Web Services la Microsoft, a recunoscut posibilitatea ca LLM să „inventeze lucrurile” în astfel de situații.

El a explicat că atunci când sunt lipsiți de vastele informații disponibile prin web, LLM-urile pot recurge uneori la baza lor internă de cunoștințe, o colecție de text și cod folosit pentru instruire, pentru a genera răspunsuri. Cu toate acestea, această generație internă poate să nu fie întotdeauna exactă sau aliniată cu realitatea reală, ceea ce duce la potențiale discrepanțe în rezultatele căutării în comparație cu cele obținute cu pluginul de căutare activat.

Pentru mine, acest lucru ridică întrebări importante cu privire la transparență și acuratețe în căutările bazate pe LLM, mai ales atunci când sursele externe de date nu sunt disponibile. Atunci când LLM-urile generează răspunsuri fără a accesa date externe, utilizatorilor ar trebui să li se ofere o indicație clară a sursei informațiilor și a eventualelor limitări.

În timp ce furnizarea de răspunsuri este valoroasă, LLM-urile trebuie să acorde prioritate informațiilor fiabile față de completarea lacunelor de cunoștințe cu generații interne potențial inexacte. Explorarea unor abordări alternative, cum ar fi indicarea incertitudinii, sugerarea unor cercetări suplimentare sau pur și simplu afirmarea că un răspuns nu este disponibil, ar putea spori încrederea și ar putea preveni răspândirea dezinformării.

Prin urmare, nu este de mirare de ce oamenii preferă ChatGPT decât Bing Chat/Copilot.

Și din aceste motive, personal prefer să folosesc Bard, deoarece Google a oferit o funcționalitate în care Bard le permite utilizatorilor să știe dacă informațiile sunt referite din altă parte sau nu, făcând mai ușor pentru utilizatori să aibă încredere în informații.

Mai multe despre subiecte: bingchat

Lasă un comentariu

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate *