Microsoft spiega perché i LLM hanno allucinazioni e inventano risposte

Icona del tempo di lettura 2 minuto. leggere


I lettori aiutano a supportare MSpoweruser. Potremmo ricevere una commissione se acquisti tramite i nostri link. Icona descrizione comando

Leggi la nostra pagina informativa per scoprire come puoi aiutare MSPoweruser a sostenere il team editoriale Per saperne di più

Un recente scambio su Twitter tra un utente e un dirigente Microsoft ha portato rinnovata attenzione sui limiti dei grandi modelli linguistici (LLM) come Bing e sul potenziale di lacune informative quando si fa affidamento esclusivamente sulla propria conoscenza interna.

La discussione è nata da un utente che ha segnalato risultati di ricerca imprecisi su Bing quando il suo plug-in di ricerca, che accede a dati Web esterni, era disabilitato. In risposta, Mikhail Parakhin, CEO di Advertising & Web Services presso Microsoft, ha riconosciuto la possibilità che i LLM “inventino le cose” in tali situazioni.

Ha spiegato che, quando privati ​​delle vaste informazioni disponibili attraverso il web, gli LLM possono talvolta ricorrere alla loro base di conoscenza interna, una raccolta di testo e codice utilizzata per la formazione, per generare risposte. Tuttavia, questa generazione interna potrebbe non essere sempre accurata o allineata con la realtà fattuale, portando a potenziali discrepanze nei risultati di ricerca rispetto a quelli ottenuti con il plug-in di ricerca abilitato.

Per me, ciò solleva importanti domande sulla trasparenza e l'accuratezza nelle ricerche basate su LLM, soprattutto quando le fonti di dati esterne non sono disponibili. Quando gli LLM generano risposte senza accedere a dati esterni, agli utenti dovrebbe essere fornita una chiara indicazione della fonte delle informazioni e di eventuali limitazioni.

Sebbene fornire risposte sia prezioso, gli LLM devono dare priorità a informazioni affidabili piuttosto che colmare le lacune di conoscenza con generazioni interne potenzialmente imprecise. Esplorare approcci alternativi, come indicare l’incertezza, suggerire ulteriori ricerche o semplicemente affermare che una risposta non è disponibile, potrebbe aumentare la fiducia e prevenire la diffusione della disinformazione.

Quindi, non c’è da meravigliarsi del perché le persone preferiscono ChatGPT rispetto a Bing Chat/Copilot.

E per questi motivi, personalmente preferisco utilizzare Bard perché Google ha fornito una funzionalità in cui Bard consente agli utenti di sapere se le informazioni fanno riferimento da qualche altra parte o meno, rendendo più facile per gli utenti fidarsi delle informazioni.

Forum degli utenti

0 messaggi