La ricerca AI di Google afferma che Hitler e Zedong erano "grandi leader"
3 minuto. leggere
Edizione del
Leggi la nostra pagina informativa per scoprire come puoi aiutare MSPoweruser a sostenere il team editoriale Per saperne di più
L'intelligenza artificiale di Google è ancora una volta al centro delle polemiche. Un recente scoperta di Lily Ray, Senior Director of SEO e Head of Organic Research presso Amsive Digital, ha portato alla luce che la Search Generative Experience (SGE) di Google basata sull'intelligenza artificiale e Bard hanno elencato figure storiche come Hitler e Mao Zedong come "grandi leader". Puoi vederlo tu stesso nello screenshot qui sopra.
Questo incidente allarmante ha acceso un dibattito sull’etica, l’accuratezza e la responsabilità della tecnologia AI.
Il problema con le risposte generate dall’intelligenza artificiale non è isolato. È noto in precedenza che i robot AI di Google forniscono giustificazioni schiavitù, genocidioe altri atti inequivocabilmente sbagliati. La recente inclusione di Hitler e di altre figure controverse in un elenco di “leader grandi ed efficaci” si aggiunge alle crescenti preoccupazioni su come gli algoritmi di intelligenza artificiale sono progettati e controllati.
Allora come funziona l'intelligenza artificiale di Google e perché genera risposte così controverse? I robot IA raccolgono dati da varie fonti, unendo idee o anche frasi parola per parola in una risposta. Questa mancanza di coerenza logica e il problema del plagio senza un'adeguata attribuzione alle fonti contribuiscono al problema. Le risposte dei robot non solo sono incoerenti, ma mancano anche di un quadro coerente, portando a risposte fuorvianti o supponenti.
L’impatto di queste risposte generate dall’intelligenza artificiale va oltre le semplici sfide tecniche. Ci sono serie preoccupazioni etiche in gioco qui. Il pericolo che i robot IA forniscano argomenti a favore di atti malvagi, il problema di classificare le persone (soprattutto figure controverse) e la responsabilità di Google come editore di contenuti generati dall’intelligenza artificiale sono tutte questioni che devono essere affrontate.
La posizione di Google sulla questione è altrettanto preoccupante. Rifiutando di citare le fonti e mantenendo l'illusione dell'onnipotenza dei suoi bot, Google si è assunta la responsabilità di ciò che dice il bot. L'affermazione della compagnia secondo cui le fonti da cui copia sono "corroboranti" è ridicola come se Weird Al avesse detto che Michael Jackson stava effettivamente scrivendo parodie delle sue canzoni.
Il recente incidente, come evidenziato da Lily Ray, con l'intelligenza artificiale di Google che elenca Hitler e Zedong come "grandi leader" è un duro promemoria delle sfide nell'etica e nella tecnologia dell'intelligenza artificiale. Sebbene l’intelligenza artificiale abbia il potenziale per rivoluzionare vari aspetti della nostra vita, solleva anche serie preoccupazioni su accuratezza, etica e responsabilità. L’incidente richiede una rivalutazione del modo in cui i robot IA vengono progettati, monitorati e controllati, garantendo che si allineino ai valori e alle norme sociali.
In qualità di motore di ricerca leader a livello mondiale, Google ha un ruolo significativo da svolgere nel plasmare l'opinione pubblica e la diffusione delle informazioni. L’incidente con i suoi robot IA che classificano figure controverse come grandi leader è un campanello d’allarme. È tempo che le aziende tecnologiche, i regolatori e la società in generale diano uno sguardo più attento alle implicazioni etiche dell’intelligenza artificiale e lavorino per creare una tecnologia responsabile e affidabile.
Fonte:
Forum degli utenti
0 messaggi