- 'Hegseth pagò la sua accusatrice ma nega l'aggressione'
- ++ 'Trump determinato,vuole Gaetz ministro Giustizia al 100%' ++
- Biden a Xi, 'la competizione non viri verso un conflitto'
- Nations League: 7 reti della Germania alla Bosnia Erzegovina
- Xi, Cina pronta a lavorare con nuova amministrazione Usa
- Trump nomina Wright segretario per l'Energia
- Atp Finals: Ruud travolto, Sinner in finale con Fritz
- Due razzi cadono nel cortile della casa di Netanyahu a Cesarea
- Iran, 'limitate possibilità di diplomazia nucleare ci sono'
- Trump torna al Madison Square Garden da vincitore
- Idf, 'raffica di razzi su Haifa, colpita una sinagoga'
- Tournee in Usa, Berliner tornano al Kennedy dopo 21 anni
- Alba Rohrwacher a Los Angeles per la corsa all'Oscar di Maria
- Autori a Giuli, 'Amelio sia presidente del Centro Sperimentale'
- Zelensky, 'alleanza Pyongyang-Mosca porta a destabilizzazione'
- Calcio: Deschamps, 'Francia è viva e io ho sempre energia'
- Cop29, all'Italia il premio satirico 'Fossile del Giorno'
- Musk per Lutnick al Tesoro, 'con lui il vero cambiamento'
- Genitori irrompono a scuola e aggrediscono docente, 'vattene'
- ++ Media, 10 palestinesi uccisi in raid su ex scuola a Gaza ++
- Von der Leyen, 'il G7 è al fianco della coraggiosa Ucraina'
- Abascal di Vox eletto presidente dei Patrioti all'Eurocamera
- G20, Lula incontra il segretario generale dell'Onu Guterres
- Zelensky, grazie G7 e Meloni per sostegno unitario a Kiev
- Atp Finals: sorpresa Fritz, batte Zverev e vola in finale
- Tennis: BJ King Cup; 2-1 al Giappone, Italia in semifinale
- Al 49/o Laceno d'Oro Film Festival omaggio a Valerio Mastandrea
- Liberati i 4 ostaggi nel ristorante a Parigi, fermato l'autore
- Prime proteste a Rio contro il G20, 'fuori gli imperialisti'
- Oltre 50 coppie pronte a ricorsi su Gpa reato universale
- Calcio: Udinese tra i 7 club invitati da Eca a Cop29 di Baku
- Calcio: Spalletti, con la Francia intenzione di cambiare poco
- Calcio: Lukaku lascia la nazionale e torna a Napoli in anticipo
- MotoGp: Martin sereno, 'il Mondiale? Chiudo tutto domani'
- Calcio: Spalletti, chi nostro Sinner? Maldini ha eleganza
- MotoGp: ultimo Gp decide Mondiale, Bagnaia a -19 da Martin
- N.League: Spalletti, ko con Svizzera unica gara sbagliata
- Bagnaia vince sprint Barcellona, Mondiale si decide domani
- Tennis: BJ King Cup: vittoria Paolini, Giappone-Italia 1-1
- 'Le mie radici sono qui', il rugby racconta emigrazione italiana
- Francia, ristoratore si barrica nel locale con alcuni dipendenti
- Beirut, 'raid aereo colpisce Tiro vicino a rovine Unesco'
- Zelensky, fare di tutto per terminare la guerra nel 2025
- 'Trump progetta massima pressione per bancarotta dell'Iran'
- Hamas, il bilancio dei morti a Gaza sale a 43.799
- Iran smentisce incontro tra Musk e suo ambasciatore a Onu
- Von der Leyen, Putin usa ancora l'arma del gas contro l'Ue
- Calcio: Donnarumma, Italia emoziona e San Siro si riempie
- Cgil, con stop a Rdc senza aiuto 629mila famiglie (-48%)
- Calcio: Donnarumma, sto rivedendo spirito Euro 2020
Il paradosso dei chatbot, più crescono più sbagliano
Dà risposte errate piuttosto che ammettere l'ignoranza
Più crescono e fanno esperienza, maggiore è il rischio che rispondano in modo errato piuttosto che ammettere di non saper rispondere: è uno dei grandi problemi dei grandi modelli linguistici che alimentano i chatbot, come ChatGpt e Llama. A dirlo è lo studio pubblicato sulla rivista Nature da José Hernández-Orallo, dell'Istituto di ricerca per l'Intelligenza Artificiale di Valencia in Spagna, che sottolinea inoltre come questi errori sfuggano facilmente agli umani. Una delle importanti caratteristiche dei grandi modelli linguistici, o Llm, è la capacità di evolvere nel tempo integrando al loro interno nuove informazioni derivanti dalle interazioni con gli utenti o con gli sviluppatori, così da diventare teoricamente sempre più affidabili. Ma analizzando questo percorso in tre degli Llm più polari, in particolare ChatGpt di OpenAi, Llama di Meta e il modello aperto Bloom, i ricercatori spagnoli hanno osservato un cambiamento del loro comportamento. Secondo gli autori della ricerca i tre modelli inizialmente erano più propensi di oggi nell'ammettere di non poter rispondere a domande su questioni su cui non si sentivano certi di dare risposte accurate. Una prudenza che è andata gradualmente svanendo: "i modelli 'ingranditi' e modellati tendono a dare una risposta apparentemente sensata, ma sbagliata, molto più spesso rispetto al passato", affermano i ricercatori nell'articolo. I chatbot "stanno diventando più bravi a fingere di essere informati", ha commentato Hernández-Orallo. Un problema che si aggiunge inoltre all'incapacità da parte degli umani di riuscire a notare questi errori, spesso perché ci si fida automaticamente della macchina. Un problema che potrebbe essere parzialmente risolto impostando negli Llm una sorta di soglia di affidabilità più alta, al di sotto della quale l'IA non rilascia una risposta. Scelta possibile per i chatbot ideati per lavorare in settori specifici, ad esempio in campo medico, ma più difficile immaginare, sottolineano i ricercatori, possa essere introdotta da quelle aziende che sviluppano chatbot 'generalisti' che puntano proprio sulla capacità di risposta in settori molto ampi.
R.Chavez--AT