Tarocchi E Rituali GRATIS AL +39 339 27 29 722 E +39 366 45 86 488 anche in chat di WhatsApp E Telegram con risposta IMMEDIATA Home » BUFALE » ECCO LA DIMOSTRAZIONE CHE CHATGPT È UNA SOLA

ECCO LA DIMOSTRAZIONE CHE CHATGPT È UNA SOLA

Tarocchi E Rituali GRATIS AL +39 339 27 29 722 E +39 366 45 86 488 anche in chat di WhatsApp E Telegram con risposta IMMEDIATA Home » BUFALE » ECCO LA DIMOSTRAZIONE CHE CHATGPT È UNA SOLA

👉💙SOSTIENICI💙 INTELLIGENZA ARTIFICIALE, BUFALE REALI – I RECERCATORI HANNO MESSO ALLA PROVA “CHATGPT” E HANNO SCOPERTO CHE NELL’80% DEI CASI […]

👉💙SOSTIENICI💙

INTELLIGENZA ARTIFICIALE, BUFALE REALI – I RECERCATORI HANNO MESSO ALLA PROVA “CHATGPT” E HANNO SCOPERTO CHE NELL’80% DEI CASI IL SOFTWARE GENERA TESTI CON INFORMAZIONI FALSE O FUORVIANTI – “I RISULTATI CONFERMANO I TIMORI E LE PREOCCUPAZIONI SULLE MODALITÀ CON CUI LO STRUMENTO POTREBBE ESSERE UTILIZZATO SE FINISSE NELLE MANI SBAGLIATE. AGLI OCCHI DI CHI NON ABBIA FAMILIARITÀ CON LE QUESTIONI O GLI ARGOMENTI TRATTATI, I RISULTATI POTREBBERO FACILMENTE RISULTARE LEGITTIMI E PERSINO AUTOREVOLI…”

(ANSA) – L’intelligenza artificiale di ChatGpt, il software del momento sui cui sta investendo Microsoft, potrebbe contribuire a creare disinformazione. E’ l’analisi dei ricercatori di Newsguard Technologies, il cui scopo principale è combattere la disinformazione online. Tre ricercatori hanno messo alla prova il chatbot basato sull’intelligenza artificiale con 100 narrazioni false tratte dal loro catalogo di Misinformation Fingerprints.

Nell’80% dei casi il chatbot ha generato affermazioni false e fuorvianti su argomenti di attualità tra cui il Covid-19 e l’Ucraina. “I risultati – spiegano i ricercatori – confermano i timori e le preoccupazioni espresse dalla stessa OpenAi (l’azienda che ha creato ChatGpt, ndr) sulle modalità con cui lo strumento potrebbe essere utilizzato se finisse nelle mani sbagliate. Agli occhi di chi non abbia familiarità con le questioni o gli argomenti trattati in questo report, i risultati potrebbero facilmente risultare legittimi e persino autorevoli”.

NewsGuard ha però verificato che ChatGPT “dispone di misure di salvaguardia volte a impedire la diffusione di alcuni esempi di disinformazione. Per alcune bufale, ci sono voluti ben cinque tentativi per portare il chatbot a fornire informazioni errate”: Il dibattito sull’Intelligenza artificiale applicata all’informazione si innesta in un momento in cui diverse testate stanno sperimentando la tecnologia.

L’ultimo caso è quello della testata specializzata Cnet, che qualche giorno fa ha annuciato che mette in pausa gli esperimenti con l’AI dopo essere stata accusata di scarsa accuratezza in alcuni articoli scritti con questi strumenti.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

GRATIS CARTOMANZIA
Invia tramite WhatsApp
Torna in alto