ROMA – Nuovi problemi per ChatGpt, il chatbot basato sull’intelligenza artificiale, realizzato da OpenAI e specializzato nella conversazione con l’essere umano. Il sistema digitale Gpt Store è inondato di messaggi spam e software in violazione del diritto d’autore, oltre che in contrasto con le regole della stessa piattaforma. Alcuni servizi risulterebbero, infatti, a pagamento. Queste violazioni sono state scoperte dal sito specializzato di tecnologia TechCrunch, che insinua dubbi sull’effettiva capacità di controllo e moderazione da parte dell’azienda madre, ovvero OpenAI.
Il tema della sicurezza si oppone, invece, al veloce sviluppo dei software Gpt. L’ultimo esempio riguarda proprio il Gpt Store, lanciato lo scorso novembre da OpenAI sulla scia del successo del chatbot di intelligenza artificiale ChatGpt. Il portale funziona come una sorta di app store che consente di condividere o vendere i propri progetti Gpt ad altri utenti. I clienti possono creare, pubblicare e monetizzare i loro modelli Gpt personalizzati.
Il sistema è cresciuto rapidamente in questi mesi anche a causa della facilità di accesso degli utenti al software che ora conta circa 3 milioni di programmi. Una crescita avvenuta a discapito della qualità, nonché del rispetto dei termini stessi di OpenAI. “Una ricerca superficiale fa emergere sistemi Gpt che pretendono di generare arte nello stile Disney e Marvel, ma sono solo canali che conducono verso altri servizi a pagamento “, scrive TechCrunch. Insomma, violano i copyright. Inoltre la ricerca mette in luce l’esistenza di software che simulano conversazioni con personaggi famosi tra cui Elon Musk, Donald Trump e Leonardo DiCaprio, nonostante la personificazione sia vietata dalle regole di OpenAI.
La società, però, nelle sue regole di moderazione, spiega di utilizzare una combinazione di sistemi automatizzati, revisione umana e segnalazioni degli utenti per individuare i chatbot che violano le regole. Inoltre, conferma azioni quali avvisi e restrizioni di account contro gli utenti che violano la normativa.