Gli sviluppatori hanno ammesso: i sistemi di sicurezza non sono perfetti
A riportare per primo la notizia è stato il sito 404 Media, che ha evidenziato una criticità non da poco in DALL-E 3, il software di intelligenza artificiale sviluppato da OpenAI che consente di creare immagini partendo semplicemente da un testo. Diversi utenti hanno infatti ottenuto e poi condiviso immagini inquietanti e inopportune come SpongeBob, il protagonista dell’omonimo cartone animato, alla guida di un aereo prima di schiantarsi contro le Torri Gemelle. Come ha aggiunto The Verge, Microsoft (che in OpenAI ha investito 10 miliardi di dollari) starebbe intervenendo per contrastare utilizzi simili. Ricordiamo che DALL-E 3 è integrato in Bing Image Creator.
Non è la prima volta che la tecnologia di OpenAI e in generale i software di intelligenza artificiale vengono criticati per utilizzi impropri. Diversi soggetti accusano queste società di violare il diritto d’autore, pescando in maniera indiscriminata dal web un’immensa mole di dati che poi servono ad allenare l’AI. Nei primi mesi di utilizzo era scoppiata inoltre la polemica quando un utente era riuscito a farsi suggerire da ChatGPT come costruire una bomba. L’intelligenza artificiale resta ovviamente uno strumento formidabile al servizio della creatività umana. A meno di un anno dal rilascio di ChatGPT in molti sottolineano però i rischi di non porre barriere alla creazione di contenuti. Gli sviluppatori di OpenAI hanno peraltro ammesso che i sistemi di sicurezza – che ad esempio dovrebbero impedire la creazione di contenuti bannando alcune parole – non sono perfetti.