Il colosso dell’e-commerce ha già addestrato modelli più piccoli di LLM come Titan e ha collaborato con Anthropic e AI21 Labs
A pochi mesi dall’annuncio di Amazon Web Services sul finanziamento ad Anthropic da 4 miliardi di dollari, adesso il colosso dell’e-commerce guidato da Andy Jassy punta sullo sviluppo di un modello di linguaggio di grandi dimensioni che vuole fare concorrenza a OpenAI e Alphabet. L’LLM sul quale sta lavorando Amazon, dalle prime indiscrezioni che emergono da Reuters, si chiama “Olympus” e conta 2 trilioni di parametri.
Leggi anche: Digit, il robot umanoide nel centro logistico di Amazon è realizzato da una startup
Chi sta lavorando a Olympus?
Sul nuovo LLM per il momento non si conoscono molti dettagli ma si sa che a lavorarci è un team guidato da Rohit Prasad, ex capo di Alexa, che fa capo direttamente al CEO di Amazon, Andy Jassy. Prasad, nello sviluppo di Olympus, ha coinvolto i ricercatori che già avevano lavorato su Alexa AI e il team scientifico di Amazon per la formazione dell’LLM. L’ambito è familiare al colosso dell’e-commerce, che in passato ha già addestrato modelli più piccoli come Titan e ha collaborato con startup di modelli di intelligenza artificiale come la già menzionata Anthropic e AI21 Labs. Secondo quanto si apprende da Reuters, lo scopo dell’azienda guidata da Jassy, con la messa a punto di questo nuovo LLM, è quello di sviluppare internamente un modello per rendere le sue offerte più attraenti su AWS, dove i clienti aziendali richiedono migliori prestazioni. E sempre da quanto si legge su Reuters, Amazon avrebbe aumentato gli investimenti in LLM e intelligenza artificiale generativa.