Amazon ha avviato un significativo investimento, stimato in milioni di dollari, per addestrare un ambizioso modello linguistico di grandi dimensioni (LLM) denominato “Olympus“. L’obiettivo è competere con i modelli di punta di OpenAI e Alphabet, secondo quanto rivelato dall’agenzia Reuters. Il modello Olympus, caratterizzato da 2 trilioni di parametri, potrebbe posizionarsi come uno dei più grandi modelli in fase di addestramento, superando i 1 trilione di parametri di GPT-4 di OpenAI.
Il team responsabile di Olympus presso Amazon è guidato da Rohit Prasad, ex responsabile di Alexa, attualmente sotto la direzione diretta del CEO Andy Jassy. Prasad, in qualità di responsabile scientifico dell’intelligenza artificiale generale (AGI) di Amazon, ha coinvolto i ricercatori che lavoravano sull’IA di Alexa e il team scientifico di Amazon per concentrarsi sull’addestramento di modelli, unificando gli sforzi dell’AI in tutta l’azienda con risorse dedicate.
Nonostante le richieste di commento, Amazon ha scelto di non esprimersi sulla notizia.
Amazon ha già esperienza nell’addestramento di modelli più piccoli, come Titan, e ha stretto partnership con startup di intelligenza artificiale come Anthropic e AI21 Labs, rendendo questi modelli disponibili agli utenti di Amazon Web Services (AWS).
La società ritiene che l’introduzione di modelli di produzione propria possa migliorare l’attrattiva della sua offerta su AWS, specialmente tra i clienti aziendali che cercano accesso a modelli con prestazioni di alto livello. Al momento, non è stata fornita una tempistica specifica per il rilascio del nuovo modello.
In aprile 2023, durante una conferenza stampa, dirigenti di Amazon avevano annunciato un aumento degli investimenti nei LLM e nell’IA generativa, confermando l’impegno della società in questo settore in rapida evoluzione.