Amazon is working on the development of a generative artificial intelligence with twice the capacity of GPT-4, according to unidentified sources consulted by the Reuters agency. Internally referred to as “Olympus,” this model is primarily targeted towards Amazon Web Services (AWS) corporate clients.

The company is making significant investments in this ambitious project, allocating millions of dollars for AI training. The goal is to compete with OpenAI’s ChatGPT and keep pace with efforts from major tech companies like Google, which have also launched their chatbots based on large-scale language models (LLMs).
The “Olympus” project is estimated to have 2 trillion parameters, which would make it one of the largest models ever conceived. For comparison, OpenAI’s GPT-4, currently leading in generative AIs, has one trillion parameters.
Parameters in LLMs, as defined by Data Science Dojo, encompass the settings and components that determine the model’s behavior, including architecture and training data. Theoretically, a greater number of parameters would allow models to handle a wider variety of queries and provide more personalized responses.
Amazon has chosen not to comment on the matter, but sources consulted by Reuters indicate that the development team is led by Rohit Prasad, former head of Alexa, who now reports directly to CEO Andy Jassy.
In his role as Chief Scientist of Artificial General Intelligence (AGI) at Amazon, Prasad brought researchers from the Alexa AI team and scientists from Amazon to collaborate on training models, bringing together different parts of the company around the field of AI and allocating dedicated resources for this purpose.
Amazon has already trained smaller models like Titan and partnered with startups developing AIs, such as Anthropic and AI21 Labs, offering these services to Amazon Web Services (AWS) users.
Despite the existing partnerships, Amazon believes that having internally developed models could make AWS even more appealing, especially for corporate clients seeking access to high-performance models. According to The Information, the company is primarily aiming to compete with OpenAI in the sale of AIs to corporate clients.
A specific timeline for the release of this new model has not been established.
Amazon desarrolla IA generativa ‘Olympus’ con el doble de capacidad que el GPT-4
Según fuentes no identificadas consultadas por la agencia Reuters, Amazon está trabajando en el desarrollo de una inteligencia artificial generativa con el doble de capacidad que el GPT-4. Internamente conocido como “Olympus”, este modelo está dirigido principalmente a los clientes corporativos de Amazon Web Services (AWS).
La empresa está invirtiendo significativamente en este ambicioso proyecto, asignando millones de dólares para el entrenamiento de la IA. El objetivo es competir con el ChatGPT de OpenAI y mantenerse al día con los esfuerzos de grandes empresas tecnológicas como Google, que también han lanzado sus chatbots basados en modelos de lenguaje a gran escala (LLMs en inglés).
Se estima que el proyecto “Olympus” tiene 2 billones de parámetros, lo que lo convertiría en uno de los modelos más grandes jamás concebidos. Para comparación, el GPT-4 de OpenAI, que actualmente lidera en las IAs generativas, tiene un billón de parámetros.
Los parámetros en LLMs, según lo define Data Science Dojo, abarcan las configuraciones y componentes que determinan el comportamiento del modelo, incluida la arquitectura y los datos de entrenamiento. Teóricamente, un mayor número de parámetros permitiría que los modelos manejen una mayor variedad de consultas y proporcionen respuestas más personalizadas.
Amazon ha optado por no comentar sobre el tema, pero las fuentes consultadas por Reuters indican que el equipo de desarrollo está liderado por Rohit Prasad, ex director de Alexa, quien ahora reporta directamente al CEO Andy Jassy.
En su papel de Científico Jefe de Inteligencia Artificial General (AGI) de Amazon, Prasad trajo a investigadores del equipo de Inteligencia Artificial de Alexa y científicos de Amazon para colaborar en el entrenamiento de modelos, reuniendo diferentes partes de la empresa en torno al campo de la IA y asignando recursos dedicados para este propósito.
Amazon ya ha entrenado modelos de menor escala como el Titan y se ha asociado con startups que están desarrollando IAs, como Anthropic y AI21 Labs, ofreciendo estos servicios a los usuarios de Amazon Web Services (AWS).
A pesar de las colaboraciones existentes, Amazon cree que contar con modelos desarrollados internamente podría hacer que AWS sea aún más atractivo, especialmente para los clientes corporativos que buscan acceder a modelos de alto rendimiento. Según The Information, la empresa tiene como objetivo principal competir con OpenAI en la venta de IAs a clientes corporativos.
No se ha establecido un cronograma específico para el lanzamiento de este nuevo modelo.
Amazon desenvolve IA generativa ‘Olympus’ com o dobro da capacidade do GPT-4
A Amazon está trabalhando no desenvolvimento de uma inteligência artificial generativa com o dobro da capacidade do GPT-4, de acordo com fontes não identificadas consultadas pela agência Reuters. Internamente chamado de “Olympus”, este modelo está sendo principalmente direcionado aos clientes corporativos da Amazon Web Services (AWS).
A empresa está investindo significativamente neste projeto ambicioso, alocando milhões de dólares para o treinamento da IA. O objetivo é competir com o ChatGPT da OpenAI e acompanhar os esforços das grandes empresas de tecnologia como o Google, que também lançaram seus chatbots baseados em modelos de linguagem de grande escala (LLMs em inglês).
O projeto “Olympus” é estimado ter 2 trilhões de parâmetros, o que o colocaria como um dos maiores modelos já concebidos. Para comparação, o GPT-4 da OpenAI, que atualmente lidera as IAs generativas, possui um trilhão de parâmetros.
Os parâmetros em LLMs, conforme definidos pelo Data Science Dojo, englobam as configurações e componentes que determinam o comportamento do modelo, incluindo arquitetura e dados de treinamento. Teoricamente, um maior número de parâmetros permitiria que os modelos lidem com uma variedade maior de consultas e ofereçam respostas mais personalizadas.
A Amazon optou por não comentar sobre o assunto, mas as fontes consultadas pela Reuters indicam que a equipe de desenvolvimento é liderada por Rohit Prasad, ex-diretor da Alexa, que agora se reporta diretamente ao CEO Andy Jassy.
Na função de cientista-chefe de inteligência geral artificial (AGI) da Amazon, Prasad trouxe pesquisadores da equipe da Alexa AI e cientistas da Amazon para colaborarem no desenvolvimento de modelos de treinamento, unindo diferentes partes da empresa em torno do campo de IA e alocando recursos exclusivos para isso.
A Amazon já treinou modelos de menor escala, como o Titan, e estabeleceu parcerias com startups que estão desenvolvendo IAs, como Anthropic e AI21 Labs, oferecendo esses serviços aos usuários da Amazon Web Services (AWS).
Apesar das colaborações já existentes, a Amazon acredita que contar com modelos desenvolvidos internamente poderia tornar a AWS ainda mais atraente, especialmente para os clientes corporativos que desejam acessar modelos de alto desempenho. Segundo o The Information, a empresa está buscando competir principalmente com a OpenAI na venda de IAs para clientes corporativos.
Não foi estabelecido um cronograma específico para o lançamento deste novo modelo.