La apuesta a futuro de Amazon por estos días se basa en el trabajo para potenciar el desarrollo de dos microchips revolucionarios diseñados para el entrenamiento y la aceleración de la Inteligencia Artificial Generativa.
Estos semiconductores de AWS (Amazon Web Services) llevan el nombre de Inferentia y Trainium y serán clave para entrenar modelos de lenguaje masivos. Matt Wood, vicepresidente de productos, explicó de qué se tratan: “El aprendizaje automático consta de dos etapas: entrenar los modelos y realizar inferencias con los modelos entrenados”. Otro factor juega a favor de Amazon: Son mucho más baratos que los que fabrica la competencia, como Nvidia.
La demanda de chips para impulsar la Inteligencia Artificial Generativa está creciendo rápidamente, y Amazon busca satisfacerla y posicionarse como un jugador destacado en este mercado en rápido crecimiento. La investigación y desarrollo de esta clase de chips relacionados con la IA continúa con un sólido aumento a nivel mundial.
Tras el camino de Google y Microsoft
Microsoft fue quien primero tomó la delantera invirtiendo 13 mil millones de dólares en OpenAI e incorporando modelos de IA en su producto Bing. Google no se quedó atrás lanzando Bard, su propio modelo de IA con una inversión de 300 millones de dólares.
Amazon, se lanzó a la carrera de la IA en abril de este año a través de la marca Titan, con el servicio Bedrock diseñado como una herramienta de ayuda a los desarrolladores de software de Inteligencia Artificial. Los chips personalizados de Amazon podrían brindar una opción competitiva en este rubro, al poseer un diseño técnico diferente y capacidades mejoradas, los cuales lo diferencian de Microsoft, que aún no cuenta con esta clase de chips.