Tecnología e innovación

Nvidia Presenta su Nuevo Centro de Datos de Fichas para acelerar el Ritmo de AI

Ian King (Bloomberg) — Nvidia Corp anunció nuevos chips de gráficos y equipos para la inteligencia artificial procesamiento en los centros de datos, reclamando un salto adelante en el rendimiento que puede ayudar a consolidar su liderato en el área de cultivo.



La empresa de Ampere en el diseño de chips es 20 veces más rápido que sus predecesores, tiene la flexibilidad de ser reutilizados entre las dos áreas clave de la inteligencia artificial procesamiento: la formación y la inferencia, Director Ejecutivo de Jensen Huang dijo. La compañía dio a conocer el nuevo chip, que Huang llamado el mayor salto en Nvidia, la historia, el jueves en una línea de la conferencia de tecnología.


Nvidia éxito en la construcción de un $3 mil millones en los últimos cinco años ha atraído la atención de los rivales y las startups, tratando de ofrecer nuevas soluciones para la IA de procesamiento. Nvidia, el mayor fabricante de chips de gráficos utilizado en los juegos de los ordenadores personales, ha adaptado su tecnología para la IA. Huang productos de mostrar el valor de los sistemas que manipulan los datos en paralelo, lo que es posible extraer patrones de la inundación masiva de información en un mundo cada vez más conectado.



Ampere chips son ya parte de los servidores enviados por Nvidia. La compañía está lanzando como ser capaz de sustituir a mucho más grande, más caro y hambriento de poder, los bastidores de las máquinas que cuentan con una gran cantidad de procesadores Intel Corp.


Subordinando el costo de dichos sistemas, Nvidia es la venta de Ampere-equipos basados llamado DGX por $199,000 cada uno. En un centro de datos típico, cinco de esos equipos podrían superar los 600 servidores basados en los chips de Intel y de la generación anterior de productos de Nvidia, una matriz que tendría un costo de $11 millones de dólares, según Nvidia.



Chips de Nvidia, han acaparado la cuota de mercado en el AI ámbito de la formación, que es el rápido crujir de las enormes cantidades de datos, tales como imágenes o archivos de sonido para determinar los patrones que se incrustará en el software. La inferencia, la ejecución de la resultante de software para proporcionar en tiempo real de las respuestas para cosas como los comandos de voz, ha sido realizada principalmente en los servidores que utiliza Intel Xeon fichas.


Huang más reciente lanzamiento es que el nuevo Amperios de diseño puede hacer frente a las tareas y alternar entre los dos tipos de trabajo según sea necesario. Mientras que Nvidia es la introducción de un nuevo producto, Intel está a punto de debut de una gráfica basada en el chip del procesador de diseño dirigido a la adopción de Nvidia en la cabeza. Advanced Micro Devices, Inc., Nvidia mayor rival en los juegos de ordenador chips de gráficos, también está promocionando nuevas capacidades para los centros de datos.

Nvidia y sus competidores se va después de que el gigante de los gastos de capital de los presupuestos de la nube pública de informática de las empresas, tales como Amazon.com Inc., Alfabeto Inc.’s de Google y Microsoft corporation Huang se negaron a hablar sobre clientes específicos, pero dijo que todos los principales proveedores de la nube ya han tomado la entrega de Ampere-equipos.

This content was originally published here.