jueves , diciembre 13 2018
Home / Actualidad / MathWorks anuncia la integración de MATLAB con NVIDIA TensorRT para acelerar aplicaciones de inteligencia artificial

MathWorks anuncia la integración de MATLAB con NVIDIA TensorRT para acelerar aplicaciones de inteligencia artificial

Acelera cinco veces la inferencia mediante deep learning en comparación con TensorFlow en GPUs de NVIDIA

MathWorks ha anunciado que MATLAB ofrece ahora integración con NVIDIA TensorRT mediante GPU Coder. Esto ayuda a los ingenieros y los científicos a desarrollar nuevos modelos de IA y deep learning en MATLAB con el rendimiento y la eficiencia necesarios para satisfacer las crecientes demandas de los centros de datos, aplicaciones embebidas y de automoción. MATLAB proporciona un flujo de trabajo completo para entrenar, validar y desplegar modelos de deep learning con rapidez. Los ingenieros pueden usar recursos de GPU sin programación adicional, de manera que se pueden concentrar en sus aplicaciones en lugar de en ajustar el rendimiento. La nueva integración de NVIDIA TensorRT con GPU Coder permite que los modelos de deep learning desarrollados en MATLAB se ejecuten en GPUs de NVIDIA con un rendimiento elevado y baja latencia.

Las pruebas de referencia internas muestran que el código CUDA generado por MATLAB combinado con TensorRT puede desplegar Alexnet con un rendimiento 5 veces superior que TensorFlow, y puede desplegar VGG-16 con un rendimiento 1,25 veces superior que TensorFlow para la inferencia mediante deep learning. “Las tecnologías de imagen, voz, sensor e IoT de rápida evolución están empujando a los equipos a explorar soluciones de IA con mayor rendimiento y eficiencia. Además, los modelos de deep learning son cada vez más complejos. Todo esto ejerce una inmensa presión sobre los ingenieros”, afirma David Rich, director en MathWorks. “Ahora, los equipos que entrenan modelos de deep learning con MATLAB y GPUs de NVIDIA pueden desplegar la inferencia en tiempo real en cualquier entorno, desde la nube hasta el centro de datos y dispositivos periféricos embebidos.” Si desea obtener más información sobre MATLAB para deep learning, visite: mathworks.com/solutions/deeplearning.html.

[bar id=1088]

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.



Podría interesarte

CIs sensor magnético Micropower robustos que maximizan la vida útil de la batería y mejoran la eficiencia del Sistema

Allegro MicroSystems Europe ha anunciado el lanzamiento de una familia de circuitos integrados interruptor Micropower …

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies