在GPU Technology Conference(GTC)的舞台上,NVIDIA,以其在人工智能领域的领导地位,展示了其在深度学习领域的最新进展及其对全球市场的影响。过去10个月,深度学习领域经历了显著的发展,NVIDIA的创始人兼首席执行官黄仁勋(Jensen Huang)分享了他们在软硬件全面升级方面的成果。
黄仁勋在主题演讲中,不仅回顾了NVIDIA如何将人工智能融入其产品和服务,还深入探讨了深度学习在医疗影像、智慧制造、物流拣选、品质控制以及公共安全等领域的应用。他强调了GPU在设计、建筑、影像工作室等领域的广泛应用,特别是在模拟运算方面,能够实时生成高质量的影像,如光影反射与呈现效果。
NVIDIA推出了基于Volta架构的新一代Quadro GV100显示卡,支持高达32GB的内存,并通过NVLINK 2.0实现多GPU支持,最高可达64GB。这一系列的硬件升级旨在为图像描绘领域提供更强大的支持,包括游戏、媒体与娱乐、产品设计与建筑等多个行业。
NVIDIA进一步优化了NVLink 2.0协议,通过NVSwitch引入了一种全新的数据交换解决方案,使得16颗GPU能在高速度下进行数据交换,从而支持开发者在服务器上并行训练更多的神经网络。这种创新不仅提升了硬件性能,也为开发者提供了更灵活的数据处理环境。
NVIDIA宣布推出DGX-2,作为数据集中使用的高性能解决方案,搭载了16组Tesla V100 GPU,性能相比前代产品提升显著。此外,NVIDIA的CUDA平台也进行了更新,以支持NVSwitch,为开发者提供更强大的计算资源和更高效的编程环境。
NVIDIA GPU Cloud(NVIDIA GPU Cloud)的更新使NVIDIA能够跨越各种云端平台和数据中心,提供GPU as a service(GPUaaS)解决方案。这不仅全面支持了Kubernetes,还覆盖了AWS、GCP、阿里云和Oracle云等主流服务提供商,进一步推动了深度学习和高性能计算框架的普及。
黄仁勋提出了PLASTER理论,以评估深度学习或机器学习系统的综合能力,包括可编程性、服务响应速度、模型应用精确度、神经网络模型大小、生产总量、能源效率以及学习速率。这一理论强调了在复杂的数据中心环境中,易于编程、维护和快速部署的重要性,成为衡量AI应用的关键指标。
NVIDIA发布了TensorRT 4,一个针对数据中心、嵌入式系统和车载应用的神经网络训练和推理优化工具。它与Google的合作,将TensorFlow 1.7整合到了NVIDIA的平台中,相比未优化的GPU运算,性能提升了8倍。TensorRT 4还支持ONNX框架,增强了与MXNet、Caffe 2等主流深度学习开发框架的兼容性,促进了深度学习模型的快速交换和部署。
通过这一系列的硬软件升级与技术创新,NVIDIA持续推动着深度学习和人工智能领域的前沿发展,为全球的开发者和企业提供更强大、更灵活的计算资源和支持。