数据从各个方向向我们涌来,数据科学家和 IT 领导者需要通过清理、处理和提取可操作的见解来理解它。准备数据管道可能具有足够的挑战性,一旦完成此任务,您不希望硬件组件限制您实施 AI 工作负载的能力。

在 CPU 和 GPU 内存都在发挥作用的情况下,加速深度学习、机器学习和 AI 算法得到了促进。通常,算法越复杂,AI 模型越大,需要的内存就越多。如果没有正确的内存占用,您可能不得不将工作负载限制为小型数据集和低分辨率图像分类。为了推动有效的数据科学战略,您需要利用所有数据,包括大型数据集,并训练和分析全分辨率图像和视频。

增加的 GPU 内存使数据科学家和 AI 研究人员能够创建更大的模型,使他们能够使用更大的数据集并获得可行的见解。简而言之,更多的内存可以支持更大的模型,这最终会带来更好的洞察力。例如,可以利用具有生动细节和色彩的高分辨率图像,而不是分析压缩的像素化图像。可以将图像分类应用于 4k 视频,而不是分析邮票大小的视频流。

更大的模型也可以等同于更大的数据集,这可能会产生意想不到的发现。通过将深度学习应用于原本看似不相关的数据集,可以在数据中找到有趣的相关性。人工智能的一些最有趣的前景围绕着获得我们不知道要问的问题的答案——这表明使用更大的模型和更多的数据。

今天,我们宣布IBM Power Systems将在基于POWER9的 IBM Power System AC922 服务器中添加 NVIDIA Tesla V100 32GB GPU 。更大的 GPU 内存支持更大的数据集以适应 GPU 进行加速。通过 IBM POWER9 CPU 和 NVIDIA Tesla V100 GPU 之间的直接、高速 NVIDIA NVLink 连接,与基于 x86 的服务器[1]中的 PCIe Gen 3 接口相比,我们可以提供 5.6 倍的数据吞吐量。
我们最近使用我们的大型模型支持功能通过 PowerAI 中的深度学习和 Snap ML 中的机器学习证明了这一点。

Tags: none

我有个想法