AWS多年来一直致力于降低机器学习的使用门槛,让更多的客户运用机器学习技术。Amazon SageMaker是AWS成长速度最快的服务之一,包括阿斯特捷利康(AstraZeneca)、Aurora、Capital One、Cerner、Discovery、现代汽车(Hyundai)、Intuit、路透社(Thomson Reuters)、Tyson和Vanguard等全球数万家客户,都使用Amazon SageMaker训练各种规模的机器学习模型,有些模型甚至包含数十亿个参数、每月进行数千亿次预测。

随着客户在Amazon SageMaker上不断扩展其机器学习模型训练和推论,AWS也持续扩展服务产能,仅在过去一年就推出60多项Amazon SageMaker的新功能。

以Amazon SageMaker Training Compiler而言,是一种新的机器学习模型编译器,可自动优化编码提高运算资源的使用效率,并缩短训练模型时间多达50%。先进的深度学习模型通常是庞大而复杂的,训练单一模型可能耗费数千小时的GPU运算时间,为此它们需要专门的运算执行个体来加速训练。为了进一步缩短训练时间,资料科学家会尝试增加训练资料或调整超参数(控制机器学习训练过程的变数),找到效能最佳且资源消耗最少的模型版本。这项工作的技术复杂度导致资料科学家没有时间优化在GPU上执行训练模型所需的框架。Amazon SageMaker Training Compiler与Amazon SageMaker中的TensorFlow和PyTorch版本整合,这些版本经过优化可在云端更高效地执行,因此资料科学家可以使用他们喜欢的框架,更有效率地使用GPU训练机器学习模型。只需点击一下,Amazon SageMaker Training Compiler就会自动优化并编译训练好的模型,提高训练执行速度多达50%。

#全球 #Amazon #训练 #SageMaker #机器学习