Daniel Whitenack在最近举行的北美2017 KubeCon+CloudNativeCon大会上分享了如何使用TensorFlow和Kubernetes进行基于GPU的深度学习。
他以物体检测为例子介绍了一种典型的人工智能工作流程。该工作流程包括预处理、模型训练、模型生成和模型推理。这些步骤都可以运行在Docker容器里。
模型训练一般是通过框架来完成的,如TensorFlow或Caffe。在这一阶段,GPU可用于帮助提升性能。深度学习在使用TensorFlow或其他框架时,需要借助GPU在图像数据上训练模型。
模型训练可以运行在Kubernetes集群的GPU节点上。Kubernetes为多GPU节点提供了一个非常好的框架,按照如下步骤可实现更好的工作流:
该工作流程也可以用于跟踪哪个版本的代码和数据产生了哪些结果(用于调试、维护和合规的目的)。
Kubernetes为此提供了基础支持,也因为它具备了可移植性和可伸缩性,所以非常适用于机器学习项目。
Whitenack介绍了一个叫作Pachyderm的开源项目,它支持数据管道,并为Kubernetes提供了数据管理层。工作流中一般会包含多个数据预处理和后处理作业。Pachyderm提供了统一的框架用于调度多步骤工作流、数据管理和向GPU分配工作负载。
Pachyderm框架的特性包括:
Whitenack在现场进行了演示,使用Pachyderm和Kubernetes实现了一个AI工作流。示例应用程序实现了图像到图像的转换,将卫星图自动转成地图。他在例子中使用TensorFlow进行模型训练和推理。
如果读者对Pachyderm框架感兴趣,可以参考机器学习示例、开发者文档、Kubernetes GPU文档,或者直接加入Slack通道。

原文来自:infoQ
声明:所有来源为“聚合数据”的内容信息,未经本网许可,不得转载!如对内容有异议或投诉,请与我们联系。邮箱:marketing@think-land.com
提供多种拟人音色,支持多语言及方言,并可在同一音色下输出多语言内容。系统可自适应语气,流畅处理复杂文本。
Nano Banana(gemini-2.5-flash-image 和 gemini-3-pro-image-preview图像模型)是图像生成与编辑的最佳选择,可集成 Nano Banana API,实现高速预览。
支持通过自然语言文本智能生成高质量短视频。用户只需输入一段描述性文字,即可自动合成画面连贯、风格鲜明、配乐匹配的定制化视频内容。适用于短视频创作、广告预演、社交内容生成、游戏素材制作等场景,为开发者与创作者提供高效、灵活、富有想象力的视频生产新范式。
先进的图像理解和分析能力,它能够快速准确地解析和理解图像内容。无论是自然风景、城市建筑还是复杂的场景与活动,都能提供详细的描述和深入的分析。
根据文本提示(prompt)和图片公网访问链接,编辑原图按照特定风格、场景和氛围感的输出新的图像。广泛应用于电商营销、广告设计、创意灵感等领域,为用户带来高效且个性化的AI图像创作体验。