Vertex AI NAS:针对复杂机器学习模型提供更高准确性和更低延迟

Vertex AI 在推出时提出的口号是“一个 AI 平台,提供您需要的所有机器学习工具”。 今天让我们详细谈谈它如何为企业提供帮助。


Vertex AI 如何为广泛的用例简化建模过程


Vertex AI 的总体目的是简化建模,以便企业可以快速跟踪他们的创新,加快上市时间,并最终增加机器学习投资的回报。Vertex AI 以多种方式促进了这一目的的实现。例如,与传统笔记本相比,Vertex AI Workbench 等功能将模型的训练和部署速度提高了五倍。Vertex AI Workbench 与 BigQuery 和 Spark 的原生集成意味着没有数据科学专业知识的用户也可以更轻松地执行机器学习工作。集成到统一 Vertex AI 平台中的工具(例如最先进的预训练 API 和 AutoML)使数据科学家能够更轻松地在更短的时间内构建模型。对于最适合自定义建模的建模工作,Vertex AI 的自定义模型工具支持高级机器学习编码,使用自定义库训练模型所需的代码行数减少了近 80%(与竞争平台相比)。Vertex AI 提供了所有这些,同时保持对可解释 AI 的高度关注。


然而,在人工智能和机器学习方面投入最大的组织以及拥有机器学习专家团队的组织需要极其先进的工具集来解决他们最复杂的问题。简化的机器学习建模不仅限于简单的用例,例如,让我们了解一下 Vertex AI NAS。


Vertex AI 的神经架构搜索 (NAS)


Vertex AI NAS 使最高级别的机器学习专家能够以更高的准确性更低的延迟低功耗要求执行最复杂的任务。Vertex AI NAS 源于 Alphabet 在大规模构建高级 AI 方面的丰富经验。2017 年,Google Brain 团队认识到需要一种更好的方法来扩展 AI 建模,因此他们开发了神经架构搜索技术来创建一个生成其他神经网络的 AI,经过训练可以优化它们在用户提供的特定任务中的性能。令该领域的许多人感到惊讶的是,这些 AI 优化模型能够击败许多最先进的基准,例如 ImageNet 和 SOTA 移动网络,为我们今天看到的许多应用程序设定了新标准,包括许多 Google 内部产品。Google Cloud 看到了这种技术的潜力,并在不到一年的时间内推出了该技术的产品化版本(将 AutoML 作为品牌)。Vertex AI NAS 是这一理念的最新、最强大的版本,采用了自最初研究以来出现的最复杂的创新。


Google Cloud 和 Qualcomm Technologies 的合作将 Vertex AI NAS 引入 Qualcomm Technologies 神经处理 SDK,针对骁龙 8 进行了优化。这将把 AI 引入不同的设备类型和用例,例如涉及物联网混合现实汽车移动设备的设备。


Google Cloud 使机器学习对数据用户(无论是新手还是专家)更易于访问和有使用价值,并提高机器学习对企业的功效。借助 Vertex AI 中的一套统一机器学习工具,组织可以在一个 AI 平台上利用他们需要的所有机器学习工具。


———

WebEye是中国大陆地区首家获得 Google Cloud MSP 资质的合作伙伴。WebEye致力于用创新的技术向中国企业提供数字化效率创新服务,实现数字化赋能。我们不断帮助客户打造新的运营与协作方式,打造新的竞争优势,构建资源高效链接,共创价值生长空间。

WebEye整合全球资源,打造全球数字化营销体系,为企业提供营销增长服务营销增长引擎以及企业上云三大板块业务,涵盖数字营销、数字创意、游戏发行、流量变现、程序化广告、数据洞察、云计算等一站式全链条增长产品矩阵,是中国互联网出海领军企业。

返回全部