您现在的位置是:首页 > 互联网网站首页互联网

苹果A12仿生芯片以9倍的速度运行Core ML应用

  • 互联网
  • 2022-02-14 07:25:17
  • 来源:
导读 苹果在人工智能(AI)方面投入巨资。很明显,今天的iPhone和Apple Watch在加州库比蒂诺亮相。新款iPhone Xs和iPhone Xs Max搭载

苹果在人工智能(AI)方面投入巨资。很明显,今天的iPhone和Apple Watch在加州库比蒂诺亮相。

Apple的A12 Bionic芯片运行Core  ML应用程序的速度提高了9倍

新款iPhone Xs和iPhone Xs Max搭载了A12 Bionic,这是一款7纳米芯片,苹果称之为“有史以来最强大的”。它由六个内核(两个性能内核和四个高功率内核)、一个四核GPU和一个神经引擎组成——一个用于八核的特殊机器学习处理器。从A11中的双核处理器来看,它每秒可以执行五万亿次运算(而上一代神经引擎的运算量为5000亿次)。还有一个智能计算系统,可以自动确定是在处理器、GPU、神经引擎还是三者的组合上运行算法。

使用苹果的机器学习框架Core ML 2创建的应用,可以用十分之一的功率快速增加A12仿生硅上的数量。这些应用的启动速度也提升了30%%,这得益于随着时间的推移知道你使用习惯的算法。

新硬件支持的实时机器学习功能包括:Siri快捷键,允许用户通过自定义Siri短语来创建和运行应用宏;Memoji,一个新的表情符号,可以定制成你的样子;人脸识别;还有苹果的增强现实工具包ARKit 2.0。

这条消息是在苹果今年夏天发布Core ML 2之后发布的。

苹果在6月份的全球开发者大会上表示,Core ML 2的速度提升了30%,这要归功于一项名为批量预测的技术。此外,苹果表示,该工具包允许开发人员通过量化将经过训练的机器学习模型的大小减少75%%。

苹果在2017年6月推出了搭载iOS 11的Core ML。它允许开发人员在iPhone或iPad上的设备上加载机器学习模型,或者从XGBoost、Keras、LibSVM、scikit-learn和脸书的Caffe和Caffe2框架中转换模型。Core ML旨在优化能效模型,无需互联网连接即可获得机器学习模型的优势。

Core ML的更新消息是在今年5月Google在I/O 2018开发者大会上宣布了面向Android和iOS的机器学习软件开发工具包ML Kit之后。2017年12月,谷歌发布了一个工具,将使用其机器学习框架TensorFlow Lite生成的AI模型转换为与苹果的Core ML兼容的文件类型。

Core ML有望在苹果未来的硬件产品中扮演关键角色。

暗示公司野心的是,苹果聘请了前谷歌工程师约翰詹南德里亚(John Giannandrea)监督Gmail、谷歌搜索和谷歌助手等人工智能支持功能的实施,以领导其机器学习和人工智能战略。它希望雇佣150多名员工为其Siri团队提供服务。

免责声明:本文由用户上传,如有侵权请联系删除!
Top