数据布线专家将成为数字时代的主要合作伙伴
直到几年前,所有这些挑战要么被认为是无法克服的,几十年之遥,要么已经以次优的结果得以解决。但是神经网络和深度学习的进步是人工智能的一个分支,在过去几年中非常流行,它帮助计算机解决了这些问题以及许多其他复杂问题。 不幸的是,深度学习模型从头开始创建时,需要访问大量数据和计算资源。这是许多人买不起的奢侈品。而且,训练深度学习模型来执行任务需要很长时间,这不适合时间预算短的用例。幸运的是,转移学习是一种使用从一种训练有素的AI模型获得的知识到另一种知识的学科,可以帮助解决这些问题。 训练深度学习模型的成本 深度学习是机器学习的子集,是通过训练示例开发AI的科学。但是直到最近几年,由于效率低下,它们在很大程度上已被AI社区驳回。在过去的几年中,大量数据和计算资源的可用性使神经网络备受关注,并使开发能够解决现实世界问题的深度学习算法成为可能。 要训练深度学习模型,您基本上必须为神经网络提供大量带注释的示例。这些示例可以是诸如标有物体的图像或患者的乳房X线照片扫描及其最终结果之类的东西。神经网络将仔细分析和比较图像,并开发数学模型来表示相似类别图像之间的重复模式。 已经存在一些大型的开源数据集,例如ImageNet(一个包含22000个类别的超过1400万张图像的数据库)和MNIST(一个包含60000个手写数字的数据集)。AI工程师可以使用这些资源来训练他们的深度学习模型。 但是,训练深度学习模型还需要访问非常强大的计算资源。开发人员通常使用CPU,GPU集群或专用硬件(例如Google的Tensor处理器(TPU))来高效地训练神经网络。购买或租用此类资源的成本可能超出单个开发人员或小型组织的预算。而且,对于许多问题,没有足够的示例来训练强大的AI模型。 转移学习使深度学习培训的要求大大降低 假设AI工程师想要创建图像分类器神经网络来解决特定问题。工程师无需收集成千上万的图像,而可以使用诸如ImageNet之类的公共可用数据集,并使用特定领域的照片对其进行增强。 但是AI工程师仍然必须付出高昂的费用来租用通过神经网络运行这些数百万个图像所需的计算资源。这是转移学习发挥作用的地方。转移学习是通过微调先前受过训练的神经网络来创建新AI模型的过程。 开发人员无需从头开始训练他们的神经网络,而是可以下载经过预先训练的开源深度学习模型,并根据自己的目的对其进行微调。有许多预训练的基本模型可供选择。流行的示例包括AlexNet,Google的Inception-v3和Microsoft的ResNet-50。这些神经网络已经在ImageNet数据集上进行了训练。AI工程师只需要通过使用他们自己的特定领域的示例对它们进行进一步的培训来增强它们。 转移学习不需要大量的计算资源。在大多数情况下,一台台式计算机或一台笔记本电脑可以在几个小时甚至更少的时间内对预训练的神经网络进行微调。 转移学习如何工作 有趣的是,神经网络以分层方式发展其行为。每个神经网络都由多层组成。训练后,调整每个图层以检测输入数据中的特定特征。
例如,在图像分类器卷积网络中,前几层检测一般特征,例如边缘,拐角,圆形和颜色斑点。随着您深入网络,这些层开始检测更具体的事物,例如眼睛,面部和完整的物体 Microsoft的Cheng建议,在未来,平台将使用转录和文档分析以及图像识别来提取“会议的集体智慧”,这样在会议结束后继续工作时,就可以很容易地访问这些信息了。“你可以记录下更多正在发生的事情,然后方便地与你的团队分享,”她说。 例如,Bridgewater Associates记录了过去15年的所有内部会议,任何员工都可以观看这些录音。但由于很难搜索,他们很少会被浏览,公司现在正在使用Otter来提取旧的会议内容。 类似地,支持Azure Media Services live meeting转录的Azure Cognitive Services speech to text API也将很快能够转录上传到OneDrive的音频文件。开发人员已经可以使用这些API来构建转录应用程序,但是将这些功能直接构建到平台中将使其更广泛地被使用。 数据分析和准确性 完整的转录并不总是应用NLP最有用的结果,尽管它们可以提供一个时间线,让你通过上下文搜索找到Cheng所说的“有趣的金块”。
Otter提取了标记作为自动摘要,以指示文本中所包含的内容。IBM Watson的自然语言理解和Otter也在研究类似的工具,但是你仍然要记得查阅文字记录。2018年,Microsoft为团队展示了一个原型系统,该系统可以根据会议记录创建和分配行动项目,并向与会者分发会议记录。 (编辑:惠州站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |