什么是Apache Tomcat?
采取预训练的模型并重新训练其所有层似乎是荒谬的。但实际上,它可以节省时间和计算资源。在训练之前,神经网络中的变量将使用随机数进行初始化,并在处理训练数据时调整其值。预训练神经网络的变量值已被调整为数百万个训练示例。因此,它们对于新的AI模型来说是一个更好的起点,该模型想要训练一组与源AI模型甚至有一点相似之处的新示例。 转移学习不是灵丹妙药 转移学习解决了以有效且负担得起的方式训练AI模型的许多问题。但是,它也需要权衡。如果预训练的神经网络存在安全漏洞,则AI模型会使用它作为迁移学习的基础,并继承这些漏洞。 例如,基本模型可能无法抵抗对抗攻击,精心设计的输入示例会迫使AI以不稳定的方式更改其行为。如果恶意行为者设法为基本模型开发对抗示例,则他们的攻击将对从其派生的大多数AI模型起作用。芝加哥大学,加州大学圣塔克拉拉分校和Virgina Tech的研究人员在去年Usenix安全研讨会上发表的一篇论文中对此进行了说明。 此外,在某些领域,例如教AI玩游戏,迁移学习的使用非常有限。这些AI模型接受了强化学习的训练,强化学习是AI的一个分支,它是计算密集型的,并且需要大量的反复试验。在强化学习中,大多数新问题都是独特的,需要他们自己的 。
但总而言之,对于大多数深度学习应用程序(例如图像分类和自然语言处理),您很有可能可以通过大量的巧妙的迁移学习来获取捷径。 在进行迁移学习时,AI工程师冻结了预训练神经网络的第一层。这些是检测所有域共有的常规功能的层。然后他们微调更深的层,以使用自己的示例对它们进行微调,并添加新层以对训练数据集中包含的新类别进行分类。 经过预先训练和微调的AI模型也分别称为“教师”模型和“学生”模型。 冻结层和微调层的数量取决于源AI模型和目标AI模型之间的相似性。如果学生AI模型解决了非常接近老师的问题,则无需微调预训练模型的各个层次。开发人员仅需在网络末端添加一个新层,并为新类别训练AI。这称为“深层特征提取”。当目标域的训练数据很少时,深度特征提取也更可取。 当源与目的地之间存在相当大的差异,或者培训示例很多时,开发人员将冻结预训练的AI模型中的几层。然后,他们添加新的分类层,并使用新示例微调未冻结的层。这称为“中间层特征提取”。
如果源AI模型和目标AI模型之间存在显着差异,则开发人员将取消冻结并重新训练整个神经网络。这种称为“完整模型微调”的转移学习还需要大量的训练示例。 从长远来看,NLP还可以为会议提供数据分析:同样的话题是否不断被提出,同样的截止日期是否不断地被推迟,某些员工是否比其他人说得更多,还是在讨论其他人。 所有这些的价值取决于转录的准确性,而对于NLP来说,准确度是一件复杂的事情。许多NLP系统在正式的基准上实现了与人类相同的性能,但它们大多是基于对话的,可能无法给你一个与你想要做的事情的准确比较。仍然没有一个单一有效的衡量标准,Cheng指出。 “我们看到人们将各种能力融合到了多模式的系统中。你可能会发现你的对话系统真的很棒,但它在搜索或混合系统方面就做得不太好了,在混合系统中,你可能会想要把说话、语言、视觉和文档结合在一起,”她说。 转录的准确性随录音质量、背景噪音、说话者的口音和人们所谈论的内容而有所变化。对于一个在安静环境中以英语为母语的人来说,Otter的Liang表示,它的准确率已经超过了95%。在实践中,你会得到一些有用的转录,但还不够完美。 无论你使用何种NLP工具,你都应该准备好投入时间来定制与你的业务相关的概念和相联系的词汇表,例如你所在行业的技术术语或你自己的产品名称,以及员工名称,以便能够正确的识别它们。 在使用NLP之前,组织需要知道什么是他们可以接受的错误水平,而不仅仅是为了捷径或探索,但是Cheng建议将重点放在端到端的体验上。 “你是如何把这些东西组合在一起,让人们真正使用,并能够帮助你的公司或客户更有效地完成某些事情的,”她问道。
“你不能承诺太多;人工智能不是魔法,虽然自然语言工具的确可以改进很多东西。你的公司现在所面临的最大问题可能是如何组织你的信息,从你所拥有的文件中获得更多价值,并让有专业知识的人来进行指导。”Cheng说。“我们现在有很多远程工作的经验,或许我们可以使用人工智能来做得更好。” (编辑:惠州站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |