Google新工具教AI处理结构化和对抗性数据

最近Google新工具教AI处理结构化和对抗性数据这个话题,相信很多小伙伴都是非常有兴趣了解的吧,一段好的故事可以给读者带来很多值得深思的新东西,甚至还可以在一定程度上让读者的视野在瞬间扩大,那么既然现在大家都想要知道此类的信息,今日小编将给带来关于Google新工具教AI处理结构化和对抗性数据的资讯!

Google LLC今天开放了神经结构化学习的源代码,这是其流行的TensorFlow人工智能开辟工具包的框架,开辟人员可以使用它来训练具有结构化和“对抗性”数据的模型。

AI模型用来处理的大多数文件,例如视频和图像,在技术上都是非结构化数据。但是其他类型的文件仍然在机器学习项目中占有一席之地。以图形形式组织的结构化信息 有助于培训新建的AI模型如何有效识别模式。

Google工程师Da-Cheng Juan和Sujith Ravi 今天在博客文章《神经结构化学习》中解释说:“在训练过程中利用结构化信号可使开辟人员获得更高的模型准确性,尤其是在标记数据量相对较小的情况下。”

除了作为一种实用的训练方法外,处理结构化数据对于某些类型的机器学习软件而言也是一项必不可少的任务。科学家在基因组学和分子研究中使用的AI模型通常将结构化图数据作为输入。某些类型的自然语言处理算法也是如此。

神经结构化学习使开辟人员只需几行代码即可将结构化数据合并到项目中。他们只需要准备好AI模型,提供培训记录并指定应根据其组织记录的结构即可。

该框架还同意 开辟人员指定“隐式”结构来创建所谓的对抗性示例。对抗性示例是恶意文件,例如带有可控制像素的照片,这些文件看起来与人类没有什么不同,但会触发AI并破坏处理结果。在开辟过程中将这样的记录扔到机器学习模型上可以教该软件如何抵御攻击。

Google的Da-Cheng Juan和Sujith Ravi写道:“从经验上讲,在没有恶意示例的情况下训练出的模型,在输入中添加了恶意的却不是人类可察觉的扰动时,准确性会遭受严峻损失(例如降低30%)。” 结果,神经结构化学习对于从事敏感或面向公众的服务的AI团队可能特殊方便,这些AI必须解决控制尝试的可能性。

(0)
上一篇 2022年7月10日
下一篇 2022年7月10日

相关推荐