贾扬清AI大会旧金山站演讲:AI如何重塑传统软件行业

  • 时间:
  • 浏览:1
  • 来源:盐城工学院教务处_延边大学综合信息门户_烟台南山学院教务网聊城
阅读模式

AI 正在重塑人类社会的方方面面,例如研发新的药物,改善人们的生活习惯等。那么在这个崭新的时代, AI 是如何重塑软件工程这个行业的呢?

本文基于 Caffe 的创始人、 TensorFlow 核心作者之一贾扬清在 O'Reilly 和 Intel 共同举办的 AI Conference 旧金山站 所做的演讲《在 AI 时代重新思考软件工程》,通过揭秘传统软件工程的痛点,他希望向各位分享自己对人工智能时代,软件工程行业发展的思考。

长期以来,我们一直把分辨某个物体、颜色、形状的能力想成理所当然。什么意思呢?比如,当文摘菌提道 “斩男色”的时候,相信很多小姐姐都心领神会,但是你如何给不知道这个颜色的 ta ,或者计算机描述 / 形容“斩男色”?

注:斩男色,传说涂上这个颜色的口红可以就能天下无敌,撩弟无数,斩获所有直男的心。

在图像识别和处理领域,传统的软件工程是通过设计规则( rules ),也就是使用硬编码来描述物体特征,来研究计算机视觉的问题。在深度学习之前,方向梯度直方图( histogram of gradients 简称 HOG )火遍了大江南北。

什么是 HOG ?简单的说, HOG 试图在图像的局部收集统计数据,或者可以理解为,它试图找到物体各个方向上的边界。比如,当你认真仔细看箭头下的图,(希望)你可以看出类似汽车的物体轮廓。

是不是仿佛回到了小时候体检看色盲卡?再来一张,这张是不是好多了?

因此,传统软件工程需要告诉电脑,规则是什么,或者特征是什么,并一步一步 ‘告诉’电脑该怎么做。可想而知,这种设计本身限制了计算机视觉的进一步发展。

从逻辑编程到自调适模型:从授之以鱼到授之以 data

传统图片识别技术错误率在 26% 停滞不前,急坏了众多科学家、学者、研究人员。

这时,一位名叫 Alex Krizhevsky 的小哥哥,提出用一种更抽象的方式写模块,设计出了我们今天称为‘卷积神经网络‘的模型。并用大量的数据构建和训练它,实现了图像识别从传统的逻辑编程到建模的转变。

这种方法的效果惊天地泣鬼神,和传统图片识别技术相比,在准确性方面实现了飞越。 AlexNet 在 2012 年 ImageNet 中以 15% 的错误率取得前 5 的好成绩。

AlexNet 由 5 个卷积层和 3 个全连接层, 650 , 000 个神经元以及 60 , 000 , 000 个参数构成。其中,卷积层扮演着抽象和提取特征的角色。

传统图像识别的方法,是将人为指定的、通过 HOG 提取出来的特征再放入分类器中,进行识别。而 AlexNet 实现了通过卷积层自主学习图片特征,并通过全连接层输出概率,确定分类的‘一条龙’服务。真的非常优秀了!

reference :

http://www.image-net.org/challenges/LSVRC/2012/supervision.pdf

有意思的是, AlexNet 还有生物后端的支持。研究发现,在我们的视觉皮层中,神经元会进行分层推断。信息从一层传递到下一层,再到下一层,从而让大脑提取越来越复杂的信息。

数据金矿

传统的方式是如何编写软件呢?我们编写软件时,会把源代码放入编译器中,编译器会将源代码转换成计算机能解读、运行的低阶机器语言。

而在人工智能领域,我们写的程序或者说模型已经和传统软件工程编译不同了。它不再是一组逻辑,而是会根据不同的训练数据和目标数据,得到不同的程序和模型。这些模型可以推导出一个通用的规则,然后使用大量的数据和计算来得到精确的结果。

举个例子,对于大约有一百二十万张图片的数据集来说,传统的方式处理这些编译的一个挑战是,它需要进行大约百万万亿次的计算( 1 exaflop )来训练一个图像网络模型。

这是什么概念呢?如果让每个伦敦人每秒都做一个浮点运算的话,需要大约四千年的时间来训练这个模型。

其实我们已经意识到,人工智能的计算在某种程度上是非常野蛮的。特别是在卷积神经网络,或者叠加的神经网络,我们需要做大量的浮点运算 (float operations) 。

因此,在几年前,我们就开始建立和研发更高效的硬件。而且,我们还建立起了数据中心、规模集群或环境 (scale clusters or environment) 来进行计算。

与此同时,我们还看到了科学计算算法的回归,比如那些传统的用来预测天气的方法。

这都推动了软件设计的发展,现在我们不再使用代码进行编译,而是用代码和数据放在一个计算阶段 (compute phase) ,或者我们也可以称其为现代版的代码编译。

当然,引用一句谚语:巧妇难为无米之炊。数据已经成为了人工智能生态系统中一个非常重要的部分。

互联网时代,大量的数据产生并充斥着我们的生活。那么面对如同大量的金矿一般的数据,我们真的能从中开采出黄金吗?或者我们的模型可以处理如此大量的数据么?

在 Facebook ,有一群非常优秀的小伙伴尝试回答这个问题。他们通过在网上分享大量的公共图片,和相关的信息,比如标签,来训练模型找出这些图像中有哪些东西。

随着这个项目的训练数据不断增加,最后达到大约四十五亿张图片,模型的质量和准确率也随之上升。也就是说,只要有更多的数据,就能带给我们更多更好更高质量的模型。

在这些领域中,我们看到的是用数据驱动的方法,代替硬编码或者说传统软件工程的方案。我们要做的只是提供大量的数据,然后在没有太多人工干预的情况下,就能得到理想的模型。完美!

算力呢?

人工智能时代的软件工程逐渐形成三个关键部分的良性循环:我们设计的模型可以从大量的数据中获取信息,利用我们现在拥有的巨大的计算能力,或者说更好的算法,开启智能之门。

大量数据的涌入,使我们能够为这些复杂模型的培训提供燃料。硬件的开发,使我们能够获得更多的计算资源,并且使我们能够在几天,几小时甚至几秒内完成这样的任务。

而随着硬件和计算机技术的发展,现在我们能够将这些模型部署到各种设备上。以前,我们的手机就是手机。今天,我们的手机不止是一部电话,还是一个私人助理,一台照相机和一种连接到智能世界的方式。

未来已来? or 还未来 ?

有时我会想,我们还需要做些什么呢?好像已经全部做完了呀。难道不是么?人工智能渐渐变得常见并被大家了解和认识,我们已经有了很多高大上的模型和厉害的硬件设备,但是我们仍处于一个非常原始的阶段。

当我们试图管理实验的模型,我们有时会使用一些非常古老的手工方法,比如说 excel 表格。现在,在传统的软件工程中有更好的方法,比如,持续集成 (continuous integration) 。

我们知道当我们在写软件的时候,有复杂的系统来进行版本控制( version control ),以确保代码的测试和质控。而当我们的项目考虑使用表格来管理我们的实验时,这些问题并没有出现。

所以问题来了,我们如何做到现代化的版本控制和现代的 SDK 和现代的持续集成呢 ? 对于 AI 系统,这变得非常困难。不仅仅因为算法在改变,数据每天都在变化。而反过来,这些又改变和影响了将要部署的模型和即将出现的新硬件。

这三个因素会相互作用,并交织在一起难舍难分。因此,现在的软件工程不仅仅只是停留在代码层面了,它还需要处理数据和计算资源,从而保证结果的准确性,并确保我们能够对这些软件和系统有效管理。

这是一个开放的问题,因为我们还需要做很多工作,才能让 AI 继续发展下去。让我开心和激动的是,越来越多的人对 AI 感兴趣和加入。现在越来越多的学术论文在引用卷积神经网络,数量呈现指数级的增长,这和摩尔定律非常相似。于我个人而言,我非常期待看到人工智能的进步和更多的应用,帮助我们的社会的推进和提升。

想面基贾扬清当面听课吗?今年 6 月份, O ’ Reilly AI Conference 携贾扬清、 Ion Stoica 等一众 AI 领军者也要来北京啦。目前已经确认的讲师为来自硅谷和中国知名公司的人工智能专家,包括谷歌、 eBay 、 Bonsai 、 Uber 、 Intel 、微软、阿里巴巴、亚马逊、腾讯、 SAS 、 Unity 、 SalesForce 、 IBM 、 MIT 、伯克利、斯坦福及牛津大学等。

猜你喜欢