第20章 演讲 重生2012:全球科技财阀
2012年10月29日,傍晚。
义大利,佛罗伦斯。
古老的文艺復兵之城在夕阳下泛著金色的光芒。
阿诺河静静流淌,远处圣母百花大教堂的穹顶在晚霞中显得格外壮丽。
陈阳站在酒店房间的窗前,看著窗外的风景。
这是他第一次来欧洲,第一次参加国际学术会议。
身后,传来敲门声。
“陈阳,准备好了吗?晚上的欢迎晚宴快开始了。“
开口的是朱军教授,水木大学计算机系的教授,这次也来参加eccv会议。
得知陈阳要来做演讲,朱军主动提出带他一起来,一路上照应这个第一次出国的大一学生。
“好了,朱老师。“陈阳拿起西装外套穿上。
镜子里的少年,穿著得体的深蓝色西装,头髮梳得整齐,眼神中带著超越年龄的沉稳。
“走吧。“
朱军笑著说,“今晚来的都是计算机视觉领域的顶尖人物,好好认识一下。“
会议酒店的宴会厅里,水晶吊灯发出柔和的光芒。
身著正装的学者们三三两两地聚在一起,端著红酒交谈著。
空气里瀰漫著香檳和烤牛排的味道,还有各种语言交织的低语声。
陈阳跟著朱军走进大厅,立刻感受到了几道目光落在自己身上。
“朱,好久不见!“
记住我们101看书网
一个满头银髮的老者走过来,用略带口音的英语打招呼。
“安德鲁!“
朱军热情地握手,“你也来了!“
安德鲁·齐瑟曼,牛津大学的教授,计算机视觉领域的传奇人物之一。
“这位是?“齐瑟曼的目光落在陈阳身上。
“我的学生,陈阳。“
朱军介绍道,然后压低声音补充,“star city data的那个。“
齐瑟曼的眼睛瞬间亮了。
“你就是陈阳?“
他用力握住陈阳的手,“天啊,我还以为你至少是个博士后!“
“您好,齐瑟曼教授。“
陈阳用流利的英语回应,“很荣幸见到您。“
“荣幸的是我!“
齐瑟曼激动地说,“6.5%!你知道吗,当我看到那个数字的时候,我以为是系统出错了!“
周围几个学者听到这边的动静,也围了过来。
“你就是star city data的作者?“
“天啊,这么年轻?“
“你真的只是大一学生?“
陈阳被围在中间,礼貌地点头回应。
“各位,“
朱军笑著帮他解围,“陈阳刚下飞机,让他先喘口气吧。明天的演讲,他会详细介绍技术细节的。“
“对对对,明天!“
齐瑟曼拍了拍陈阳的肩膀,“小伙子,我会坐在第一排听你的演讲。“
人群渐渐散开,但不时还有人投来好奇的目光。
“习惯就好。“
朱军低声对陈阳说,“从今天开始,你就是这个圈子的焦点了。“
陈阳端起一杯果汁,看著大厅里那些学术界的传奇人物。
他们中有的写出了开创性的论文,有的培养了无数顶尖人才,有的创办了改变世界的公司。
而现在,他们都在谈论著同一个话题——那个来自中国的6.5%。
宴会厅的另一端,几个年轻人也在討论著。
“听说了吗?今年的冠军是个中国大一学生。“
“6.5%的错误率,简直不可思议。“
“明天一定要去听他的演讲。“
10月30日,下午两点。
eccv 2012闭幕式。
会议主厅里座无虚席,走廊上都站满了人。
讲台上,李飞飞正在做开场介绍。
“今年的imagenet挑战赛,出现了一个令人震惊的成绩。“
大屏幕上显示出排行榜前三名:
**rank 3: oxford vgg | 26.5%**
**rank 2: supervision (toronto)| 16.4%**
**rank 1: star city data (china)| 6.5%**
台下响起一阵惊嘆声。
“第二名团队的成绩已经是巨大的突破,將错误率从26%降到了16%。“
李飞飞说,“但第一名的成绩,则完全超出了我们的想像。“
她顿了顿,目光扫过台下:
“6.5%的top-5错误率,这意味著什么?意味著我们距离人类的识別水平,已经非常接近了。“
“接下来,让我们有请star city data团队的代表,来自清华大学的陈阳,为我们带来今天的闭幕演讲——《deep residual learning for image recognition》。“
掌声响起。
陈阳从第一排站起身,走上讲台。
聚光灯打在他身上,台下数百双眼睛盯著他。
他深吸一口气,接过话筒。
“各位下午好,我是陈阳。“
他的声音平静而清晰,英语发音標准。
“在开始之前,我想先问一个问题:为什么深度神经网络不能无限加深?“
大屏幕上出现了一张图表,显示著网络层数和准確率的关係。
“传统观点认为,网络越深,表达能力越强。但事实上,当网络超过一定深度后,准確率反而会下降。“
陈阳点击翻页。
“这就是所谓的退化问题。很多人认为这是过擬合导致的,但实际上,即使在训练集上,深层网络的表现也不如浅层网络。“
台下的学者们点头,这確实是困扰业界多年的难题。
“那么,问题出在哪里?“
陈阳的语气突然变得锐利:
“问题在於,我们让网络学习的东西太难了。“
他点击下一页,屏幕上出现了一个简单的示意图。
左边是传统网络:输入x经过两层网络,输出h(x)。
右边是残差网络:输入x经过两层网络得到f(x),然后加上原始输入x,输出h(x)= f(x)+ x。
“这就是残差学习的核心思想。“
陈阳的声音在寂静的会场里迴荡:
“与其让网络直接学习h(x),不如让它学习残差f(x)= h(x)- x。“
“为什么这样更简单?因为在很多情况下,最优映射接近於恆等映射。也就是说,f(x)接近於0,比直接学习h(x)要容易得多。“
台下开始有窃窃私语声。
“太简单了……“
“为什么我们之前没想到?“
“等等,这真的有效吗?“
陈阳似乎听到了这些质疑,他点击下一页。
本章未完,点击下一页继续阅读。(1 / 2)