《
Deep web data extraction based on visual information processing》
作者 J Liu 上海海事大学 2017 AIHC会议登载
引用 Liu J, Lin L, Cai Z, et al. Deep web data extraction based on visual information processing[J]. Journal of Ambient Intelligence & Humanized Computing, 2017(1):1-11.
简介
一种基于卷积神经网络(CNN)的数据区域定位方法
结合视觉信息进行网页的分割(作者命名为VIBS)
1、CNN 基于卷积神经网路进行区域定位
CNN网络结构由3个阶段组成,如图所示 。第一阶段设置卷积层和汇集层以学习图像的特征。第二阶段是设置展平图层所必需的,展平图层会将卷积图层和合并图层生成的特征图转换为一维矢量,以计算完整的连接图层。除了为输出设置最后一个完全连接之外,第三阶段设置多个连接层以过滤先前层学习的特征。
网络架构设计使用13级CNN,包括5个采样层(S),6个卷积层(C)和2个完全连接层。
据区域检测的标准IOU,如果IOU > 50%,则数据区域被视为正样本。
区域定位主要步骤流程图如下
2、基于视觉信息的网页分割方法 VIBS
3、实验结果和分析
数据集(Lianjia、Complanet、Fangjia)
58,500个样本数据集,其中有195种具有不同大小和不同位置的图像样本,包含数据区域,总共300个组。
实验结果
总结
总体看下来,文章的创新意义大于实际意义吧,这么高的精确度,感觉像是过拟合了,而且速度不可能这么快,应该是把网页先行保存成图片了的,文章写得很不错,对比什么的体系也比较完善,就是有些地方没有讲清楚,比如能否divide的判定等。