这是一篇计算机视觉入门指南,从概念、原理、用例等角度介绍了计算机视觉。
「机器能够模拟人类视觉系统」的幻想已经过时了。自 1960 年代第一批学术论文出现以来,计算机视觉已经走了很远,现代系统已经出现,且它们可以集成到移动应用中。
今天,由于其广泛应用和巨大潜力,计算机视觉成为最热的人工智能和机器学习子领域之一。其目标是:复制人类视觉的强大能力。
但是,到底什么是计算机视觉?它在不同行业中的应用现状如何?知名的商业用例有哪些?典型的计算机视觉任务是什么?
本文将介绍计算机视觉的基础概念和现实应用,对任何听说过计算机视觉但不确定它是什么以及如何应用的人,本文是了解计算机视觉这一复杂问题的便捷途径。
计算机视觉解决什么问题
区分计算机视觉与其相关领域
零售业
制造业
医疗行业
自动驾驶
保险业
农业
安防
图像分类
定位
目标检测
目标识别
实例分割
目标追踪
视觉搜索引擎
Facebook 人脸识别
Amazon Go
特斯拉自动驾驶
微软 InnerEye
计算机视觉在小公司的应用现状
如何实现计算机视觉项目
人类能够理解和描述图像中的场景。以下图为例,人类能做到的不仅仅是检测到图像前景中有四个人、一条街道和几辆车。
披头士专辑《艾比路》的封面。(图源:https://liveforlivemusic.com/news/beatles-abbey-road/)
除了这些基本信息,人类还能够看出图像前景中的人正在走路,其中一人赤脚,我们甚至知道他们是谁。我们可以理性地推断出图中人物没有被车撞击的危险,白色的大众汽车没有停好。人类还可以描述图中人物的穿着,不止是衣服颜色,还有材质与纹理。
这也是计算机视觉系统需要的技能。简单来说,计算机视觉解决的主要问题是:
给出一张二维图像,计算机视觉系统必须识别出图像中的对象及其特征,如形状、纹理、颜色、大小、空间排列等,从而尽可能完整地描述该图像。
计算机视觉完成的任务远超其他领域,如图像处理、机器视觉,尽管它们存在一些共同点。接下来,我们就来了解一下这些领域之间的差异。
图像处理旨在处理原始图像以应用某种变换。其目标通常是改进图像或将其作为某项特定任务的输入,而计算机视觉的目标是描述和解释图像。例如,降噪、对比度或旋转操作这些典型的图像处理组件可以在像素层面执行,无需对图像整体具备全面的了解。
机器视觉是计算机视觉用于执行某些(生产线)动作的特例。在化工行业中,机器视觉系统可以检查生产线上的容器(是否干净、空置、无损)或检查成品是否恰当封装,从而帮助产品制造。
计算机视觉可以解决更复杂的问题,如人脸识别、详细的图像分析(可帮助实现视觉搜索,如 Google Images),或者生物识别方法。
人类不仅能够理解图像中的场景,稍加训练,还能解释书法、印象派画家、抽象画,以及胎儿的二维超声图像。
从这个角度来看,计算机视觉领域尤其复杂,它拥有大量的实际应用。
从电商到传统行业,各种类型和规模的公司现在都可以利用计算机视觉的强大能力,这是依赖于人工智能和机器学习(更具体地说是计算机视觉)的创新所带来的利好。
下面我们就来看看,近年来受计算机视觉影响最大的行业应用。
近年来,计算机视觉在零售业的应用已成为最重要的技术趋势之一。下文将介绍一些常见的用例。如果你想对计算机视觉在零售业的潜在应用有更详细的了解,请参考:
https://tryolabs.com/resources/retail-innovations-machine-learning/。
实体零售店利用计算机视觉算法和摄像头,了解顾客及其行为。
计算机视觉算法能够识别人脸,确定人物特征,如性别或年龄范围。此外,零售店还可以利用计算机视觉技术追踪顾客在店内的移动轨迹,分析其移动路线,检测行走模式,并统计零售店店面受到行人注意的次数。
添加视线方向检测后,零售店能够回答这一重要问题:将店内商品放在哪个位置可以提升消费者体验,最大化销售额。
计算机视觉还是开发防盗窃机制的强大工具。人脸识别算法可用于识别已知的商店扒手,或检测出某位顾客将商品放入自己的背包。
通过安防摄像头图像分析,计算机视觉算法可以对店内剩余商品生成非常准确的估计。对于店铺管理者来说,这是非常宝贵的信息,它可以帮助管理者立即察觉不寻常的货物需求,并及早作出反应。
另一个常见应用是:分析货架空间利用情况,识别次优配置。除了发现被浪费的空间以外,此类算法还可以提供更好的货品摆放方案。
生产线上的主要问题是机器中断或残次品,这些问题会导致生产延迟和利润损失。
计算机视觉算法被证实是实施预测性维护的好方法。算法通过分析(来自机器人身上摄像头等的)视觉信息,预先发现机器的潜在问题。此类系统可以预测包装或汽车装配机器人是否会中断,这是一项巨大的贡献。
这同样可用于降低不良率,系统可以检测出整个生产线上各个组件中的缺陷。这使得制造商实时响应,采取解决办法。缺陷可能不那么严重,生产流程可以继续,但是产品以某种方式被标记,或者被指向特定的生产路径。但是,有时停止生产线是必要的。为了进一步的利益,此类系统可以针对每个用例进行训练,按类型和严重程度对缺陷进行分类。
毫无疑问,医疗图像分析是最著名的例子,它可以显著提升医疗诊断流程。此类系统对 MRI 图像、CT 扫描图像和 X 光图像进行分析,找出肿瘤等异常,或者搜索神经系统疾病的症状。
在很多情况下,图像分析技术从图像中提取特征,从而训练能够检测异常的分类器。但是,一些特定应用需要更细化的图像处理。例如,对结肠镜检查图像进行分析时,分割图像是必要的,这样才能找出肠息肉,防止结直肠癌。
胸腔 3D 渲染 CT 扫描图像的体分割。(图源:https://en.wikipedia.org/wiki/Image_segmentation)
上图是观察胸腔元素所需的图像分割结果。该系统分割每个重要部分并着色:肺动脉(蓝色)、肺静脉(红色)、纵膈(黄色)和横膈(紫色)。
目前大量此类应用已经投入使用,如估计产后出血量、量化冠状动脉钙化情况、在没有 MRI 的情况下测定人体内的血流量。
但是,医疗图像并非计算机视觉在医疗行业中唯一的用武之地。比如,计算机视觉技术为视障人士提供室内导航帮助。这些系统可以在楼层平面图中定位行人和周围事物等,以便实时提供视觉体验。视线追踪和眼部分析可用于检测早期认知障碍,如儿童自闭症或阅读障碍,这些疾病与异常注视行为高度相关。
你是否思考过,自动驾驶汽车如何「看」路?计算机视觉在其中扮演核心角色,它帮助自动驾驶汽车感知和了解周围环境,进而恰当运行。
计算机视觉最令人兴奋的挑战之一是图像和视频目标检测。这包括对不同数量的对象进行定位和分类,以便区分某个对象是交通信号灯、汽车还是行人,如下图所示:
自动驾驶汽车目标检测。(图源:https://cdn-images-1.medium.com/max/1600/1*q1uVc-MU-tC-WwFp2yXJow.gif)
此类技术,加上对来自传感器和/或雷达等来源的数据进行分析,使得汽车能够「看见」。
图像目标检测是一项复杂的强大任务,之前我们曾经讨论过,参见:
https://tryolabs.com/blog/2017/08/30/object-detection-an-overview-in-the-age-of-deep-learning
/。
另一篇文章从人类-图像交互的角度探讨这一主题,参见:
https://tryolabs.com/blog/2018/03/01/introduction-to-visual-question-answerin
g/。
计算机视觉在保险业中的应用影响很大,尤其是在理赔处理中。
计算机视觉应用可以指导客户以视觉形式进行理赔文件处理。它可以实时分析图像并发送至适合的保险经纪人。同时,它可以估计和调整维护费用,确定是否在保险覆盖范围内,甚至检测是否存在保险欺诈。所有这些最大程度上缩短了索赔流程,为客户提供更好的体验。
从预防的角度来看,计算机视觉在避免意外事故方面用处极大。大量可用于阻止碰撞的计算机视觉应用被整合到工业机械、汽车和无人机中。这是风险管理的新时代,可能改变整个保险业。
在粮食生产这一全球经济活动中,存在一系列宝贵的计算机视觉应用。粮食生产面临一些反复出现的问题,之前这些问题通常由人类监控。而现在,计算机视觉算法可以检测或合理预测病虫害。此类早期诊断可帮助农民快速采取合适措施,减少损失,保证生产质量。
另一项长期挑战是除草,因为杂草对除草剂产生抗药性,可能给农民带来严重损失。现在出现了配备有计算机视觉技术的机器人,它们可以监控整片农田,精准喷洒除草剂。这极大地节约了使用农药量,为地球环境和生产成本均带来了极大的益处。
土壤质量也是农业中的一大主要因素。一些计算机视觉应用可以从手机拍摄的照片中识别出土壤的潜在缺陷和营养缺乏问题。分析之后,这些应用会针对检测出的土壤问题,提供土壤恢复技术和可能的解决方案。
计算机视觉还可用于分类。一些算法通过识别水果、蔬菜甚至花卉的主要特性(如大小、质量、重量、颜色、纹理等),对其进行分类。这些算法还能够检测缺陷,估计出哪些农产品保鲜期较长、哪些应该放置在本地市场售卖。这极大延长了农产品的保鲜期,减少了农产品上市前所需时间。
与零售业类似,对安全具备高要求的企业(如银行或赌场)可从计算机视觉应用中获益,这些应用对安防摄像头拍摄的图像进行分析,从而识别顾客。
而从另一个层面上来讲,计算机视觉是国土安全任务中的强大工具。它可用于改进港口货物检验,或者监控敏感场所,如大使馆、发电站、医院、铁路和体育场。这里,计算机视觉不仅能够分析和分类图像,还能对场景提供详细且有意义的描述,为决策实时提供关键因素。
通常,计算机视觉广泛应用于国防任务,如侦察敌军地形、自动确认图像中的敌军、自动化车辆和机器移动,以及搜索援救。
典型的计算机视觉任务
计算机视觉基于大量不同任务,并组合在一起实现高度复杂的应用。计算机视觉中最常见的任务是图像和视频识别,涉及确定图像包含的不同对象。
计算机视觉中最知名的任务可能就是图像分类了,它对给定图像进行分类。我们看一个简单的二分类例子:我们想根据图像是否包含旅游景点对其进行分类。假设我们为此任务构建了一个分类器,并提供了一张图像(见下图)。
埃菲尔铁塔(图源:https://cdn.pariscityvision.com/media/wysiwyg/tour-eiffel.jpg)
该分类器认为上述图像属于包含旅游景点的图像类别。但这并不意味着分类器认出埃菲尔铁塔了,它可能只是曾经见过这座塔的照片,并且当时被告知图像中包含旅游景点。
巴黎旅游景点明信片。(图源:http://toyworldgroup.com/image/cache/catalog/Ecuda%20Puzzles/Postcard%20Form%20Paris%20/14840-500x500.jpg)
该分类器的更强大版本可以处理不止两个类别。例如,分类器将图像分类为旅游景点的特定类型,如埃菲尔铁塔、凯旋门、圣心大教堂等。那么在此类场景中,每个图像输入可能有多个答案,就像上面那张明信片一样。
假设,现在我们不仅想知道图像中出现的旅游景点名称,还对其在图像中的位置感兴趣。定位的目标就是找出图像中单个对象的位置。例如,下图中埃菲尔铁塔的位置就被标记出来了。
被红色边界框标记出的埃菲尔铁塔。(图源:https://cdn.pariscityvision.com/media/wysiwyg/tour-eiffel.jpg)
执行定位的标准方式是,在图像中定义一个将对象围住的边界框。
定位是一个很有用的任务。比如,它可以对大量图像执行自动对象剪裁。将定位与分类任务结合起来,就可以快速构建著名旅游景点(剪裁)图像数据集。
我们想象一个同时包含定位和分类的动作,对一张图像中的所有感兴趣对象重复执行该动作,这就是目标检测。该场景中,图像中的对象数量是未知的。因此,目标检测的目标是找出图像中的对象,并进行分类。
目标检测结果(图源:http://research.ibm.com/artificial-intelligence/computer-vision/images/cv-research-areas-object-detection.jpg)
在这个密集图像中,我们可以看到计算机视觉系统识别出大量不同对象:汽车、人、自行车,甚至包含文本的标志牌。
这个问题对人类来说都算困难的。一些对象只显示出一部分,因为它们有一部分在图像外,或者彼此重叠。此外,相似对象的大小差别极大。
目标检测的一个直接应用是计数,它在现实生活中应用广泛,从计算收获水果的种类到计算公众集会或足球赛等活动的人数,不一而足。
目标识别
目标识别与目标检测略有不同,尽管它们使用类似的技术。给出一个特定对象,目标识别的目标是在图像中找出该对象的实例。这并不是分类,而是确定该对象是否出现在图像中,如果出现,则执行定位。搜索包含某公司 logo 的图像就是一个例子。另一个例子是监控安防摄像头拍摄的实时图像以识别某个人的面部。
我们可以把实例分割看作是目标检测的下一步。它不仅涉及从图像中找出对象,还需要为检测到的每个对象创建一个尽可能准确的掩码。
你可以从上图中看到,实例分割算法为四位披头士成员和一些汽车创建掩码(不过该结果并不完整,尤其是列侬)。
人工执行此类任务的成本很高,而实例分割技术使得此类任务的实现变得简单。在法国,法律禁止媒体在未经监护人明确同意的情况下暴露儿童形象。使用实例分割技术,可以模糊电视或电影中的儿童面部。
目标追踪旨在追踪随着时间不断移动的对象,它使用连续视频帧作为输入。该功能对于机器人来说是必要的,以守门员机器人举例,它们需要执行从追球到挡球等各种任务。目标追踪对于自动驾驶汽车而言同样重要,它可以实现高级空间推理和路径规划。类似地,目标追踪在多人追踪系统中也很有用,包括用于理解用户行为的系统(如零售店的计算机视觉系统),以及在游戏中监控足球或篮球运动员的系统。
执行目标追踪的一种相对直接的方式是,对视频序列中的每张图像执行目标追踪并对比每个对象实例,以确定它们的移动轨迹。该方法的缺陷是为每张图像执行目标检测通常成本高昂。另一种替换方式仅需捕捉被追踪对象一次(通常是该对象出现的第一次),然后在不明确识别该对象的情况下在后续图像中辨别它的移动轨迹。最后,目标追踪方法未必就能检测出对象,它可以在不知道追踪对象是什么的情况下,仅查看目标的移动轨迹。
计算机视觉运行原理
如前所示,计算机视觉的目标是模仿人类视觉系统的工作方式。算法如何实现这一目标呢?本文将介绍其中最重要的几个概念。
深度学习方法和技术深刻改变了计算机视觉以及其他人工智能领域,对于很多任务而言,使用深度学习方法已经成为标准操作。尤其是,卷积神经网络(CNN)的性能超过了使用传统计算机视觉技术所能达到的最优结果。
以下四步展示了利用 CNN 构建计算机视觉模型的通用方法:
创建一个包含标注图像的数据集或者使用现有的数据集。标注可以是图像类别(适用于分类任务)、边界框和类别对(适用于目标检测问题),或者对图像中每个感兴趣对象进行像素级分割(适用于实例分割问题)。
从每张图像中提取与待处理任务相关的特征,这是建模的重点。例如,用来识别人脸的特征、基于人脸标准的特征与用来识别旅游景点或人体器官的特征存在显著区别。
基于特征训练深度学习模型。训练意味着向机器学习模型输入很多图像,然后模型基于特征学习如何解决任务。
使用不同于训练所用数据的图像评估模型,从而测试训练模型的准确率。
该策略非常基础,但效果不错。这类方法叫做监督机器学习,它需要包含模型待学习现象的数据集。
构建数据集通常成本高昂,但是它们对于开发计算机视觉应用至关重要。幸运的是,目前有一些现成的数据集。其中规模最大、最著名的是 ImageNet,该数据集包含 1400 万人工标注图像。该数据集包含 100 万张具备边界框标注的图像。
带有边界框的 ImageNet 图像(图源:http://www.image-net.org/bbox_fig/kit_fox.JPG)
具备对象属性标注的 ImageNet 图像(图源:http://www.image-net.org/attribute_fig/pullfigure.jpg)
另一个著名数据集是 Microsoft Common Objects in Context (COCO) 数据集,它包含 328,000 张图像、91 个对象类别(这些类别很容易识别,4 岁孩童也可以轻松识别出来),以及 250 万标注实例。
COCO 数据集中的标注图像示例。(图源:https://arxiv.org/abs/1405.0312)
尽管该领域可用数据集并不是特别多,但仍然有一些适合不同的任务,如 CelebFaces Attributes Dataset(CelebA 数据集,该人脸属性数据集包含超过 20 万张名人图像)、Indoor Scene Recognition 数据集(包含 15,620 张室内场景图像)、Plant Image Analysis 数据集(包括属于 11 个不同类别的 100 万张植物图像)。
有很多种方法可以解决目标检测问题。很多年来,Paul Viola 和 Michael Jones 在论文《Robust Real-time Object Detection》中提出的方法成为流行的方法。
尽管该方法可用来检测大量对象类别,但它最初是受人脸检测目标的启发。该方法快速、直接,是傻瓜相机中所使用的算法,它可以在几乎不浪费处理能力的情况下执行实时人脸检测。
该方法的核心特征是:基于哈尔特征与大量二分类器一起训练。哈尔特征表示边和线,计算简单。
哈尔特征(图源:https://docs.opencv.org/3.4.3/haar_features.jpg)
尽管比较基础,但在人脸检测这一特定案例下,这些特征可以捕捉到重要元素,如鼻子、嘴或眉间距。该监督方法需要很多正类和负类样本。
本文暂不讨论算法细节。不过,上图展示了该算法检测蒙娜丽莎面部的过程。
深度学习变革了机器学习,尤其是计算机视觉。目前基于深度学习的方法已经成为很多计算机视觉任务的前沿技术。
其中,R-CNN 易于理解,其作者提出了一个包含三个阶段的流程:
利用区域候选(region proposal)方法提取可能的对象。
使用 CNN 识别每个区域中的特征。
利用支持向量机(SVM)对每个区域进行分类。
R-CNN 架构(图源:https://arxiv.org/abs/1311.2524)
该区域候选方法最初由论文《Selective Search for Object Recognition》提出,尽管 R-CNN 算法并不在意使用哪种区域候选方法。步骤 3 非常重要,因为它减少了候选对象的数量,降低了计算成本。
这里提取的特征没有哈尔特征那么直观。总之,CNN 可用于从每个区域候选中提取 4096 维的特征向量。鉴于 CNN 的本质,输入应该具备同样的维度。这也是 CNN 的弱点之一,很多方法解决了这个问题。回到 R-CNN 方法,训练好的 CNN 架构要求输入为 227 × 227 像素的固定区域。由于候选区域的大小各有不同,R-CNN 作者通过扭曲图像的方式使其维度满足要求。
尽管该方法取得了很好的结果,但训练过程中存在一些困难,并且该方法最终被其他方法超越。其中一些方法在这篇文章中有深入介绍:
https://tryolabs.com/blog/2017/08/30/object-detection-an-overview-in-the-age-of-deep-learning/。
计算机视觉应用被越来越多的公司部署,用于回答业务问题或提升产品性能。它们或许已经成为人们日常生活的一部分,你甚至都没有注意到它。以下是一些常见的使用案例。
2001 年,Google Images 的出现意味着视觉搜索技术可被大众使用。视觉搜索引擎能够基于特定内容标准检索图像。常见用例是搜索关键词,不过有时候我们会提供源图像,要求引擎找出相似图像。在某些案例中,可以指定更详细的搜索条件,如沙滩的图像、夏天拍摄、至少包含 10 个人。
现在有很多视觉搜索引擎,有的可以网站形式直接使用,有的需要通过 API 调用,有的则是移动应用。
最著名的视觉搜索网站无疑是 Google Images、Bing 和 Yahoo。前两个网站均可使用多个关键词或者单张图像作为搜索输入,以图像作为搜索输入又名「反向图像搜索」(以图搜图)。Yahoo 仅支持关键词搜索,搜索结果同样不错,如下图所示。
Yahoo 图像搜索。
还有一些视觉搜索网站同样值得关注,如仅支持反向图像搜索的 TinEye,以及仅支持文本搜索但覆盖范围极大的 Picsearch。
在移动应用方面,由于视觉搜索技术逐渐成为标准特征,此类应用之间的区别较大。
此类实现包括 Google Goggles(后被 Google Lens 取代),它可从图像中获取详细信息。例如,从一张猫照片中得到其品种信息,或者提供博物馆中艺术作品的信息。
在电商市场中,Pinterest 开发了 Pinterest Lens。如果你需要现有衣物的新穿搭想法,你可以为这件衣服拍张照,之后 Pinterest Lens 会返回穿搭建议,该建议包括你可以购买的搭配单品。近年来,针对网购的视觉搜索成为增长最快的趋势之一。
最后,视觉搜索的更高阶案例是视觉问答系统,参见:
https://tryolabs.com/blog/2018/03/01/introduction-to-visual-question-answering/。
尽管早在 2000 年代中期,出于自动对焦目的而使用人脸检测技术的相机已经普遍,但近年来人脸识别领域出现了很多更优秀的成绩。最常见(也最具争议)的应用或许就是识别图像或视频中的人物。这通常用于安防系统,但也出现在社交媒体中:人脸管理系统为人脸添加过滤器,以便按人脸执行搜索,甚至在选举过程中阻止选民多次投票。人脸识别还可用到更复杂的场景,如识别面部表情中的情绪。
其中同时引发了兴趣和担忧的用例是 Facebook 的人脸识别系统。开发团队的一个主要目标是阻止陌生人使用出现用户人脸的图像(见下图的示例),或者向视障用户告知图像或视频中出现的人物。
Facebook 人脸识别。(图源:https://cdn0.tnwcdn.com/wp-content/blogs.dir/1/files/2017/12/Facebook-Tagging-796x428.jpg)
除了那些令人担忧的部分以外,这项技术在很多场景中是有益的,比如对抗网络骚扰。
厌倦了超市和杂货店的排队等待?Amazon Go 商店提供别样的体验。在计算机视觉的帮助下,这里不用排队,也没有包装箱。
其思路很简单:顾客进入商店,选择所需商品,离开商店,不用排队结账。
这是如何实现的呢?多亏了 Amazon 的「Just Walk Out」技术。顾客必须下载一个移动 app,该 app 可以帮助 Amazon 识别他们的身份。当他们想进入 Amazon Go 商店时,该 app 提供一个二维码。商店入口处有一些闸机供顾客出入商店,顾客进入商店时,闸机读取顾客的二维码。一个有趣的功能是,其他人可以陪伴该顾客一起进入商店,且陪伴者无需安装该应用程序。
顾客可以在商店内自由移动,而这也是计算机视觉发挥作用之处。商店内安装有一系列传感器,包括摄像头、运动传感器和商品上的重量传感器。这些设备收集了每个人的行为信息。它们实时检测顾客从货架上拿取的货品。顾客可以取下某个货品,改变主意的话再放回去。系统最终会向第一个拿起它的顾客收费,即使它被递给另一位想要购买的顾客,第一位拿起它的顾客仍然需要支付费用。于是系统创建了一个包含所有拿起货品的虚拟购物车,并进行实时维护。这使得顾客的购物流程非常顺利。
当顾客完成购物,即可走出商店。当他们经过闸机时,系统不会让顾客扫描货品或二维码,而是记录交易额并向顾客发送确认通知。
Amazon Go 是计算机视觉对现实世界和人类日常生活产生积极影响的一个案例。
让汽车自动行驶不只是一个遥远的梦。特斯拉 Autopilot 技术提供非常方便的自动驾驶功能。这并不是全自动驾驶系统,而是可在特定路段上驾驶汽车的驾驶助手。这是特斯拉强调的重点:在所有情况下,控制汽车都是驾驶员的责任。
要想使 Autopilot 工作,特斯拉汽车必须「高度武装」:八个全景摄像头提供 250 米范围内的 360 度图像、超声波传感器用于检测对象、雷达用来处理周围环境信息。这样,特斯拉汽车才能够根据交通条件调整行驶速度,在遇到障碍物时及时刹车,保持或变换车道,拐弯以及流畅地停车。
特斯拉 Autopilot 技术是计算机视觉对人类日常活动带来积极影响的另一个精彩案例。
微软 InnerEye
在医疗行业中,微软的 InnerEye 是帮助放射科医生、肿瘤专家和外科医生处理放射图像的宝贵工具。其主要目的是从恶性肿瘤的 3D 图像中准确识别出肿瘤。
基于计算机视觉和机器学习技术,InnerEye 输出非常详细的肿瘤 3D 建模图像。以上截图展示了 InnerEye 创建的对脑部肿瘤的完整 3D 分割。从上述视频中,你可以看到专家控制 InnerEye 工具,指引它执行任务,InnerEye 像助手一样运行。
在放射疗法中,InnerEye 结果使得不伤害重要器官直接针对目标肿瘤进行放射成为可能。
这些结果还帮助放射科医生更好地理解图像序列,基于肿瘤大小的变化,判断疾病是否有进一步发展、稳定,或者对治疗反应良好。这样,医疗图像就成为一种重要的追踪和衡量方式。
计算机视觉在大公司的实现常被大家谈论,但这不意味着所有公司必须是谷歌或亚马逊那种量级才能从该机器学习技术中受益。任何规模的公司都可以利用数据和计算机视觉技术变得更加高效,制定更好的决策。
Tryolabs 曾帮助一家位于旧金山的小型风险管理公司构建和实现了一个计算机视觉系统,用于扩展对屋顶检查图像的处理。
在使用计算机视觉技术之前,公司专家人工分析无人机拍摄的照片,检测屋顶建设中的损伤。尽管分析结果很准确,但由于服务耗时且人力资源有限,该服务无法得到有效扩展。
为了解决这个问题,我们构建了一个能够理解图像并自动识别屋顶问题(如积水、电缆松散和铁锈)的深度学习系统。为此,我们开发了一个能够基于屋顶图像检测问题的深度神经网络、分析输入图像的流程,以及使检测结果可用于外部工具的 API。
如何实现计算机视觉项目
和在组织内值得进行的所有创新一样,你应该选择一种有策略的方式来实现计算机视觉项目。
利用计算机视觉技术实现成功创新取决于整体业务策略、资源和数据。
以下问题可以帮助你为计算机视觉项目构建战略路线图。
1、计算机视觉解决方案应该降低成本还是增加收益?
成功的计算机视觉项目要么降低成本要么提高收益(或者二者兼顾),你应该定义该项目的目标。只有这样,它才能对组织及其发展产生重要影响。
2、如何衡量项目的成功?
每个计算机视觉项目都是不同的,你需要定义一个特定于该项目的成功指标。设置好指标后,你应该确保它被业务人员和数据科学家等认可。
3、能否保证信息的获取?
开启计算机视觉项目时,数据科学家应该能够轻松访问数据。他们需要和来自不同部门(如 IT 部门)的重要同事合作。这些同事应以其业务知识提供支持,内部官僚主义则会成为主要约束。
计算机视觉算法并非魔法。它们需要数据才能运作,输入数据的质量决定其性能。有多种不同方法和来源可供收集合适数据,这取决于你的目标。无论如何,拥有的输入数据越多,计算机视觉模型性能优秀的可能性越大。如果你对数据的量和质存在疑虑,你可以请数据科学家帮忙评估数据集质量,必要情况下,找到获取第三方数据的最优方式。
除了拥有合适量和类型的数据以外,你还需要确保数据的格式。假设你使用数千张完美的手机照片(分辨率高,背景为白色)训练目标检测算法。然后发现算法无法运行,因为实际用例是在不同光照/对比度/背景条件下检测持有手机的人,而不是检测手机本身。这样你之前的数据收集努力基本上就作废了,你还需要重头再来。此外,你应该了解,如果数据存在偏见,算法会学到该偏见。
关于如何开启成功的计算机视觉项目,参见博客:
https://tryolabs.com/blog/2019/02/13/11-questions-to-ask-before-starting-a-successful-machine-learning-project/。
希望本文能够帮助读者了解计算机视觉概念、运作原理以及现实应用。
原文链接:
https://tryolabs.com/resources/introductory-guide-computer-vision/