车震视频 你的位置:jiuse > 车震视频 > 真实迷奸 视频群体活动识别综述
真实迷奸 视频群体活动识别综述

发布日期:2024-11-01 19:56    点击次数:128


真实迷奸 视频群体活动识别综述

1 简介 1.1 商酌配景

跟着计较机期间的快速发展, 种种各样的电子开发, 包括监控录像头、手机、电脑等, 每天都会产生海量的图像数据. 这些海量图像数据中包含着丰富的有价值的信息, 然则只是依靠东谈主力难以完成对扫数图像数据的分析和处理. 作为东谈主工智能商酌中的一个要紧分支, 计较机视觉的主要商酌主义即是让计较机模子粗略从原始图像数据中索求出有用的、结构化的高层语义信息[1−4]. 在一个完好的东谈主工智能系统中真实迷奸, 计较机视觉模子主要充任了感知器的决策, 可以匡助东谈主工智能系统获取图像中的视觉语义信息, 对现时环境进行感知, 赞成卑鄙的决策模子进行决策.

早期的计较机视觉商酌皆集在图片意会问题上, 即模子的输入是单张图片. 然则, 由于单张图片所能容纳的信息有限, 东谈主们愈加倾向于遴荐视频来作为记载的信息载体. 跟着越来越多视频数据的产生, 实际生计中也出现了许多需要视频意会期间的应用场景. 比如: 在安防监控场景下, 需要视频意会期间来自动识别监控视频画面中的特殊活动, 及时发出预警; 在互联网视频场景下, 需要视频意会期间自动地识别海量视频大数据的内容, 索求结构化信息, 提供给安全审查、内容检索、视频保举等卑鄙模子使用. 近些年来, 部分计较机视觉商酌使命也驱动温雅以视频数据作为输入的视觉意会问题, 视频意会期间也渐渐成为商酌热门和发展场地[5−10]. 从期间角度看, 比拟于图片数据, 视频数据加多了一个时序维度, 需要模子具未必序建模才智, 粗略交融多帧信息, 建模时序动态变化. 此外, 视频中存在许多无关冗余信息, 存在开通暧昧问题, 视频处理的计较支拨也更大, 处理何况意会视频数据更具挑战性.

本文主要温雅视频中的群体活动识别问题. 活动识别问题是指给定一个视频片断, 需要模子识别出视频中东谈主物正在进行的活动动作, 比如吃饭、念书、跑步等. 早期的视频活动识别商酌局限在单东谈主场景下[4, 12−17], 即视频中仅包含一个东谈主物. 如图 1(a)所示: 单东谈主活动识别模子摄取一个视频片断作为输入, 输出一个动作类别, 泄漏视频主体任务正在进行的动作. 然则在实质应用场景中, 视频中可能存在多个东谈主物, 需要模子具有建模多东谈主复杂场景的才智. 跟着关系商酌的不休深远, 针对多东谈主场景意会的群体活动识别任务[11, 18]被建议并被加以商酌. 群体活动识别任务是指输入视频中包含多个东谈主物, 需要模子识别出多个东谈主物正在共同完成的群体活动, 比如沿途行走、沿途列队、沿途交谈. 图 1(b)展示了一个群体活动的样例, 视频画面中的多个排球开通员正在彼此合作, 共同完成“右方要紧”这一群体动作.

图 1 单东谈主活动识别[4]与群体活动识别[11]任务暗示图

多东谈主场景下的群体活动识别期间, 让视频意会模子粗略嘱咐场景较为复杂的多东谈主视频, 应用场景额外平庸. 在多东谈主场景的安防监控视频中, 自动地识别监控画面中东谈主群的活动, 在发现特殊活动时进行预警. 此外, 在体育比赛视频中, 可以对开通员们的动作进行自动识别和分析. 由于其平庸的应用需求, 群体活动识别商酌也受到了平庸温雅. 本文对近几年来群体活动识别问题上的无数商酌使命进行了深远分析, 总结出了群体活动识别商酌的主要难点和挑战, 系统地归纳出了6种类型的群体活动识别方法, 包含传统非深度学习识别方法以及基于深度学习期间的识别方法, 何况对改日商酌的可能场地进行了瞻望.

1.2 濒临的挑战

比拟于简便的单东谈主场景视频, 多东谈主场景视频所包含的视觉信息愈加丰富, 对模子索求关节信息的才智要求更高. 通过对无数关系商酌使命进行分析, 咱们总结了群体活动识别问题的主要难点, 这些难点亦然之前大多数商酌使命的商酌切入点.

1) 怎么索求具有区分性的群体特征?

好的特征是准确分类的前提, 高效的特征索求方法也一直是计较机视觉领域商酌的中枢问题. 传统非深度学习方法时时选定手工想象的特征形容子来索求输入图像中的特征. 而深度学习方法使用卷积神经蚁集自动学习卷积核来索求特征. 在群体活动识别问题上, 商酌东谈主员挖掘出了许多对识别准确率提高有匡助的特征, 包括视觉特征、空间位置结构特征、关系信息特征、场景凹凸文特征、东谈主物姿态特征、东谈主物开通特征等. 怎么准确地索求故意于群体活动识别的特征是一大商酌挑战.

2) 怎么建模场景中的多档次关系?

群体活动中包含着多档次的关系信息, 比如东谈主与东谈主的交互关系、东谈主与群体的关系、子群体与子群体的关系. 建模并诓骗这些关系, 可以匡助模子更好地区分不同的群体活动. 然则这些关系都比较抽象, 也短缺记号数据让模子来学习. 因此, 怎么让模子温雅场景中的关系信息是一个商酌难点. 无数商酌使命围绕这一问题张开了商酌, 并建议了许多针对群体活动识别的关系建模模子.

3) 怎么建模视频中的时序动态性?

由于东谈主物活动动作发生在视频中的一个时期段, 仅依靠单张图片时时难以区分, 因此需要模子具未必序建模的才智, 粗略索求出时序动态特征来泄漏东谈主物动作和群体活动的时序动态性. 怎么高效并准确地对视频数据进行时序建模, 被许多商酌使命所温雅.

4) 怎么幸免无关东谈主物或噪声信息对识别截止变成影响?

群体活动所发生的多东谈主场景时时额外复杂, 包含许多噪声信息. 举例, 可能存在不参与群体活动的无关东谈主物, 配景环境中可能存在与群体活动无关的区域. 这些噪声信息容易给群体活动识别模子变成误导, 给关系商酌带来挑战. 因此, 模子需要有介怀力机制, 粗略温雅场景中的关节信息, 何况阻难噪声信息.

1.3 主要期间方法

咱们分析了无数的群体活动识别商酌使命, 何况凭证它们所使用的期间方法和商酌动机将这些使命分红了6类. 表 1展示了这6种类别的群体活动识别方法, 何况列出了每类方法的典型使命偏执年份, 可以看到扫数这个词群体活动识别商酌的约莫时期条理.

表 1 群体活动识别方法归类

底下咱们简便先容每类方法的基本动机和作念法, 在第2节和第3节详尽先容每种方法的具体内容以及相应的商酌进展.

1) 基于空间位置结构信息的方法

波多野吉衣2018在线理论

最早期的群体活动识别商酌使命东要温雅东谈主群的空间结构, 但愿凭证东谈主物的位置信息、迁徙轨迹来识别出蕴蓄、分开、沿途行走等简便的群体活动. 该类方法的主要作念法是: 将视频画面看作是一个二维平面, 每个东谈主物看作二维平面上迁徙的点, 然后索求东谈主物迁徙轨迹的特征作为分类模子的输入. 这类方法的劣势是, 只是依靠位置信息难以区分一些复杂的、与空间位置无关的群体活动.

2) 基于多元特征形容子的方法

仅诓骗空间位置信息的群体特征的表征才智较差, 因此商酌东谈主员驱动尝试挖掘视频中对识别群体活动有匡助的种种特征, 包括视觉特征、东谈主物姿态特征、场景凹凸文特征、时序动态特征等. 这些基于多元特征形容子的方法通过想象新的特征形容子, 向模子中引入新的东谈主群特征, 增强模子对于不同群体活动的区分才智.此外, 商酌东谈主员也不休对现存特征形容子进行校正, 使得索求的特征愈加准确, 提高特征对于视角变化、规范变化、配景变化等噪声的鲁棒性.

3) 基于非深度学习关系模子的方法

多东谈主场景中的关系信息对于意会群体活动至关要紧, 在种种特征形容子所索求的东谈主物特征和东谈主群特征的基础上, 基于非深度学习关系模子的方法使用隐马尔可夫模子、贝叶斯蚁集、图模子、条款立地场等关系模子来建模群体活动中的档次化关绑缚构, 包括东谈主与东谈主的交互关系、东谈主与场景凹凸文的关系、东谈主和群体的关系、群体和群体的关系.

4) 基于档次化轮回神经蚁集的方法

受到深度学习期间在多个计较机视觉任务上得回成效的启发, 许多商酌使命驱动尝试使用深度学习模子来识别群体活动识别. 多东谈主场景视频中存在许多序列关系, 比如某个东谈主物在不同帧上的姿态可以看作一个序列, 销毁场景下的不同东谈主物的特征可以是一个序列. 基于档次化轮回神经蚁集的方法先使用卷积神经蚁集索求局部东谈主物特征, 再使用档次化轮回神经蚁集迟缓对不同档次的特征序列进行交融, 最终得到扫数这个词群体的全局特征用于群体活动识别.

5) 基于深度学习关系模子的方法

高效地建模场景中的关系信息, 可以灵验提高模子的群体活动识别准确率. 基于深度学习关系模子的方法尝试将图卷积蚁集、关系蚁集、轮回神经蚁集等深度蚁集应用到群体活动识别模子中, 用于索求关系信息, 提高模子对于场景中的关系信息的感知才智.

6) 基于介怀力机制的方法

在复杂的多东谈主场景中, 存在着许多与群体活动无关的噪声信息, 容易给群体活动识别变成误导. 模子需要对噪声信息进行过滤, 增强场景中的关节信息, 比如群体中的关节东谈主物的特征. 而基于介怀力机制的方法恰是使用深度蚁集来学习介怀力权重, 让模子温雅输入中的关节信息, 甩手噪声和无关信息, 进而提高群体活动识别模子的准确率.

1.4 本文组织

本文第1节先容群体活动识别商酌的配景, 证明关系商酌的必要性以及可以应用的场景, 何况总结群体活动识别商酌所濒临的主要挑战以及现时主要的期间方法归类. 然后, 详尽先容每类方法近几年的商酌进展景况. 其中, 第2节先容3类传统的群体活动识别方法类别, 第3节先容3类基于深度学习期间的群体活动识别方法. 第4节先容几个常用的群体活动识别数据集, 并对比主流先进群体活动识别方法的准确率. 在分析完关系商酌使命后, 第5节针对群体活动识别问题上改日可能的商酌场地进行瞻望. 终末, 第6节对全文进行总结.

2 传统非深度学习群体活动识别方法 2.1 基于空间位置结构信息的群体活动识别方法

在群体活动识别商酌的早期阶段, 细粒度的视觉意会期间还不够练习. 在低分辨率的监控录像头画面中, 个体东谈主物不够明晰, 难以索求东谈主物的姿态、肢体开通等视觉特征. 一些商酌东谈主员尝试领先使用主义追踪算法或者其他传感器来获取场景中每个东谈主物的位置, 基于空间位置结构来建模群体活动. 在这种情况下, 视频可以看作一个二维平面, 每个东谈主物可以看作在二维平面上迁徙的点, 可以通过对东谈主们的空间位置关系进行分析, 识别出场景中的群体活动. 如图 2所示: 凭证东谈主们迁徙轨迹的彼此关系, 可以判断出他们正在进行蕴蓄、跑步等群体活动.

图 2 基于空间位置结构信息的群体活动识别方法展示图[20]

文件[19]建议将每一时刻扫数东谈主物的位置建模成多边形, 基于多边形的阵势以及随时期的变形来识别群体活动, 判断现时视频中是否发生特殊活动. 基于阵势建模可以将扫数这个词东谈主群看作一个合座, 而不是对每个东谈主物单独建模. 作家使用kendall阵势表面来形容每一帧的多边形阵势, 何况臆度了普通活动的阵势概率散布.为了检测特殊活动, 可以臆度测试样本的阵势概率散布, 基于它和普通活动的概率散布的距离, 基于KL散度主义来判断是否发生特殊活动.

文件[36]一样基于东谈主群的空间结构来对多个东谈主物进行合座建模. 作家领先将东谈主物队形泄漏成三维的多边形, 其中每个极度是东谈主群中的个体东谈主物, 东谈主物的开通追踪轨迹作为每个极度的特征, 这么可以得到东谈主群阵势追踪矩阵. 然后对矩阵进行阐明何况臆度矩阵的秩, 终末对东谈主群的群体活动进行分类.

东谈主物迁徙轨迹的动态关系对于群体活动识别额外要紧. 举例: 对于“蕴蓄”这个群体活动, 东谈主们的迁徙轨迹是从不同的动身位置彼此围聚, 而对于“沿途行走”, 东谈主们的开通轨迹是朝着疏通的场地进行迁徙. 文件[20]建议使用3个档次的局部开通关系来编码群体活动, 包括自身关系、成对关系以及群体关系. 具体而言, 自身关系泄漏每个东谈主物迁徙轨迹的里面接洽, 每个时刻比拟于上一时刻是怎么变化的, 描摹了个体东谈主物的活动. 成对关系是指两个东谈主物之间的彼此位置变化关系, 比如隔离、围聚、追赶. 而群体关系泄漏某个东谈主物与其他扫数东谈主物的活动关系. 给定一个视频, 作家领先使用主义追踪算法获取每个东谈主物的开通轨迹. 然后, 基于手工想象的滤波器, 从扫数开通轨迹中索求3种开通关系的特征. 终末, 作家使用K-means算法来对扫数开通关系特征进行聚类, 构建特征字典, 再使用特征直方图来泄漏每个视频, 用于群体活动分类. 除了建议基于局部开通关系的群体活动识别方法之外这篇著述还汇集了一个包含476个视频片断、6个群体活动类别的监控场景下的群体活动识别数据集NUS-HGA.

文件[21]一样使用了基于开通轨迹分析的方法来分类群体活动. 不同于之前使命的作念法, 作家引入了高斯进程方法来泄漏开通轨迹, 从概率的角度来处理开通的立地性. 基于高斯进程追忆和开通分析, 作家想象了3种特征形容子来索求开通轨迹的特征: 个体特征、成对特征以及合座特征. 终末, 基于特征词袋方法, 将数目不固定的东谈主群泄漏成固定长度的特征向量, 再使用SVM对群体活动进行分类.

文件[37]想象了愈加密致的开通轨迹特征索求方法. 给定一个视频以及主义追踪截止, 领先对扫数东谈主物进行分组. 作家莫得进行硬分组来辩别东谈主群, 而是选定概率分组的方法构建概率贯串图, 每条边的权重泄漏两个东谈主物属于销毁群体的概率. 这种基于概率的软分组方法可以让模子索求愈加鲁棒的群体凹凸文特征. 为了让索求出的群体特征粗略高效地捕捉群体中的结构、开通、动态变化信息, 作家想象了4种群体特征索求方法, 分别索求群体贯串性特征、贯串变化特征、开通场地特征以及开通速率特征. 终末, 一样选定特征词袋方法和SVM分类器来识别群体活动.

在一些东谈主数较多的复杂场景中可能会存在多个东谈主物群体, 分别正在进行不同的群体动作. 在这种情况下, 需要模子具有东谈主群辩别的才智, 定位出每个小群体的散布, 再结合多个小群体之间的彼此关系, 分别对每个小群体的群体活动进行分析. 文件[38]领先使用了一个鲁棒的多主义追踪算法来追踪视频画面中每个东谈主物的迁徙轨迹, 然后计较东谈主物之间的距离, 再使用最小生成树算法来对东谈主物进行聚类, 得回每个群体的散布. 基于辩别好的群体以及他们的开通轨迹, 作家想象了基于酬酢蚁集分析的特征形容子结合, 包括群体中心、开通直方图、距离直方图、皆集性直方图, 为每个群体索求固定长度的特征向量. 这些特征向量形容了每个群体的全局结构以及局部的开通花样. 终末, 作家为每个群体活动类别查验高斯进程动态模子, 计较群体特征向量属于某个群体活动的条款概率, 用于群体活动分类.

文件[39]对东谈主物群体中的档次性进行了分析, 建议一个群体活动由3个档次组成: 个体东谈主物动作、子群体活动以及扫数这个词群体活动. 这3个档次中的关系信息对于识别复杂的群体活动十分要紧, 而之前的使命都漠视了子群体之间的关系信息. 基于这些分析, 作家在群体活动识别框架中援用了子群体之间的关系, 不仅斟酌了个体东谈主物之间的彼此关系, 还索求了多个子群体之间的交互信息. 作家选定了局部贬抑线性编码分别为4种类型的关系信息索求特征向量, 包括个体关系、成对关系、组间关系以及活动关系.

文件[40]对在单东谈主活动识别任务上阐述较好的活动形容子向量进行了延长, 建议一个新的基于东谈主物开通轨迹的群体活动形容子向量来识别群体活动. 具体而言, 该形容子从3个方面来索求群体活动特征: 群体迁徙轨迹、个体迁徙轨迹的关系性以及不同子群体的彼此迁徙关系. 基于构建好的群体活动特征向量, 作家在多种自组织神经蚁集上进行了实验, 都取得了比较好的分类性能.

为了经管在复杂多东谈主场景中存在无数噪声信息、群体活动难以识别的问题, 文件[41]建议了群体交互空间的见地. 对于一个群体活动, 场景中惟有部分东谈主物在参与. 而群体交互空间指的即是场景中实质参与群体活动的东谈主物结合. 需要领先对群体交互空间进行检测, 在识别群体活动时废除无关东谈主物, 才能阻难场景中的噪声信息. 作家建议了基于空间关系学的群体交互空间检测方法. 在检测出的群体交互空间上, 作家建议了两种新的特征形容子——群体交互能量特征和引力斥力特征来形容群体活动. 这些特征斟酌了东谈主物之间的彼此位置关系: 围聚、隔离、保执距离. 终末, 使用特征词袋方法和线性SVM来进行群体活动分类.

2.2 基于多元特征形容子的群体活动识别方法

除了空间位置信息, 视觉外不雅信息对于识别群体活动也至关要紧. 早期非深度学习算法主要诓骗手工想象的特征形容子, 比如HOG, 来索求图像中的视觉特征. 视觉特征可以匡助模子结合东谈主物的姿态外不雅信息来判断群体活动类别. 此外, 也有使命尝试想象不同的特征形容子, 以索求多东谈主场景视频中东谈主物开通、时序变化、空间结构、凹凸文环境等多维度信息. 比拟于仅使用空间位置结构信息的方法, 基于多元特征形容子的方法充分诓骗了视频中多种类型的信息, 可以愈加准确地对群体活动进行分类.

为了杀青鲁棒的群体活动识别, 文件[18]同期诓骗东谈主群的空间散布、东谈主物的姿态以及东谈主物的开通来识别场景中的群体活动. 建议的经管有狡计领先选定基于HOG形容子的算法来检测视频帧中的东谈主物位置, 何况对他们的姿态进行臆度; 然后, 选定延长的Kalman滤波器来追踪场景中扫数东谈主物的开通轨迹. 为了让获取的东谈主物开通轨迹愈加鲁棒, 作家还臆度了录像头参数和场景水平线, 以减少录像头迁徙、视角变化、规范变化、配景迁徙等问题所带来的影响. 终末, 作家想象了多种时空局部形容子, 基于直方图统计获取了东谈主物周围其他东谈主物的时空位置、姿态、开通的散布特征, 用于群体活动的分类.

在文件[18]的基础上, 文件[23]建议了基于立地丛林的算法来让模子自动学习群体的凹凸文特征, 用于群体活动识别. 在之前其他使命想象的特征形容子中, 一般选定固定辩别区间的直方图来对群体的时空特征进行统计, 而这一使命建议使用自顺应的特征空间辩别来泄漏场景凹凸文. 该方法基于立地丛林模子, 领先立地地从时空区域中进行采样, 挑选出最具有区分性的时空区域来计较群体活动特征, 何况生成最优的辩别超平面来进行群体活动分类. 与之前使命手工想象的特征形容子不同, 基于立地丛林的特征索求方法粗略自动发现最优的特征空间辩别, 可以愈加灵验地建模凹凸文信息. 此外, 作家选定时空马尔可夫立地场模子同期在场景中识别和定位群体活动.

绝大多数的群体活动商酌使命都在温雅活动识别问题, 即模子对给定视频进行分类. 而文件[22]建议了活动检索的任务: 给定一个活动标签, 需要模子从扫数这个词视频中找到与该活动标签最关系的东谈主物. 对于一些发生频率很低的动作, 比如跌倒、打架等特殊活动, 正负样本差距较大, 难以查验相应的分类器来识别该活动.如果基于检索的念念想, 可以让模子计较出视频中扫数东谈主物与主义活动的关系性, 何况对扫数东谈主物进行排序, 则愈加容易发现主义活动. 因此在这个使命中, 作家使用了排序SVM模子, 凭证每个视频片断和主义活动的关系性, 对扫数视频片断进行排序. 此外, 作家还想象了东谈主物形容子以及动作凹凸文形容子, 以索求每个东谈主物自身偏执周围环境的特征信息.

动作凹凸文形容子[22]对于视角变化十分明锐, 不够鲁棒. 文件[24]建议了新的校正特征形容子: 相对动作凹凸文形容子, 来编码群体中的相对关系, 这一泄漏具有视角不变性的优点. 该文还建议了另外两个方法以提高模子性能: 领先, 为了让索求的凹凸文特征对种种情况都比较鲁棒, 作家想象了两种后处理操作——阈值处理操作让群体活动泄漏来从充满噪声的凹凸文中获取权贵特征属性, 高斯处理操作来减少特征值量化进程中的过失. 此外, 为了减少局部分类乖张, 作家在分类进程中使用了全贯串条款立地场模子, 以概率的阵势来假定场景中的扫数东谈主物都彼此关联.

文件[42]建议了一种新的基于局部视觉痕迹的视频特征泄漏, 该特征泄漏旨在从充满噪声的多东谈主场景中发现确切参与主义群体活动的东谈主物. 在索求视频帧的特征时, 不使用扫数检测到的东谈主物信息来统计特征, 而是只是使用那些被臆度正在参与群体活动的东谈主物信息. 基于这一新的特征泄漏, 作家想象了一种生成式链式模子, 何况使用最大后验概率算法来识别群体活动. 链式模子在推理时会细目哪些东谈主物正在参与群体活动, 何况从全部特征中索求相应的特征子集, 构建一组时序推理链条. 所使用的最大后验概率算法包含两个主要智力: 对于给定的特征子集, 优化模子使得后验概率最大; 从头细目输入的特征子集, 索求最优的群体活动特征. 两个智力迭代进行, 最终不仅可以识别出群体活动, 还可以判断出群体活动的实质参与者.

文件[43]建议了一种基于姿态语义的时空特征形容子, 可以在视频中同期捕捉多个东谈主物之间的多规范活动交互信息. 东谈主物活动可以被看作是一个特定的东谈主物姿态变化序列, 因此可以在视频帧中对东谈主物的要紧部位进行检测, 比如头、躯体、腿, 基于东谈主物的姿态信息来判断东谈主物活动. 作家想象了时序姿态形容子, 领先使用姿态臆度较法, 在每个视频帧上检测东谈主物要紧部位的位置, 作为姿态语义信息. 再统计每个时空位置上的扫数东谈主物部位的激活值大小散布, 得到特征向量.

2.3 基于非深度学习关系模子的群体活动识别方法

群体活动中时时包含多种类型的关系信息, 比如东谈主与东谈主的交互关系、东谈主与场景凹凸文的关系、东谈主与群体的关系、群体与群体的关系. 建模场景中各个元素之间的档次化结构, 诓骗它们之间的依赖关系, 可以让模子更好地意会多东谈主复杂场景.

文件[44]将群体活动识别问题阐明成个体和群体两个档次, 建议了一个两层隐马尔可夫模子框架来识别视频序列中的群体活动. 其中, 第1层模子基于原始的音频和视频特征建模了个体东谈主物的活动动作, 第2层模子建模了个体东谈主物之间的交互. 通过将原始问题拆解成两个档次, 让模子愈加简便、易杀青, 何况具有较好的可领会性. 此外, 这也将合座模子进行了模块化, 每一层可以针对不同的子问题使用不同的隐马尔可夫模子, 使得扫数这个词模子易于延长. 实验截止也标明, 两层隐马尔可夫模子的识别准确率要远远高于单层隐马尔可夫模子. 在这项使命中, 作家还使用了多模态的特征, 包括音频和视频两部分的特征, 让模子粗略识别出筹商、独白、演讲等需要同期结合声息和画面来判断的群体交互动作.

文件[45]建议了一个基于事件的动态凹凸文模子来经管群体交互识别任务中的凹凸文感知问题. 作家想象了一个事件驱动的多档次动态贝叶斯蚁集来检测场景中的多档次事件. 其中, 低档次的事件包括视频和音频信号, 中档次的事件包括每个个体东谈主物的动作, 而高等次的事件包括扫数这个词场景的群体活动. 在事件驱动的多档次动态贝叶斯蚁集结, 自底朝上和自顶向下的推理进程相反相成, 低档次的事件可以作为判断高等次事件的痕迹, 而高等次事件也可能作为凹凸文信息来赞成判断低档次事件. 基于概率图模子, 图中的每个状态节点对应不同抽象档次的事件, 而图边泄漏事件之间的依赖关系. 在模子进行推理时, 每一时刻都可以计较得到每个状态节点的信念值, 继而可以检测出不同档次的事件.

文件[46]使用隐变量模子框架来建模场景中的凹凸文信息, 包括东谈主物与群体的交互信息以及东谈主物与东谈主物的交互信息. 之前的商酌使命一般使用结构固定的隐变量模子来建模场景, 而该文华取结构自顺应的隐变量模子. 作家将模子隐层的结构也作为模子的一个隐变量, 何况在算法运行进程中, 隐式地推理出模子隐层结构. 具体而言, 作家在扫数东谈主物的个体动作状态变量之间开发了隐式贯串, 标明东谈主物之间的关联性. 通过自顺应参数来决定两个东谈主物之间是否产生贯串. 自顺应的模子结构粗略过滤掉输入中的噪声信息, 为每个东谈主物提供与其关系的凹凸文信息.

文件[47]对群体活动识别中的时空一致性问题进行了商酌. 为了经管这一问题, 作家建议了一种基于全贯串条款立地场的模子来进行群体活动识别. 该模子假定扫数东谈主物之间存在接洽. 与之前其他使命使用启发式算法来细目东谈主物交互范围的作念法不同. 这一使命在模子中从空间位置、大小、开通、时期位置这4个方面开发了东谈主物之间多规范的关系贯串. 这一作念法可以让模子粗略嘱咐不同类型、大小、阵势的多东谈主群体. 具体而言, 给定一个视频片断, 作家领先检测扫数东谈主物的位置框, 然后使用HOG、光流等特征表述子索求每个东谈主物框的特征. 然后进行两部分的概率计较: 个体概率, 即每个东谈主物的活动概率散布; 以及成对的概率, 即两个东谈主物关联的概率. 终末, 在条款立地场进行最大后验概率优化, 得到群体活动类别.

文件[25]一样温雅如安在群体活动识别问题中建模东谈主物与东谈主物之间的关系. 作家莫得使用手工想象的特征形容子来泄漏东谈主物交互, 而是建议了一种基于学习的方法, 可以计较两个东谈主物之间、指定活动类别的交互关系. 具体而言, 模子通过计较两个原子活动特征向量的点积相似度来泄漏两个东谈主物之间的交互关系. 作家构建了一个交互矩阵来泄漏原子活动之间的关联性. 终末, 作家还使用低秩矩阵阐明对模子进行了优化.

文件[48]建议了一个3层AND-OR图模子, 可以对多个场景进行档次化建模, 同期泄漏场景中参与个体对象、个体动作以及群体活动. 基于探索诓骗战术, AND-OR图模子可以进行表面阵势高效、计较支拨低的推理. 该模子推理包含3个主要智力: 领先是基于视频中索求到的特征来对每个图节点进行活动检测; 然后是在图上, 基于子节点检测到的局部活动进行自底朝上的推理; 此外还有基于父节点检测到的活动凹凸文进行自顶向下的推理. 作家还想象了基于探索诓骗战术的模子推理算法, 让模子在准确率和运行支拨之间取得平衡. 此外, 这一使命还汇集了一个高分辨率的群体活动识别视频数据集, 高分辨率视频中包含的场景愈加复杂, 群体活动的档次化也愈加彰着.

文件[49]一样使用AND-OR图模子来建模群体活动中的档次化时空关系. 在复杂场景的长视频中, 画面中东谈主物数目较多, 需要进行难懂的东谈主物检测和追踪计较, 何况东谈主物检测截止充满许多噪声信息, 会导致时空AND-OR图模子上的推理算法计较耗时严重. 为了进一步提高模子的推理效用, 作家在这个使命中建议了基于蒙特卡洛树搜索的时空AND-OR图模子推理算法. 在视频中检测活动时, 使用蒙特卡洛树搜索算法来遴荐最优的时空区域来进行东谈主物检测和追踪, 何况在可摄取的时期支拨下狡计合理的推理有狡计. 实验截止标明: 在保执准确率不变的情况下, 基于蒙特卡洛树搜索的时空AND-OR图模子推理算法比拟于之前使命的算法[48]有两个数目级的速率提高.

为了捕捉视频特征之间长范围的高阶时空依赖关系, 文件[50]建议了一个档次化的立地场模子. 通过逐层的特征交融, 迟缓将配景噪声信息过滤, 保留有价值的群体活动特征. 比拟于其他使用条款立地场来进行群体活动识别的使命不同, 作家对模子中的隐变量贯串进行了调节, 使用了两个隐层, 分别建模单帧的空间关联和多帧的时序关联, 将时空特征交融分开. 为了让模子粗略更好地建模视频中的时序结构, 作家还让隐变量之间的时序贯串具有局部性. 基于线性狡计操作, 作家想象了自底朝上和自顶向下的模子变量推理算法.此外, 作家使用最大范畴框架来学习档次化立地场的模子参数.

文件[51]建议了群体活动中酬酢脚色的见地. 举例: 在体育比赛中的某个时刻, 每个球员可能正在充任要紧者、防护者等脚色. 跟着时期的变化, 每个东谈主物的脚色也在发生变化. 酬酢脚色的见地为东谈主物之间的交互关系提供了语义信息. 作家汇集了一个曲棍球比赛数据集, 标注了多档次的活动标签, 包括11个个体动作标签、5个酬酢脚色标签以及3个场景事件标签. 此外, 作家还建议了一个结构化模子来建模多东谈主场景中多档次活动之间的依赖关系, 包含低档次的个体动作、中档次的酬酢脚色以及高等次的场景事件. 终末, 作家想象了基于最大范畴框架的模子参数查验算法.

大多数群体活动识别方法都假定场景中只会出现一种群体活动, 场景中扫数东谈主物分享一个群体活动凹凸文. 文件[27]建议: 在真实应用场景中, 会同期出现多个群体活动, 它们彼此提供了多个凹凸文痕迹. 因此, 作家建议了一个合座判别学习框架, 基于多个凹凸文模子来识别场景中的群体动作. 领先, 作家同期斟酌了东谈主群中类内和类间的活动交互关系; 此外, 活动发生的场景也提供了好多有用的凹凸文信息, 作家在识别框架中也斟酌了场景凹凸文信息; 终末, 作家使用了一个最大范畴学习框架来同期建模类内、类间、全局场景等多种凹凸文痕迹, 并使用贪图前向搜索算法来推理群体活动标签.

由于受录像头视角变化、东谈主物外不雅变化、动作的时序变化等身分的影响, 销毁类别的活动动作也会有许多变种, 这给活动识别算法带来了挑战. 为了经管这一问题, 文件[52]建议了一种方法, 通过发现活动类别的图元, 即每个活动类别的子类别, 可以灵验地建模销毁类别活动的不同变种. 作家使用数据驱动的聚类样式来发现具有区分性的活动子类别, 让模子学习识别每个活动的种种子类别. 具体而言, 作家分别进行视频内和视频间的东谈主物活动聚类, 再查验主义检测器检测各个活动子类别. 基于活动子类别检测截止, 作家使用一个多档次的时空模子框架来建模多东谈主场景, 把活动子类别作为框架的最底层, 可以为表层场景意会提供愈加细粒度的痕迹, 何况粗略学习到不同业为子类别以及销毁场景中不同东谈主物的动作之间的彼此关系.

在某些情况下, 许多视觉识别问题可以被作为计数问题. 举例: 判断一个长视频中是否发生某个事件, 需要计数有若干帧包含该事件; 判断一个东谈主群是否正在进行某个群体动作, 需要计数该东谈主群中的个体动作数目. 在这些问题中, 充分诓骗子元素之间的基数关系可以减少模子对噪声信息的明锐度, 比如视频中的无关帧以及东谈主群中的无关东谈主物. 基于这些想法, 文件[26]基于多实例学习模子建议了一个纯真的框架, 可以推断隐标签之间的基数关系; 然后, 基于硬基数关系和软基数关系来经管标签识别中多种档次的歧义问题. 作家使用概率结构化核模子来编码实例之间的基数关系, 比如更多、更少、大多数. 所建议的模子在群体活动识别、视频事件检测、视频摘抄任务上都取得了可以的性能, 展示了基数关系对于视觉识别问题的要紧性.

文件[53]针对群体活动识别任务中的关系建模问题建议了一个生成式模子. 作家想象了一个具有4个档次结构的概率图模子, 包括场景事件、群体活动、要领姿态以及可见的姿态. 每个东谈主物在模子中具有4个关联变量, 分别对应这4个档次. 模子按照从场景事件到可见姿态的规章、自顶向下循序生成各个变量. 此外, 作家将原有的档次里面的关系升沉成档次之间的关系, 这么粗略让模子既可以建模多个群体之间的交互关系, 也粗略建模群体里面多个东谈主物的交互关系.

文件[54]建议了一个合座框架, 可以同期进行多主义东谈主物追踪以及识别他们的群体活动. 所建议的模子粗略同期追踪多个东谈主物, 给出每个东谈主物的开通轨迹, 何况粗略识别他们的个体原子动作、彼此交互动作以及群体活动动作. 之前, 其他使命时时将主义追踪和群体活动识别分开进行, 这么会丢弃两者之间凹凸文接洽信息. 而高等次的群体活动意会可以匡助得回愈加逍遥的主义追踪轨迹, 低档次的个体开通轨迹可以匡助模子更好地意会东谈主物活动. 在这个使命中, 作家莫得将主义东谈主物追踪问题和群体活动识别问题分开独处经管, 而是想象了一个档次化的关系图模子来编码场景中的多规范关系信息, 同期建模迁徙轨迹、原子活动、交互活动、群体活动之间的依赖关系.

文件[55]使用两种凹凸文痕迹来提高群体活动识别的准确率. 领先是个体东谈主物开通轨迹凹凸文, 即每个东谈主物的时序变化信息; 然后是单帧场景凹凸文, 即场景中其他东谈主物的关系信息. 作家想象了一个关系图模子以及全局推理算法, 可以同期进活动作识别、标记珍摄以及场景凹凸文建模.

车震视频

文件[56]使用无向图来泄漏多东谈主场景, 图中每个节点泄漏一个东谈主物, 每条边的权重泄漏两个东谈主物之间的关系进程. 作家建议了一个基于图泄漏的聚类算法来发现多东谈主场景中的不同交互子群体. 该算法斟酌了两种酬酢信号痕迹: 酬酢距离痕迹以及视觉温雅度痕迹. 酬酢距离痕迹是基于空间关系学表面, 界说了两个东谈主物之间不同的酬酢距离; 而视觉温雅度痕迹泄漏东谈主物正在看向什么场地. 当两个东谈主物的距离鼓胀近且彼此扫视时, 他们在图上的边贯串权重会很高. 通过对东谈主物进行分组, 可以废除无关东谈主物、较少噪声信息对群体活动识别的影响. 在发现的子群体上, 作家想象了特征形容子来捕捉每个子群体中的开通和交互信息. 终末, 一样使用特征词袋方法来泄漏群体活动, 并使用SVM来作为分类器.

文件[57]想象了一个合座框架来经管时空群体活动定位问题. 这一问题包含两个任务: 领先要识别出视频中发生的群体活动类别, 何况要定位出活动对应群体的时空位置. 由于多东谈主场景十分复杂, 难以准确地追踪多主义, 何况每个东谈主群的东谈主数未知, 群体活动定位问题十分贵重. 作家建议了一个隐式关系图模子来同期经管这两个任务, 包括多主义追踪、群体定位以及群体活动识别. 该模子诓骗了东谈主物之间的凹凸文关系来对多东谈主复杂场景进行建模, 档次化地编码了东谈主物轨迹间的潜在接洽, 何况探索了两种类型的凹凸文关系: 群体里面的交互信息以及群体间的关联性. 通过在图上迭代地进行信息传递, 让模子粗略基于扫数这个词图的结构信息来进行群体活动定位与识别.

在某些监控场景, 比如学校、公园、工场, 会存在多个监控录像头, 需要同期对多个监控画面中的群体活动进行识别. 在这种多录像头监控场景中, 东谈主物数目多、场景复杂、存在东谈主物冗余, 给群体活动识别带来了广泛的期间挑战. 文件[58]针对多录像头场景建议了基于多录像头凹凸文的群体活动检测方法, 粗略同期诓骗录像头里面以及录像头之间的凹凸文信息, 何况不需要知谈多个录像头的拓扑结构. 具体而言, 作家使用了一个包含隐变量的图模子, 其中, 录像头里面以及录像头之间的凹凸文信息通过模子中的隐变量结构, 即图中的边贯串来泄漏. 不同于隐马尔可夫模子、隐条款立地场等结构固定的图模子, 建议的模子莫得固定隐变量的结构. 通过对图结构进行自动优化, 可以高效地获取多录像头的凹凸文信息. 此外, 作家还想象了新的时空特征形容子, 基于区域内开通的数目和外形来索求复杂场景中的群体活动特征.

文件[59]一样针对多录像头场景想象了特殊活动检测算法. 作家领先搭建了基于多录像头的多主义追踪系统; 然后, 基于追踪截止索求每个东谈主物的时空特征. 作家想象了自底朝上和自顶向下两种东谈主物聚类方法, 用于细目群体结构. 终末, 基于群体结构特征来对群体活动进行分类.

3 深度学习群体活动识别方法 3.1 基于档次化轮回神经蚁集的群体活动识别方法

近些年来, 基于卷积神经蚁集的深度学习期间在计较机视觉领域的各个子任务上取得了成效[60−63], 激动了关系模子性能的大幅度提高. 在群体活动识别问题上, 也有许多使命驱动遴荐卷积神经蚁集来索求视频中的视觉特征. 此外, 由于多东谈主场景视频中存在许多序列关系, 比如某个东谈主物在不同帧上的图像序列、场景中的东谈主群序列, 这些序列可以使用深度轮回神经蚁集来建模, 对特征序列进行交融.

文件[11]建议了一个档次化的深度时序模子, 使用瑕瑜期牵挂蚁集来建模扫数这个词多东谈主场景的时序动态变化.该模子包含两个阶段: 第1阶段的瑕瑜期牵挂蚁集摄取个体东谈主物特征序列, 索求个体东谈主物的时序动作变化表征; 第2阶段的瑕瑜期牵挂蚁集对场景中扫数东谈主物的表征进行交融, 得到全局表征用于群体活动意会. 深度卷积神经蚁集被用于索求东谈主物的视觉特征, 再经过两阶段时序模子, 迟缓将低档次特征交融成高等次信息. 这一两阶段的时序模子也被之后许多基于深度学习期间的群体活动识别使命所沿用, 即先索求个体东谈主物表征, 再对扫数东谈主物表征进行交融得到全局场景表征, 用于群体活动分类. 作家进行了详备的消融实验, 考据了档次化时序建模的灵验性. 比拟于简便的整张图片使用卷积神经蚁集分类以及单阶段时序建模, 都有很大的性能提高. 此外, 文件[11]还建议了新的群体活动识别数据集Volleyball, 采集于排球比赛视频, 配置了一传、二传、扣球等排球开通中球员们的期间动作以作为群体活动标签.

文件[64]基于瑕瑜期牵挂蚁集建议了一个轮回交互凹凸文建模框架用于群体活动意会. 所建议的群体活动识别框架使用3个档次的瑕瑜期牵挂蚁集逐层交融东谈主物特征, 分别是个体档次、群体档次和场景档次. 其中, 个体档次瑕瑜牵挂蚁集谨慎索求表征来泄漏个体东谈主物动作的动态变化, 而群体档次和场景档次的瑕瑜期牵挂蚁集分别交融销毁群体或扫数这个词场景的东谈主物特征. 3个档次的蚁集可以分别得回不同档次的凹凸文特征, 粗略进行多档次的多东谈主场景活动意会. 这一框架比拟于文件[11]加多了群体档次的交融蚁集, 可以处理包含多个群体的复杂场景, 何况提供形容才智更强的交互凹凸文特征. 此外, 作家还使用了光流模态作为模子输入, 何况为每个东谈主物使用双流蚁集同期索求空间特征和开通特征.

文件[28]一样基于两阶段瑕瑜期牵挂蚁集来索求场景特征用于群体活动识别. 由于存在的群体活动识别数据集样本数目都较少, 使得深度轮回蚁集查验不够逍遥. 在这个使命中, 作家基于能量最小化、置信度最大化的战术, 对群体活动识别模子的蚀本函数进行了优化. 领先, 之前的群体活动识别模子时时选定常见的softmax层来预测每个类别的概率, 而作家进行了校正, 建议了一个新的能量层对每个类别预测的能量进行预测, 使用能量方程来捕捉各个瑕瑜期牵挂蚁集预测截止之间的依赖关系; 然后, 由于输入扰动会带来数值抵御稳的原因, 作家莫得简便地遴荐能量最小的类别作为预测截止, 而是额外计较每个预测截止的p值, 在能量最小的基础上, 结合置信度最大来遴荐最终的预测截止, 这让模子预测愈加逍遥.

文件[65]建议了一个基于语义的群体活动识别框架. 受到轮回神经蚁集在当然言语处理、文本生成等领域得回成效的启发, 作家尝试使用瑕瑜期牵挂蚁集来为输入视频生成文本, 得到可领会的语义文本, 用于基于语义的群体活动识别. 具体而言, 所建议的基于语义的群体活动识别框架包含两个阶段: 第1阶段, 作家使用瑕瑜期牵挂蚁集来为每个视频帧生成一段证明笔墨; 第2阶段, 作家再将扫数生成的证明笔墨输入到另一个瑕瑜期牵挂蚁集结, 预测视频的群体活动类别.

在群体活动识别进程中, 一些相似的局部开通可能会给区分不同的群体活动带来羞耻. 举例: 在“蕴蓄”和“分开”两个群体活动类别中, 个体东谈主物的动作都是“行走”, 这时, 惟有充分诓骗凹凸文信息和东谈主物关系才能准确识别群体活动. 文件[66]建议了一种具有区分性的群体凹凸文特征来增强模子的识别才智. 作家领先对场景中的子东谈主群进行识别, 然后重心温雅子东谈主群之前的关系, 隆起不同群体活动之前的各异. 此外, 由于深度神经蚁集参数多, 在数据量小的情况下很容易发生过拟合问题. 针对群体活动识别任务, 作家建议了一种新的数据增强方法, 以增强追踪到的东谈主物轨迹. 在这一使命中, 作家使用了门控轮回单位蚁集来学习输入序列中的时序动态变化, 比拟于瑕瑜期牵挂蚁集, 参数更少、计较更快.

群体活动识别模子一般基于监督学习样式来进行查验, 需要无数记号数据. 文件[67]建议了一个可以进行半监督学习的多档顺序列生成对抗蚁集来进行群体活动识别. 作家使用对抗生成蚁集来让模子为每个视频自动学习故意于群体活动识别的中间表征. 扫数这个词模子由两个子蚁集组成: 生成器摄取瑕瑜期牵挂蚁集生成的视频动态特征作为输入, 并生成动作编码作为视频的中间泄漏; 而判别器摄取动作编码和视频特征作为输入, 输出群体活动类别, 何况判断输入样本是否为真样本. 扫数这个词蚁集可以进行半监督学习, 除了进行有监督的群体活动识别任务来查验蚁集, 还可以使用无监督的对抗样本识别任务来进一步查验蚁集. 此外, 这一使命还考据了: 在东谈主物视觉特征的基础上, 加多扫数这个词场景的视觉特征可以提高最终的识别性能.

文件[68]建议了一个基于全局开通花样的事件识别算法. 为了排斥视频中复杂配景的噪声打扰, 作家诓骗光流来索求视频帧序列中的全局开通花样, 何况同期使用全局开通花样的空间和时期特征来识别视频中的事件. 在这一使命中, 作家仅选定光流作为模子输入, 而莫得使用原始RGB图像. 这么让模子可以重心温雅每个东谈主物的开通讯息, 排斥东谈主物外不雅等无关信息的打扰. 在索求好的基于光流的全局开通花样上, 作家领先使用卷积神经蚁集索求光流图像的空间结构特征, 再使用LSTM索求时序动态特征.

在文件[68]的基础上, 文件[69]优化了视频开通花样的索求样式, 不光索求两组球员的开通光流, 还会索求相机开通的光流. 在得到全局群体开通花样后, 作家一样领先使用卷积神经蚁集索求光流的空间信息, 再使用瑕瑜期牵挂蚁集来建模时序动态变化. 在这一使命中, 作家对篮球比赛中群体活动识别进行了深远分析, 何况建议篮球比赛中的一个语义事件时时包含3个阶段: 事件前阶段、事件发生阶段、事件后阶段. 这3个阶段对场景事件的区分起到了不同的作用: 事件前、后事件发生阶段主要可以区分事件的类别, 比如是三分球照旧二分球; 而事件后阶段主要对区分事件的截止有匡助, 比如是否进球. 基于这些分析, 作家想象了两阶段的篮球比赛事件分类样式: 第1阶段诓骗事件前和事件发生时的特征来判断事件类型, 第2阶段诓骗事件发生后的特征来判断事件发生的截止. 终末, 交融两阶段截止得到最终的预测截止.

文件[70]建议: 在多东谈主场景中, 群体活动和个体活动具有彼此依赖的关系. 从局部视角来看, 个体东谈主物的活动决定了群体的活动; 而从全局视角来看, 群体活动中包含特定的个体东谈主物活动. 举例: 由于场景中的个体东谈主物都在“行走”, 决定了群体活动是“东谈主群行走”; 另一方面, 由于场景的群体活动是“东谈主群行走”, 决定了场景中多数东谈主物的个体活动是“行走”. 常用的两阶段瑕瑜期牵挂蚁集交融个体东谈主物特征得到全局场景特征, 只是建模了群体活动依赖于个体活动, 莫得建模个体活动对群体活动的依赖关系. 基于这些分析, 作家建议了一种图与瑕瑜期牵挂蚁集结合的模子, 同期建模个体活动和群体活动彼此依赖的关系. 在局部视角, 东谈主物级别的瑕瑜期牵挂蚁集基于东谈主物之间的交互来索求东谈主物动作表征; 在全局视角, 场景级别的瑕瑜期牵挂蚁集基于图结构建模群体活动. 此外, 作家还想象了残差瑕瑜期牵挂蚁集来索求东谈主物的时序特征.

为了识别视频中的群体活动, 时时领先需要使用主义检测器定位每个视频帧中扫数东谈主物的位置, 再进一步索求东谈主物特征. 大多数使命都选定离线的东谈主物检测器, 事先索求好东谈主物候选框, 再进行群体活动识别. 而文件[29]尝试将东谈主物检测蚁集和群体活动识别蚁集整合在沿途, 端到端沿途查验, 形成一个完好的多东谈主场景意会模子. 该模子的上风是让东谈主物检测和群体活动识别分享一个特征索求骨干蚁集, 大大减少了扫数这个词模子的运行时期和参数目. 此外, 由于扫数这个词模子端到端沿途查验, 可以从多任务学习中获取收益. 比如: 通过群体活动分类信号, 东谈主物检测器可以学习到哪些东谈主物莫得参与群体活动, 在东谈主物检测阶段就将无关东谈主员废除. 为了提高东谈主物检测的准确率, 作家使用马尔可夫立地场来从扫数候选框中筛选的确候选框, 取代了传统的非极大值阻难作念法. 作家选定了基于门控轮回单位的两阶段模子来交融时空特征, 何况基于特征相似度来获取一个东谈主物在不同视频帧上的时序特征序列, 因此不需要额外的主义追踪模子.

文件[71]一样遴荐将东谈主物检测器和群体活动分类器端到端查验, 通过这种样式来分享骨干蚁集计较, 提高模子的运行效用, 何况让东谈主物检测器粗略检测到关节东谈主物, 提高群体活动识别的准确率. 此外, 文件[71]还建议了基于弱监督学习的交互关系识别方法, 通过隐向量学习来挖掘东谈主物和群体之间的交互关系, 何况不需要交互关系和个体活动的标注数据.

东谈主物检测和主义追踪是好多群体活动识别模子中必不可少的智力, 然则这两个智力的计较额外耗时, 何况如果东谈主物检测或主义追踪发生乖张, 会对后续的群体活动识别变成打扰. 为了经管这一问题, 文件[72]建议了不需要东谈主物检测和追踪的群体活动识别模子. 该模子摄取视频作为输入, 平直使用卷积神经蚁集索求每个视频帧的全局视觉特征, 再使用瑕瑜期牵挂蚁集来交融多帧特征, 得到视频表征用于群体活动分类.

3.2 基于深度学习关系模子的群体活动识别方法

由于关系建模对于意会多东谈主场景以及群体活动至关要紧, 参预深度学习期间, 关系商酌东谈主员尝试结合深度学习期间来对多东谈主场景中的东谈主与东谈主、东谈主与群体的交互关系进行建模. 图模子、关系蚁集等期间被应用到群体活动识别模子中, 用于索求关系信息.

文件[73]建议了一个基于深度神经蚁集的档次化图模子来识别多东谈主场景中的个体活动和群体活动. 在第1阶段, 作家使用深度神经蚁集来识别场景中每个东谈主物的个体活动以及场景的群体活动; 在第2阶段, 作家使用一个基于神经蚁集的档次化图模子, 通过斟酌不同业为类别之间的依赖关系来校正第1阶段的预测截止. 具体而言, 第1阶段模子使用卷积神经蚁集为每个东谈主物输出个体活动预测分数, 以及场景的群体活动预测分数; 然后将这些预测分数作为因子图的变量节点, 然后使用信念传播, 在图中的不同区域进行音问传递, 更新每个节点的状态. 在文件[73]中, 作家使用神经蚁集来模拟因子图上的音问传递进程, 可以愈加纯真地建模不同业为类别之间的彼此依赖关系.

文件[74]一样尝试将图模子引入到深度蚁集框架中, 诓骗场景中丰富的关系信息来进行群体活动识别. 作家领先使用卷积神经蚁集得到每个东谈主物以及扫数这个词场景的活动预测分数. 在初步预测分数的基础上, 再构建关系图, 图上的节点泄漏个体东谈主物活动或者扫数这个词场景的群体活动, 图上的边泄漏各个活动之间的关系. 通过在图节点之间进行音问传递, 可以对每个节点的活动预测分数进行校正. 作家想象了一种基于深度蚁集的结构化推理框架, 通过迭代推理的样式细目场景中哪些东谈主物正在交互、哪些东谈主物正在参与群体活动, 何况相应地动态调节关系图中边贯串结构. 所建议的结构化推理框架使用轮回神经蚁集来计较节点间传递的音问, 每个节点交融周围节点传递的信息来更新我方的状态.

文件[30]建议了一个介怀力语义轮回神经蚁集来建模场景中的时空凹凸文信息, 用于识别视频中的群体活动. 给定一个视频, 作家显式地构建语义图来形容扫数这个词场景, 再通过结构化的轮回神经蚁集来交融时空凹凸文信息. 语义图中, 每个节点泄漏一个东谈主物, 而每条边泄漏东谈主物之间的关系, 边贯串凭证空间距离和时序贯串来细目. 作家想象了节点轮回神经蚁集和边轮回神经蚁集这两个单位, 用来在语义图上进行音问传递. 节点轮回神经蚁集储存了节点的状态特征, 摄取贯串节点的边的特征作为输入, 更新我方的状态; 边轮回神经蚁集储存了边的状态特征, 摄取相邻节点的特征作为输入, 更新我方的状态. 通过音问传递机制, 这两种轮回神经蚁集可以捕捉东谈主物之间的关系, 何况索求具有区分性的时空特征. 此外, 作家还选定时空介怀力模子来发现视频中的关节东谈主物和关节帧, 进一步提高了模子的识别准确率.

文件[31]建议了一个档次化的关系蚁集模子来计较东谈主群中的关系表征. 给定一个形容东谈主物间潜在贯串关系的图结构以及节点特征, 关系蚁集层为每个节点计较它与相邻节点的关系表征, 何况交融得到该节点的新表征. 通过类似使用多个关系蚁集层[75], 何况在每一层使用不同的图贯串结构, 可以迟缓将个体东谈主物特征交融得到全局场景特征, 用于群体活动识别. 作家凭证东谈主物的空间位置关系, 手工想象了每一层的关系图贯串结构. 此外, 作家还建议了一个关系自动编码器模子, 在自动编码器模子中插入多个关系蚁集层, 可以无监督地学习东谈主物和场景表征. 学习到的表征使用K隔邻搜索算法就粗略应用于活动和场景检索任务, 实验截止标明, 不需要标注数据就可以取得比较好的检索截止.

文件[76]想象了一个卷积关系模子, 诓骗个体东谈主物之间的空间关系信息来识别群体活动. 该模子领先为输入视频图像生成活动激活图. 活动激活图是一个具有空间结构的活动表征, 凭证扫数东谈主物的位置框, 在每个空间区域上赋值不同业为类别发生的可能性, 包含个体活动和群体活动. 活动激活图编码了活动发生的可能性以及空间位置散布, 粗略让卑鄙蚁集索求东谈主物活动之间的空间关系. 为了提高识别的准确率, 作家还使用一个多阶段的校正模块迟缓镌汰活动激活图中的乖张预测. 终末, 一个全局预测模块使用校正后的活动激活图来识别群体活动.

群体活动视频中时时包含许多东谈主物以及交互关系信息, 然后惟有少数关节帧中的少数东谈主物决定了群体活动的类别. 因此, 如果要准确地识别群体活动, 需要高效地建模群组中的要紧关系, 何况阻难无关的个体动作和交互信息. 文件[77]建议一个基于深度强化学习的模子以迟缓校正群体活动中的低档次特征以及高等次关系. 作家领先构建了一个关系图来显式建模视频中的语义关系. 基于关系图, 作家想象了两个强化学习智能体来迟缓校正关系图上的低档次时空特征以及高等次语义关系. 具体而言, 在特征档次上, 一个特征蒸馏智能体基于强化学习战术来蒸馏最要紧的低档次时空特征. 在关系档次上, 一个关系门控智能体进一步校正图上的关系贯串, 让语义图温雅与群体活动关系的关系信息.

文件[32]一样使用东谈主物关系图来建模多东谈主场景中的关系信息, 图上的节点泄漏场景中每个东谈主物的特征, 边泄漏两个东谈主物之间的关系. 作家想象了纯真、高效的东谈主物关系图构建方法, 让东谈主物关系图可以同期捕捉东谈主物之间的外形关系和位置关系. 其中, 外形关系由一个可学习子蚁集计较得到, 输入两个东谈主物的视觉特征, 输出他们之间的外形关系权重; 而位置关系凭证东谈主物的空间距离决定. 作家想象并对比了多种外形关系和空间关系计较的方法. 为了让模子粗略捕捉到复杂场景中多种种种的关系信息, 作家建议了多张关系图集成方法, 即对于一个输入视频, 会使用多个参数不同的子蚁集计较多张东谈主物关系图. 在构建好的东谈主物关系图上, 作家使用图卷积蚁集[78]在图上进行特征传递, 每个节点会凭证与其他节点的贯串权重获取关系信息. 此外, 为了提高模子效用, 作家通过稀疏时序采样来减少模子输入帧数.

文件[79]建议了一个基于多模态关系表征的群体活动识别模子. 作家领先想象了一个对象关系模块, 粗略同期诓骗场景中扫数对象的视觉外形特征以及空间位置信息, 建模他们之间的交互关系. 为了索求东谈主物的开通特征, 作家在模子中引入光流索求蚁集, 何况在模子查验时使用活动分类蚀本作为监督信号, 对光流索求蚁集进行微调. 然后, 作家想象了两种门控轮回单位来索求每一帧的特征泄漏: 光流门控轮回单位和关系门控轮回单位. 其中, 前者索求了对象开通讯息和视觉痕迹之间的关系, 此后者索求了对象位置信息和视觉痕迹之间的关系. 终末, 作家使用基于时空介怀力机制的时序交融层给每一帧赋予对应权重, 将不同帧的特征交融得到视频表征, 用于最终的群体活动预测.

3.3 基于介怀力机制的群体活动识别方法

对于东谈主类的视觉感知系统, 输入图像中的某些部分比拟于其他部分愈加要紧, 对于最终决策可以起到愈加关节的作用. 因此, 咱们的大脑也倾向于领先发现图像中的关节区域, 再对关节区域提供更多的介怀力. 近些年来, 商酌东谈主员也在尝试在神经蚁集结应用介怀力机制, 让模子粗略温雅输入中的关节信息, 甩手噪声和无关信息, 进而提高模子识别的准确率. 如图 3所示: 使用介怀力机制粗略定位到篮球赛场上的关节球员, 进而识别出正在进行的三分球、二分球等事件.

图 3 基于介怀力机制的群体活动识别方法展示图[80]

在发生群体活动的多东谈主场景视频中, 尽管存在多个东谈主物, 但是其中惟有一小部分东谈主物的动作决定了群体活动的类别. 文件[80]建议了一个基于介怀力机制的模子, 可以学习在多东谈主场景中检测决定群体活动的关节东谈主物. 该模子不需要额外的关节东谈主物标注数据, 只是凭证群体活动的标注数据就可以查验. 具体而言, 作家在每一帧为每个东谈主物计较介怀力权重, 何况对扫数东谈主物的特征凭证介怀力权重作念加权和, 得到该帧的特征泄漏.所计较的介怀力权重体现了关节东谈主物的时空位置变化. 这些介怀力权重凭证东谈主物视觉特征, 由一个可学习子蚁集计较得到. 通过可视化, 可以看到, 介怀力权重较大的东谈主物时时即是场景中的关节东谈主物, 比如确切投篮的球员. 此外, 文件[80]还建议了一个篮球比赛数据集, 界说了三分球、二分球、扣篮等活动事件. 比拟于之前的群体活动数据集, 所建议的数据集样本更多, 数据量更大.

文件[81]一样尝试通过定位多东谈主场景中的关节东谈主物来匡助准确地识别群体活动. 作家建议了一个介怀力模子, 在每个时刻判断每个东谈主物的群体活动参与度, 何况迟缓交融关节东谈主物的时序动态特征. 在这一使命中, 作家主要通过东谈主物的开通特征来判断东谈主物的群体活动参与度, 何况温雅两种类型的关节东谈主物: 第1种关节东谈主物是在扫数这个词视频中都在逍遥地迁徙, 并迁徙了较长距离; 第2种关节东谈主物是在某个时刻进行了额外快速的开通. 作家以为: 这两种东谈主物在多东谈主场景中会是决定群体活动的关节东谈主物, 应该赋予较大的介怀力权重. 扫数这个词模子也分为两个部分: 第1部分蚁集索求每个东谈主物的个体时序特征; 第2部分蚁集凭证学习到的介怀力权重交融多个东谈主物的特征, 用于群体活动分类.

文件[33]针对群体活动识别问题建议了一个语义保留的学问蒸馏模子, 但愿让模子通过语义保留的介怀力自动发现场景中的关节东谈主物, 何况甩手无关东谈主物. 作家使用学问蒸馏期间来让模子学习怎么干注语义要紧的东谈主物. 领先, 作家使用磨真金不怕火蚁集从语义领域学习怎么识别群体活动. 磨真金不怕火蚁集输入的是场景中扫数个体东谈主物动作的语义文本, 输出的是群体活动类别. 在磨真金不怕火蚁集结, 会为每个东谈主物生成介怀力权重, 并对扫数东谈主物的语义特征作念加权和. 然后, 作家想象了包含介怀力机制的学生蚁集, 从视觉领域识别输入视频的群体活动. 在查验进程中, 让学生蚁集从两方面效法磨真金不怕火蚁集的输出: 领先是两者生成的介怀力权要紧尽可能地一致; 然后, 两者预测的群体活动分数也要尽可能地一致. 由于磨真金不怕火蚁集凭证语义来细目介怀力权重, 通过学问蒸馏期间, 学习到的学生蚁集也能保留一定的语义.

在文件[33]的基础上, 文件[82]在磨真金不怕火蚁集和学生蚁集结都加多了图卷积模块. 图中节点泄漏东谈主物特征, 边泄漏东谈主物之间的关系, 通过图结构来建模东谈主物之间的依赖关系. 作家凭证东谈主物的空间位置来细目图的说合矩阵, 并使用图卷积蚁集在东谈主物之间传递信息. 此外, 作家还在未编订的长视频中使用模子的中间特征进行群体活动时序检测, 定位群体活动发生的肇端时期点.

文件[83]建议了一个两阶段的介怀力交互模子来建模群体活动中的档次化交互关系. 在个体档次, 作家在每个时刻计较场景中扫数东谈主物两两之间的介怀力权重, 每个东谈主物凭证与其他东谈主物的介怀力权重获取凹凸文信息, 何况更新我方的特征泄漏. 作家基于两个东谈主物姿态的相似度来计较他们之间的介怀力权重. 在场景档次, 作家使用多层感知机计较每个东谈主物的介怀力权重, 泄漏个体动作与群体活动的关系, 并对东谈主物特征作念加权和交融, 得到场景特征用于群体活动分类.

文件[35]建议了一个图介怀力关系模子, 可同期从个体和群体两个档次来推理场景中的交互关系, 何况从这些交互关系中学习群体活动的时空演变进程. 作家领先针对群体活动识别问题想象了一种时空图, 包含东谈主物节点和群体节点, 分别对应个体东谈主物动作和群体活动. 图结构为群体活动识别提供了空间结构信息和外形语义特征. 然后, 在构建好的时空图上, 作家使用图卷积蚁集来推理群体活动中两个档次的交互关系. 在个体档次上, 蚁集学习到怎么为每个东谈主物节点细目其与周围其他节点的关系. 在群体档次上, 蚁集学习到让群体节点赋予每个东谈主物节点不同的温雅度.

Transformer[84]是一种基于自介怀力机制的蚁集结构, 来源在当然言语处理的机器翻译任务上被建议, 并取得成效. 近几年来, 许多商酌使命尝试将Transformer蚁集应用到计较机视觉领域的各个任务上. 文件[34]在群体活动识别问题上, 使用东谈主物Transformer模子来有遴荐地索求东谈主物之间的关系信息. 作家领先索求视频中扫数东谈主物的特征, 输入到Transformer蚁集结, 交融并校正每个东谈主物的特征. 为了让Transformer蚁集的输入粗略充分泄漏东谈主物的外形特征和开通特征, 作家同期使用2D姿态蚁集和3D卷积神经蚁集分别为每个东谈主物索求静态和动态表征, 何况使用了RGB和光流两个模态输入. 作家进行了详备的实验以探究应该怎么交融静态和动态表征, 何况展示了这两种特征的互补关系.

文件[85]温雅多东谈主场景中的子群体辩别问题. 在多东谈主场景中, 可能存在多个酬酢群体, 分别在进行不同的酬酢活动. 针对这一情况, 作家想象了一个端到端可学习模子框架, 可以凭证东谈主物之间的酬酢关系将东谈主物辩别红不同子群体, 何况预测每个东谈主物的个体活动以及每个子群体的酬酢活动. 作家使用I3D蚁集来索求每个东谈主物的时空特征, 再使用Transformer结构来校正每个东谈主物的特征. 然后, 作家还使用了图介怀力模块来建模东谈主物之间的交互关系. 该模子在传统的、假定场景仅有一个群体的群体活动识别数据集上取得了可以的识别性能. 此外, 作家还在现存群体活动识别数据集上进行了子群体辩别以及子群体活动标注, 考据了模子对于场景中多个子群体的活动识别才智.

4 主流先进方法准确率对比 4.1 准确率评估数据集

为了准确评估群体活动识别模子的性能, 促进关系商酌的发展, 近几年来, 有许多针对群体活动识别问题的数据集被建议. 这些数据集大多采集于开通比赛、安防监控等包含多东谈主场景的视频中, 界说了多种群体活动的标签. 咱们在这一末节中将先容8个群体活动识别数据集, 它们的基本情况展示在表 2中, 表中列出了每个数据集的数据量大小、类别数目、采集自哪种场景的视频以及现时主流先进方法所取得的群体活动分类准确率截止.

表 2 群体活动识别数据集

Volleyball数据集[11]从55场排球比赛中汇集了4 830个短视频片断, 其中, 3 493个视频片断作为查验集, 1 337个视频片断作为测试集. 每个视频片断都记号了群体动作类别, 总计有8个群体活动标签: right set、right spike、right pass、right winpoint、left set、left spike、left pass、left winpoint. 每个视频片断中的中间帧被记号了每个东谈主物的东谈主物框以及他们的个体动作. 总计有9个个体动作标签: waiting、setting、digging、failing、spiking、blocking、jumping、moving、standing.

Collective数据集[18]采集自监控录像头视频, 包含44个视频序列, 总计约有2 500个关节帧, 每个关节帧作为一个样本. 一般遴荐约三分之一的视频序列作为测试集, 剩下的作为查验集. 该数据集配置了5个群体活动标签: crossing、waiting、queueing、walking、talking, 以及6个个体动作标签: NA、crossing、waiting、queueing、walking、talking. 每个关节帧中, 扫数东谈主物正在进行的最多的个体动作被界说成群体动作.

NBA数据集[86]采集自181场NBA篮球联赛的比赛视频, 包含9 172个视频片断. 其中, 7 624个视频片断作为查验集, 1 548个视频片断作为测试集. 该数据集仅标注了视频的群体活动标签, 莫得标注东谈主物个体动作标签. 共有9个群体活动标签, 包括二分投篮、二分上篮、三分投篮这3种动作, 何况凭证动作截止再分红成效、失败何况要紧方得回篮板、失败何况防护方得回篮板这3种情况.

不同于其他体育场景数据集只是包含一种开通, C-Sports数据集[87]采集了11种开通的视频数据, 包括好意思式橄榄球、篮球、躲避球、足球、手球、曲棍球、冰球、袋棍球、英式橄榄球、排球、水球, 何况界说了gathering、dismissal、passing、attack、wandering这5种群体活动. 扫数这个词数据集共有2 187个视频片断, 其中, 1 317个用作查验集, 435个用作考据集, 435个用作测试集.

NCAA数据集[80]采集自257场NCAA篮球联赛的比赛视频. 作家以4 s为时期窗口, 将原始长视频辩别红短视频片断, 再去撤退莫得事件发生的片断, 终末得到14 548个记号视频片断. 其中, 11 436个用作查验集, 856个用作考据集, 2 256个用作测试集. 作家界说了11种群体活动, 包括三分球成效、三分球失败、罚球成效、罚球失败、二分球成效、二分球失败、上篮成效、上篮失败、灌篮成效、灌篮失败、断球.

Hockey数据集[51]采集自5场曲棍球比赛, 包含58个视频片断. 该数据集界说了3个群体活动标签: attack play、free hit、penalty corner, 以及11个个体动作标签: pass、dribble、shot、receive、tackle、prepare、stand、jog、run、walk、save. 与其他群体活动识别数据集不同, 作家还界说了5种东谈主物的酬酢脚色标签: attacker、first defenders、defenders defend against person、defenders defend against space、other.

Nursing Home数据集[88]采集自调节院的监控视频, 包含22个视频片断, 记号了2 990帧画面. 作家界说了有东谈主跌倒和无东谈主跌倒两种场景事件, 但愿模子粗略自动检测病东谈主的特殊活动. 此外, 该数据集还界说了矗立、行走、坐着、弯腰、跌倒这5种东谈主物个体动作标签.

UCLA Courtyard数据集[48]采集自校园的高分辨率监控录像头画面, 包含106分钟的视频. 作家界说了6种群体活动标签: Walking-together、Standing-in-line、Discussing-in-group、Sitting-together、Waiting-in-group、Guided-tour, 还有10种东谈主物个体动作标签: Riding-skateboard、Riding-bike、Riding-scooter、Driving-car、Walking、Talking、Waiting、Reading、Eating、Sitting. 此外, 作家还标注了画面中17种对象的位置和类别.

BEHAVE数据集[89]包含监控场景下的10种群体活动标签: InGroup、Approach、Walk Together、Meet、Split、Ignore、Chase、Fight、RunTogether、Following. 作家提供了详备的东谈主物位置框标注以及东谈主物追踪标注, 以便捷商酌东谈主员诓骗空间位置信息和东谈主物动态信息来识别群体活动.

NUS-HGA数据集[20]一样采集自监控场景视频, 包含6种群体活动标签: walk-in-group、run-in-group、stand-and-talk、gathering、fighting、ignoring.

4.2 准确率对比分析

Volleyball数据集和Collective数据集是近几年来被使用最为平庸的群体活动识别模子评估数据集, 咱们遴荐这两个数据集作为评估要领, 对主流先进方法的群体活动识别准确率进行对比, 截止展示在表 3中. 表 3中列出了各个使命所使用的方法类型, 展示了每种方法类型中不同方法的性能对比以及不同方法类型的性能各异. 表中字体加粗的使命是每种方法类型的典型方法.

表 3 主流先进群体活动识别方法准确率对比

由于不同使命所使用的特征索求方法、骨干蚁集模子、实验配置都有所各异, 再加上数据集自己的局限性, 准确率的凹凸并不行皆备响应群体活动识别方法的优劣. 基于方法各异分析和性能对比, 咱们以为以下期间方法对提高群体活动识别模子的准确率有较大匡助.

1) 提高模子输入特征的表征才智. 在群体活动识别问题上, 商酌东谈主员挖掘出了许多对区分不同群体活动有匡助的特征, 包括视觉特征、空间位置结构特征、关系信息特征、场景凹凸文特征、东谈主物姿态特征、时序动态特征等. 通过引入更多类型的输入特征以及提高输入特征的准确性, 模子可以愈加准确地识别群体活动. 举例: 文件[24]在文件[22]的基础上建议了具有视角不变性的相对动作凹凸文形容子, 增强了输入特征对于视角变化的鲁棒性, 取得了更好的识别精度. 此外, 基于深度模子的群体活动识别方法时时可以比非深度学习方法取得更高的准确率, 主如果因为深度蚁集的表征才智愈加遒劲;

2) 对东谈主群进行关系建模. 群体活动中包含着多档次的关系信息: 东谈主与东谈主的交互信息、东谈主与群体的关系、子群体与子群体的关系. 建模何况诓骗这些关系信息, 可以匡助模子更好地区分不同的群体活动.举例, 文件[29, 32]都基于深度神经蚁集来索求东谈主物特征, 其中, 文件[32]使用了东谈主物关系图来建模多东谈主场景中的东谈主物关系, 比拟莫得进行关系建模的文件[29], 提高了模子的群体活动识别准确率;

3) 使用介怀力机制索求场景中的关节信息. 群体活动所发生的多东谈主场景额外复杂, 存在许多与活动类别无关的噪声信息, 给模子识别带来挑战. 而介怀力机制可以匡助模子温雅场景中与群体活动关系的关节信息, 何况阻难噪声信息. 从表 3中可以看到, 现时基于介怀力机制的方法[33, 34]在Collective和Volleyball这两个数据集上都取得了越过的准确率截止.

5 改日商酌场地

群体活动识别期间的应用场景十分平庸, 在监控视频识别、开通比赛分析、酬酢活动意会等任务上都可以被使用. 然则, 现时的模子算法在识别准确率、鲁棒性、运行速率等方面依然存在不及, 还难以在实际场景中被大限制应用. 底下先容几个改日可能的商酌场地.

1) 提高模子准确率和鲁棒性. 诚然主流先进的群体活动识别模子[33, 34]在关系数据集上也曾取得了较高的识别准确率, 但是由于存在的群体活动识别数据集的样本量都较少[11, 18], 模子可能发生过拟合, 在实质应用中依然不够逍遥. 改日使命可以从扩大查验数据限制、增强模子的东谈主群表征才智、优化关系建模方法、阻难噪声信息等场地脱手, 进一步提高群体活动识别模子的准确率和鲁棒性;

2) 温雅群体活动检测问题. 现时, 大多数使命东要都只温雅简便的群体活动识别问题, 即对于一个输入短视频片断, 只需要输出一个群体动作标签. 而实际视频中可能存在多个群体, 分别在完成不同的群体活动. 这时需要模子具有群体活动检测的才智, 粗略自动定位每个群体的时空位置、包含的东谈主物、正在进行的群体活动以及活动发生的起止时期. 现时也曾存在了一些对于视频中个体动作检测的商酌使命[90−94], 但在群体活动商酌领域, 依然短缺针对群体活动检测问题的视频数据集以及高效的模子;

3) 将群体活动识别模子与东谈主物检测模子、追踪模子进行整合. 许多群体活动识别方法依赖东谈主物检测和追踪截止[11, 32−34], 然则大多数使命都选定彼此独处的模子来对视频进行东谈主物检测、追踪和群体活动识别. 改日使命可以尝试商酌怎么将这几个模子进行整合, 一方面, 可以通过分享底层特征来从简计较资源; 另一方面, 可以通过端到端学习让检测和追踪模块为群体活动识别提供更优的截止[29];

4) 提落魄频群体活动的识别精度. 在实际场景中, 有些群体活动(比如打架)的发生频率很低, 而准确地识别这些低频特殊活动额外具有应用价值. 由于低频群体活动的记号样本少, 导致模子在这些类别上的性能较差. 改日的使命需要提高模子在极少样本记号、类别散布不平衡情况下的模子识别准确率.

6 总结

本文对多东谈主场景视频中群体活动识别的商酌进展进行了总结. 咱们领先先容了视频群体活动识别商酌的配景、可以应用的场景以及期间上的主要挑战. 通过对现存商酌使命进行分析, 咱们总结了6类群体活动识别方法真实迷奸, 何况分别对每类方法的内容和商酌进展情况进行了详尽先容. 然后, 咱们对主流先进方法的识别准确率进行了对比. 终末, 咱们总结了现时群体活动识别模子的不及, 何况建议了若干个改日可能的商酌场地.但愿本文粗略匡助商酌东谈主员了解群体活动识别期间, 促进关系商酌的进一步发展.



Powered by jiuse @2013-2022 RSS地图 HTML地图

Copyright Powered by站群 © 2013-2022 版权所有