统计数据驱动力的人工智慧控制技术已经开始迅猛发展,很多国际性著名的统计数据集、样品库都正式成为积极开展学术科学研究、试验检验、丰硕成果推展不可缺少的关键天然资源,并正式成为自然科学学术论文的关键重要组成部分。在此之后,他们也急迫地须要极具多元性的对外开放试验数据集,以满足用户涌现的大批开拓性学术科学研究中更申明透明化地试验和校正。
屈埃泰电魂网络面世数据共享天然资源系列产品,那时增添141个常见的犯罪行为姿势统计数据集CVonline: Image Databases
除此之外,为推动计算机系统影像绘图应用领域自然科学统计数据丰硕成果的徐立全科学研究和共享天然资源,《我国绘图信号处理报》策画面世“统计数据学术论文
20bn-Something-Something – 带有密集标签的视频剪辑,显示人类使用日常物品时执行的预定义基本姿势(Twenty Billion Neurons GmbH) [Before 28/12/19]
3D online action dataset – 有七个行动类别(Microsoft and Nanyang Technological University) [Before 28/12/19]
50 Salads – 完全注释4.5小时的统计数据集RGB-D视频+加速计统计数据,捕获25人每人准备两个混合沙拉的姿势(Dundee University, Sebastian Stein) [Before 28/12/19]
A first-person vision dataset of office activities (FPVO) – FPVO包含12名参与者的办公室第三人称活动视频片段。 (G. Abebe, A. Catala, A. Cavallaro) [Before 28/12/19]
ActivityNet – 人类活动理解的大型视频基准 (200 类, 每类100 个视频, 总计648 小时) (Heilbron, Escorcia, Ghanem and Niebles) [Before 28/12/19]
Action Detection in Videos – MERL Shopping Dataset 由106个视频组成,每个视频都是一个大约2分钟长的序列(Michael Jones, Tim Marks) [Before 28/12/19]
Actor and Action Dataset – 3782个视频,7类人员表演8个不同的姿势 (Xu, Hsieh, Xiong, Corso) [Before 28/12/19]
An analyzed collation of various labeled video datasets for action recognition(Kevin Murphy) [Before 28/12/19]
AQA-7 – 用于评估7个不同操作的质量的统计数据集。它包含1106个姿势样品和AQA评分。 (Parmar, Morris) [29/12/19]
ASLAN Action similarity labeling challengedatabase (Orit Kliper-Gross) [Before 28/12/19]
Attribute Learning for Understanding Unstructured Social Activity – 统计资料库的视频包含10类非结构化的社会事件识别,注释了69个属性。(Y. Fu Fudan/QMUL, T. Hospedales Edinburgh/QMUL) [Before 28/12/19]
Audio-Visual Event (AVE) dataset– AVE统计数据集包含了4143个YouTube视频,涵盖了28个事件类别(Yapeng Tian, Jing Shi, Bochen Li, Zhiyao Duan, and Chenliang Xu) [Before 28/12/19]
AVA: A Video Dataset of Atomic Visual Action– 430个15分钟电影片段中的80个原子视觉姿势。(Google Machine Perception Research Group) [Before 28/12/19]
BBDB – 是一个大型棒球视频统计数据集,包含4200小时的完整棒球比赛视频和400,000个注释的活动片段。(Shim, Minho, Young Hwi, Kyungmin, Kim, Seon Joo) [Before 28/12/19]
BEHAVE Interacting Person Video Data with markup(Scott Blunsden, Bob Fisher, Aroosha Laghaee) [Before 28/12/19]
BU-action Datasets – 三个与视频统计数据集UCF101和ActivityNet的类有完全对应关系的影像姿势统计数据集(BU101, BU101-unfiltered, BU203-unfiltered)。(S. Ma, S. A. Bargal, J. Zhang, L. Sigal, S. Sclaroff.) [Before 28/12/19]
Berkeley MHAD: A Comprehensive Multimodal Human Action Database(Ferda Ofli) [Before 28/12/19]
Berkeley Multimodal Human Action Database – 五种不同的拓展应用应用领域的模式(University of California at Berkeley and Johns Hopkins University) [Before 28/12/19]
Breakfast dataset – 它是一个包含1712个视频剪辑的统计数据集,展示了10个厨房活动,这些活动被手工分割成48个原子姿势类。(H. Kuehne, A. B. Arslan and T. Serre ) [Before 28/12/19]
Bristol Egocentric Object Interactions Dataset– 包含了3-5个人在6个不同地点的第三人称视频片段(Dima Damen, Teesid Leelaswassuk and Walterio Mayol-Cuevas, Bristol University) [Before 28/12/19]
Brown Breakfast Actions Dataset – 70小时,400万帧10个不同的早餐准备活动(Kuehne, Arslan and Serre) [Before 28/12/19]
CAD-120 dataset -(Cornell University) [Before 28/12/19]
CAD-60 dataset – CAD-60和CAD-120统计数据集由人类活动的RGB-D视频序列组成 (Cornell University) [Before 28/12/19]
CATER: A diagnostic dataset for Compositional Actions and TEmporal Reasoning – 一个综合的视频理解基准(Girdhar, Ramanan) [29/12/19]
CVBASE06: annotated sports videos(Janez Pers) [Before 28/12/19]
Charades Dataset – 来自267名志愿者的10,000个视频,每个视频都注释了多个活动、标题、对象和时间定位。(Sigurdsson, Varol, Wang, Laptev, Farhadi, Gupta) [Before 28/12/19]
Composable activities dataset – 26个原子姿势的不同组合形成了16个活动类,包含14个主题(Pontificia Universidad Catolica de Chile and Universidad del Norte) [Before 28/12/19]
Continuous Multimodal Multi-view Dataset of Human Fall – 该统计数据集包括正常的日常活动和用于评估人类跌倒检验的模拟跌倒。 (Thanh-Hai Tran) [Before 28/12/19]
Cornell Activity Datasets CAD 60, CAD 120 (Cornell Robot Learning Lab) [Before 28/12/19]
DeepSport – 在职业比赛期间,在不同的篮球场连续捕捉到的成对的影像,带有对球位置标注。(UC Louvain ISPGroup)
DemCare dataset – DemCare统计数据集由一组来自不同传感器的不同统计数据集组成,可用于可穿戴/深度和静态IP摄像机统计数据对人体活动的识别,用于老年痴呆症检验的语音识别,用于步态分析和异常检验的生理统计数据。(K. Avgerinakis, A.Karakostas, S.Vrochidis, I. Kompatsiaris) [Before 28/12/19]
Depth-included Human Action video dataset – 包含23个不同的姿势(CITI in Academia Sinica) [Before 28/12/19]
DMLSmartActions dataset – 16名受试者以自然的方式表演了12种不同的姿势。 (University of British Columbia) [Before 28/12/19]
DogCentric Activity Dataset – 第三人称视频是从安装在一只狗身上的相机拍摄的(Michael Ryoo) [Before 28/12/19]
Edinburgh ceilidh overhead video data – 16个从头顶观测的舞蹈视频,其中10个舞者遵循一个结构化的舞蹈模式(2个不同的舞蹈)。该统计数据集对于高度结构化的犯罪行为理解非常有用(Aizeboje, Fisher) [Before 28/12/19]
EPIC-KITCHENS – 32名参与者在他们的原生厨房环境、无脚本的日常活动第三人称视频,包含11.5M帧、39.6K帧级姿势片段和454.2K个bounding box(Damen, Doughty, Fidler, et al) [Before 28/12/19]
EPFL crepe cooking videos – 6种结构化的烹饪活动的12个视频,1920×1080分辨率 (Lee, Ognibene, Chang, Kim and Demiris) [Before 28/12/19]
ETS Hockey Game Event Data Set – 该统计数据集包含使用固定摄像机拍摄的两场冰球比赛的镜头。 (M.-A. Carbonneau, A. J. Raymond, E. Granger, and G. Gagnon) [Before 28/12/19]
The Falling Detection dataset – 在两个场景中的六个视频,包含连续表演一系列产品姿势 (University of Texas) [Before 28/12/19]
FCVID: Fudan-Columbia Video Dataset – 91223个网络视频,239个手工标注类别(Jiang, Wu, Wang, Xue, Chang) [Before 28/12/19]
G3D – 用微软Kinect捕捉的20个游戏姿势的同步视频、深度和骨架统计数据(Victoria Bloom) [Before 28/12/19]
G3Di – 该统计数据集包含12个主题,分为6对(Kingston University) [Before 28/12/19]
Gaming 3D dataset – 实时游戏场景姿势识别 (Kingston University) [Before 28/12/19]
Georgia Tech Egocentric Activities – Gaze(+) –人们看的视频和他们的注视位置(Fathi, Li, Rehg) [Before 28/12/19]
Hollywood 3D dataset – 650个3D视频剪辑,跨越14个姿势类 (Hadfield and Bowden) [Before 28/12/19]
Human Actions and Scenes Dataset(Marcin Marszalek, Ivan Laptev, Cordelia Schmid) [Before 28/12/19]
Human Searches 在AVA和THUMOS14统计数据集中标注的人类 (Alwassel, H., Caba Heilbron, F., Ghanem, B.) [Before 28/12/19]
Hollywood Extended– 937个视频剪辑,共787720帧,包含来自69部好莱坞电影的16个不同姿势的序列。(Bojanowski, Lajugie, Bach, Laptev, Ponce, Schmid, and Sivic) [Before 28/12/19]
HumanEva: 用于评估关节运动的同步视频和运动捕捉统计数据集 (Brown University) [Before 28/12/19]
I3DPost Multi-View Human Action Datasets (Hansung Kim) [Before 28/12/19]
IAS-lab Action dataset – 包含各种犯罪行为和执行这些犯罪行为的人员数量(IAS Lab at the University of Padua) [Before 28/12/19]
ICS-FORTH MHAD101 Action Co-segmentation – 101对长期姿势序列,包含基于3d骨骼和视频相关的帧特征 (Universtiy of Crete and FORTH-ICS, K. Papoutsakis) [Before 28/12/19]
IIIT Extreme Sports – 来自YouTube的160个第三人称运动视频,18个姿势类的帧级注释。(Suriya Singh, Chetan Arora, and C. V. Jawahar. Trajectory Aligned) [Before 28/12/19]
INRIA Xmas Motion Acquisition Sequences (IXMAS) (INRIA) [Before 28/12/19]
InfAR Dataset –红外姿势识别(Chenqiang Gao, Yinhe Du, Jiang Liu, Jing Lv, Luyu Yang, Deyu Meng, Alexander G. Hauptmann) [Before 28/12/19]
JHMDB: Joints for the HMDB dataset (J-HMDB)基于来自HMDB51的928个剪辑,包括21个姿势类别(Jhuang, Gall, Zuffi, Schmid and Black) [Before 28/12/19]
JPL First-Person Interaction dataset –从第三人称视角拍摄的7种人类活动视频 (Michael S. Ryoo, JPL) [Before 28/12/19]
Jena Action Recognition Dataset – 爱宝狗的犯罪行为(Korner and Denzler) [Before 28/12/19]
K3Da – Kinect 3D Active dataset – K3Da (Kinect 3D active)是一个真实的临床相关人体姿势统计数据集,包含骨骼、深度统计数据和相关的参与者信息 (D. Leightley, M. H. Yap, J. Coulson, Y. Barnouin and J. S. McPhee) [Before 28/12/19]
Kinetics Human Action Video Dataset – 300,000个视频剪辑,400个人类姿势类,10秒的剪辑,每个剪辑一个姿势(Kay, Carreira, et al) [Before 28/12/19]
KIT Robo-Kitchen Activity Data Set – 540个短片,17个人表演12个复杂的厨房活动。(L. Rybok, S. Friedberger, U. D. Hanebeck, R. Stiefelhagen) [Before 28/12/19]
KTH human action recognition database(KTH CVAP lab) [Before 28/12/19]
Karlsruhe Motion, Intention, and Activity Data set (MINTA) – 日常生活活动的7种类型,包括运动的原始片段。(D. Gehrig, P. Krauthausen, L. Rybok, H. Kuehne, U. D. Hanebeck, T. Schultz, R. Stiefelhagen) [Before 28/12/19]
Leeds Activity Dataset–Breakfast (LAD–Breakfast) – 它由15个带注释的视频组成,包括5个不同的人吃早餐或其他简单的饭;(John Folkesson et al.) [Before 28/12/19]
LIRIS Human Activities Dataset– 人们进行各种活动的(灰度/RGB/深度)视频(Christian Wolf, et al, French National Center for Scientific Research) [Before 28/12/19]
MEXaction2 action detection and localization dataset – 支持开发和评估用于在一个相对较大的视频统计资料库中“发现”短姿势实例的方法:77小时117个视频(Michel Crucianu and Jenny Benois-Pineau) [Before 28/12/19]
MLB-YouTube – 用于棒球视频的姿势识别统计数据集(AJ Piergiovanni, Michael Ryoo) [Before 28/12/19]
Moments in Time Dataset– Moments in Time Dataset 1M 3秒视频,注释姿势类型,最大的视频姿势识别和理解统计数据集。(Monfort, Oliva, et al.) [Before 28/12/19]
MPII Cooking Activities Dataset 对于细粒度的烹饪活动识别,这也包括连续的姿态估计挑战(Rohrbach, Amin, Andriluka and Schiele) [Before 28/12/19]
MPII Cooking 2 Dataset – 一个细粒度烹饪活动的大统计数据集,是MPII烹饪活动统计数据集的扩展。(Rohrbach, Rohrbach, Regneri, Amin, Andriluka, Pinkal, Schiele) [Before 28/12/19]
MSR-Action3D – 基准RGB-D姿势统计数据集(Microsoft Research Redmond and University of Wollongong) [Before 28/12/19]
MSRActionPair dataset– : 基于深度统计数据的直方图定向4D活动识别(University of Central Florida and Microsoft) [Before 28/12/19]
MSRC-12 Kinect gesture data set –594个序列和719,359帧,来自人们表演的12个手势(Microsoft Research Cambridge) [Before 28/12/19]
MSRC-12 dataset – 人体运动的序列,表示为身体部分的位置和相关的手势(Microsoft Research Cambridge and University of Cambridge) [Before 28/12/19]
MSRDailyActivity3D Dataset – 有16个活动 (Microsoft and the Northwestern University) [Before 28/12/19]
ManiAc RGB-D姿势统计数据集:不同的人类姿势,15个不同的版本,30个不同的姿势类型,20个长而复杂的操作序列 (Eren Aksoy) [Before 28/12/19]
Mivia dataset – 它由14名受试者执行的7个高级姿势组成。(Mivia Lab at the University of Salemo) [Before 28/12/19]
MTL-AQA – 用于评估奥运会跳水项目质量的多任务学习统计数据集。超过1500个样品。它包含姿势样品的视频,精细的姿势类,专家评论(面向AQA的字幕),评委的AQA评分。来自多个视图的视频。除了AQA之外,还可以用于字幕和细粒度的姿势识别。(Parmar, Morris) [29/12/19]
MuHAVi – 多摄像机人体姿势视频统计数据 (Hossein Ragheb) [Before 28/12/19]
Multi-modal action detection (MAD) Dataset – 它包含由20个对象执行的35个顺序操作。 (CarnegieMellon University) [Before 28/12/19]
Multiview 3D Event dataset – 该统计数据集包括8个类的8个事件类别 (University of California at Los Angles) [Before 28/12/19]
Nagoya University Extremely Low-resolution FIR Image Action Dataset– 姿势识别统计数据集,由16×16低分辨率FIR传感器捕获。(Nagoya University) [Before 28/12/19]
NTU RGB+D Action Recognition Dataset – NTU RGB+D是一个大型的人体姿势识别统计数据集(Amir Shahroudy) [Before 28/12/19]
Northwestern-UCLA Multiview Action 3D – 有10个行动类别:(Northwestern University and University of California at Los Angles) [Before 28/12/19]
Office Activity Dataset – 它由Kinect 2.0从执行普通办公活动的不同受试者那里获得的骨架统计数据组成。(A. Franco, A. Magnani, D. Maiop) [Before 28/12/19]
Oxford TV based human interactions(Oxford Visual Geometry Group) [Before 28/12/19]
PA-HMDB51 – 人类行动视频(592)统计数据集与潜在的隐私泄露属性注释:皮肤颜色,性别,脸(Wang, Wu, Wang, Wang, Jin) [Before 28/12/19]
Parliament – The Parliament dataset 是228个视频序列的集合,描述了希腊议会中的政治演讲。(Michalis Vrigkas, Christophoros Nikou, Ioannins A. kakadiaris) [Before 28/12/19]
Procedural Human Action Videos– 这个统计数据集包含了大约40000个使用3D游戏引擎生成的人类姿势识别视频。该统计数据集包含约600万帧,不仅可用于训练和评估模型,还可用于深度地图估计、光流、实例分割、语义分割、3D和2D位姿估计和属性学习等模型。(Cesar Roberto de Souza) [Before 28/12/19]
RGB-D activity dataset – 统计数据集中的每个视频包含2-7个姿势,涉及与不同对象的交互。 (Cornell University and Stanford University) [Before 28/12/19]
RGBD-Action-Completion-2016 – 该统计数据集包括414个完整/不完整的对象交互序列,跨越6个姿势,呈现RGB、深度和骨架统计数据。(Farnoosh Heidarivincheh, Majid Mirmehdi, Dima Damen) [Before 28/12/19]
RGB-D-based Action Recognition Datasets – 学术论文包括不同的rgb-d姿势识别统计数据集的列表和链接。(Jing Zhang, Wanqing Li, Philip O. Ogunbona, Pichao Wang, Chang Tang) [Before 28/12/19]
RGBD-SAR Dataset– RGBD-SAR Dataset (University of Electronic Science and Technology of China and Microsoft) [Before 28/12/19]
Rochester Activities of Daily Living Dataset (Ross Messing) [Before 28/12/19]
SBU Kinect Interaction Dataset – 它包含八种类型的交互
(Stony Brook University) [Before 28/12/19]
SBU-Kinect-Interaction dataset v2.0– 它包括人类进行互动活动的RGB-D视频序列 (Kiwon Yun etc.) [Before 28/12/19]
SDHA Semantic Description of Human Activities 2010 contest – Human Interactions (Michael S. Ryoo, J. K. Aggarwal, Amit K. Roy-Chowdhury) [Before 28/12/19]
SDHA Semantic Description of Human Activities 2010 contest – aerial views(Michael S. Ryoo, J. K. Aggarwal, Amit K. Roy-Chowdhury) [Before 28/12/19]
SFU Volleyball Group Activity Recognition – 排球视频2级注解统计数据集(9个玩家动作,8个场景活动)。(M. Ibrahim, S. Muralidharan, Z. Deng, A. Vahdat, and G. Mori / Simon Fraser University) [Before 28/12/19]
SYSU 3D Human-Object Interaction Dataset – 40名受试者进行12种不同的活动(Sun Yat-sen University) [Before 28/12/19]
ShakeFive Dataset – 只包含两个姿势,即握手和击掌。 (Universiteit Utrecht) [Before 28/12/19]
ShakeFive2 – 153个高清视频中的8个类的带有肢体水平注释的二元人机交互统计数据集 (Coert van Gemeren, Ronald Poppe, Remco Veltkamp) [Before 28/12/19]
SoccerNet – 可扩展的统计数据集,足球视频中的姿势点:500场足球比赛完全注释与主要行动(goal,cards,subs)和超过13K足球比赛注释与500K评论事件标题和比赛摘要。(Silvio Giancola, Mohieddine Amine, Tarek Dghaily, Bernard Ghanem) [Before 28/12/19]
Sports Videos in the Wild (SVW) – SVW 由4200个视频组成,这些视频都是由Coach Eye智能手机应用的用户单独用智能手机拍摄的。Coach Eye是TechSmith公司开发的一款领先的运动训练应用。(Seyed Morteza Safdarnejad, Xiaoming Liu) [Before 28/12/19]
Stanford Sport Events dataset(Jia Li) [Before 28/12/19]
THU-READ(Tsinghua University RGB-D Egocentric Action Dataset) – THU-READ是一个具有像素层标注的RGBD视频姿势识别的大型统计数据集. (Yansong Tang, Yi Tian, Jiwen Lu, Jianjiang Feng, Jie Zhou) [Before 28/12/19]
THUMOS – 未修剪的视频姿势识别 – 430小时的视频统计数据和4500万帧 (Gorban, Idrees, Jiang, Zamir, Laptev Shah, Sukthanka) [Before 28/12/19]
Toyota Smarthome dataset– 用于日常生活的真实世界活动的统计数据集(Toyota Motors Europe & INRIA Sophia Antipolis) [30/12/19]
TUM Kitchen Data Set of Everyday Manipulation Activities (Moritz Tenorth, Jan Bandouch) [Before 28/12/19]
TV Human Interaction Dataset(Alonso Patron-Perez) [Before 28/12/19]
The TJU dataset – 包含由20名受试者在两个不同的环境中执行的22个姿势;总共1760个序列。 (Tianjin University) [Before 28/12/19]
UCF-iPhone Data Set – 使用苹果iPhone 4智能手机上的惯性测量单元(IMU)记录(6-9)受试者的9个姿势。(Corey McCall, Kishore Reddy and Mubarak Shah) [Before 28/12/19]
UCI Human Activity Recognition Using Smartphones Data Set – 记录30名受试者的日常生活活动(ADL),同时携带腰装智能手机嵌入式惯性传感器(Anguita, Ghio, Oneto, Parra, Reyes-Ortiz) [Before 28/12/19]
UNLV Dive & Gymvault – 评估奥林匹克跳水和奥林匹克体操跳马质量的统计数据集。它由姿势样品的视频和相应的姿势质量评分组成。(Parmar, Morris) [29/12/19]
The UPCV action dataset –该统计数据集由20个对象两次执行的10个操作组成。(University of Patras) [Before 28/12/19]
UC-3D Motion Database – 可用的统计数据类型包括高分辨率的运动捕捉,通过Xsens和微软Kinect RGB和深度影像的MVN套装获得。(Institute of Systems and Robotics, Coimbra, Portugal) [Before 28/12/19]
UCF 101 action dataset101行动类,超过13k剪辑和27小时的视频统计数据 (Univ of Central Florida) [Before 28/12/19]
UCFKinect – 统计数据集由16个操作组成(University of Central Florida Orlando) [Before 28/12/19]
UCLA Human-Human-Object Interaction (HHOI) Dataset Vn1 – RGB-D视频中的人际互动 (Shu, Ryoo, and Zhu) [Before 28/12/19]
UCLA Human-Human-Object Interaction (HHOI) Dataset Vn2 – RGB-D视频中的人际互动(version 2) (Shu, Gao, Ryoo, and Zhu) [Before 28/12/19]
UCR Videoweb Multi-camera Wide-Area Activities Dataset (Amit K. Roy-Chowdhury) [Before 28/12/19]
UTD-MHAD – 8名受试者进行了4次27个姿势。(University of Texas at Dallas) [Before 28/12/19]
UTKinect dataset– 十种人类犯罪行为被10个试验对象执行了两次(University of Texas) [Before 28/12/19]
UWA3D Multiview Activity Dataset – 10个人进行了30项活动(University of Western Australia) [Before 28/12/19]
Univ of Central Florida – 50 Action Category Recognition in Realistic Videos (3 GB)(Kishore Reddy) [Before 28/12/19]
Univ of Central Florida – ARG 空中照相机,屋顶照相机和地面照相机(UCF Computer Vision Lab) [Before 28/12/19]
Univ of Central Florida – Feature Films Action Dataset(Univ of Central Florida) [Before 28/12/19]
Univ of Central Florida – Sports Action Dataset (Univ of Central Florida) [Before 28/12/19]
Univ of Central Florida – YouTube Action Dataset (sports) (Univ of Central Florida) [Before 28/12/19]
Unsegmented Sports News Videos – 统计资料库的74个体育新闻视频标记与10个类别的体育。设计用于试验多标签视频标签。(T. Hospedales, Edinburgh/QMUL) [Before 28/12/19]
Utrecht Multi-Person Motion Benchmark (UMPM).– 使用姿势捕捉相机记录的多人活动(N.P. van der Aa, X. Luo, G.J. Giezeman, R.T. Tan, R.C. Veltkamp.) [Before 28/12/19]
VIRAT Video Dataset – 事件识别来自两大类活动(单对象和双对象),涉及人和车辆。(Sangmin Oh et al) [Before 28/12/19]
Verona Social interaction dataset(Marco Cristani) [Before 28/12/19]
ViHASi: Virtual Human Action Silhouette Data(userID: VIHASI password: virtual$virtual) (Hossein Ragheb, Kingston University) [Before 28/12/19]
Videoweb (multicamera) Activities Dataset(B. Bhanu, G. Denina, C. Ding, A. Ivers, A. Kamal, C. Ravishankar, A. Roy-Chowdhury, B. Varda) [Before 28/12/19]
WVU Multi-view action recognition dataset (Univ. of West Virginia) [Before 28/12/19]
WorkoutSU-10 Kinect运动统计数据集 (Ceyhun Akgul) [Before 28/12/19]
WorkoutSU-10 dataset – 包含专业教练为治疗目的所选择的运动姿势。(Sabanci University) [Before 28/12/19]
Wrist-mounted camera video dataset(Ohnishi, Kanehira, Kanezaki, Harada) [Before 28/12/19]
YouCook – 88个带有注释的开源YouTube烹饪视频 (Jason Corso) [Before 28/12/19]
YouTube-8M Dataset –一个用于视频理解研究的大统计数据集(Google Inc.) [Before 28/12/19]
注:感谢大连理工大学刘宇擎博士提供翻译支持
本文发布的网站内容均不代表本号观点,本号旨在提供参考素材以便学习交流。若存在链接无法打开的情况,建议您前往CVonline网站,查询原始链接。
“屈埃泰Seminar” 直播回放回放平台:
知网在线教学服务平台:
http://k.cnki.net/Room/Home/Index/181822
B站:
https://space.bilibili.com/27032291
往期目录:
汪荣贵——机器学习基本知识体系与入门方法
陈强——从Cell封面学术论文谈AI科学研究中的试验统计数据问题
石争浩——从先验到深度:低见度影像增强
行知论坛——南理工行知论坛&屈埃泰Seminar:智能画质增强专题
看完微推意犹未尽?
快加入屈埃泰社区,更多资讯等着你
前沿进展 | 多媒体信号处理的数学理论
我国卫星遥感回首与展望
单目深度估计方法:现状与前瞻
目标跟踪40年,什么才是未来?
10篇CV综述速览计算机系统视觉新进展
算法集锦 | 深度学习在遥感影像处理中的六大应用
封面故事 | 从传统到深度:火灾烟雾识别综述
封面故事 | 光场统计数据压缩综述
学者观点 | 结合深度学习和半监督学习的遥感影像分类
编辑推荐 | 视频 + 地图!四维信息助力实景我国
深度学习+影像降噪,如何解决“卡脖子”问题?
❂ 专家报告专家推荐|高维统计数据表示:由稀疏先验到深度模型
专家报告 | AI与影像“术”——医学影像在新冠肺炎中的应用
专家推荐|真假难辨还是虚幻迷离,参与介质绘图绘制让人惊叹!
学者推荐 | 深度学习与高光谱影像分类【内含PPT 福利】
专家报告|深度学习+影像多模态融合
专家报告 | 类脑智能与类脑计算
实战例题!200+PPT带你看懂监督学习
118页PPT!机器学习模型参数与优化那些事儿~
专家开讲 | 机器学习究竟是什么?
❂ 学术论文写作羡慕别人中了顶会?做到这些你也可以!
如何阅读一篇文献?
共享天然资源 | SAR影像船舶切片统计数据集
天然资源分享|热门IT资讯号推荐
❂ 往期目次《我国绘图信号处理报》2020年第2期目次
《我国绘图信号处理报》2020年第1期目次
本文系《我国绘图信号处理报》独家稿件
内容仅供学习交流
版权属于原作者
编辑:狄 狄
指导:梧桐君
审校:夏薇薇
总编辑:肖 亮
声 明
交流,内容为作者观点,不代表本号立场。未经允许,请勿二次转载。如涉及文字、图片等内容、版权和其他问题,请于文章发出20日内联系本号,他们将第三时间处理。《我国绘图信号处理报》拥有最终解释权。