该论文可在 arxiv 上根据 CC 4.0 许可获取。
作者:
(1)加州大学伯克利分校的任志航和本文其他作者对本文的贡献相同(Email: [email protected]);
(2)加州大学伯克利分校的 Jefferson Ortega 和本文其他作者对本文做出了同等贡献(电子邮箱:[email protected]);
(3)加州大学伯克利分校的 Yifan Wang 和本文其他作者对本文的贡献相同(电子邮箱:[email protected]);
(4)陈志敏,加州大学伯克利分校(电邮:[email protected]);
(5)郭云晖,德克萨斯大学达拉斯分校(电子邮箱:[email protected])
(6)Stella X. Yu,加州大学伯克利分校和密歇根大学安娜堡分校(电子邮箱:[email protected])
(7)加州大学伯克利分校的 David Whitney(电子邮箱:[email protected])。
了解人类如何推断他人的情绪对于研究人员理解社会认知至关重要。心理物理学家在进行实验时,需要特定的刺激集来设计实验。然而,在已发布的数据集中,目前还没有包含连续效价和唤醒评级的基于上下文的视频数据集。缺乏这种数据集也阻碍了研究人员为相应任务开发计算机视觉算法。我们提出的 VEATIC 数据集填补了计算机视觉领域的这一重要空白,将有利于心理物理研究理解情绪识别。D
在数据收集过程中,参与者不断跟踪和评价视频片段中目标人物的情绪,这与一般的心理物理实验不同,后者需要延迟收集反应。我们数据集中的这种设计对于模拟人类在日常生活中处理情绪时发生的实时情绪处理至关重要。此外,情绪处理不是一个即时过程,它在很大程度上依赖于信息随时间的积累,以便准确推断他人的情绪。
VEATIC 数据集的优势在于它模仿了人类在现实世界中感知情绪的方式:在时间和空间域中持续感知并存在上下文信息。如此丰富的数据集对于未来的计算机视觉模型至关重要,可以突破当前模型所能实现的界限。随着更多像 VEATIC 这样的丰富数据集的创建,未来的计算机视觉模型可能能够在与人类互动时实时感知情绪。
该论文。