logo
2025
第十二届
中国可视化与可视分析大会
The 12th China Visualization
and Visual Analytics Conference
中国·杭州
China·Hangzhou
2025.07.19-22
专题 11:前沿论文专题 1

报告信息

时间:2025 年 7 月 21 日 下午, 13:30 - 15:00

地点:二楼文澜厅A

主持人

李泽宇
李泽宇
中国传媒大学

专题报告

Beyond Numbers: Creating Analogies to Enhance Data Comprehension and Communication with Generative AI

李雪琛
李雪琛
同济大学
报告摘要:不熟悉的度量单位通常会阻碍读者理解数值数据的规模、理解内容以及融入上下文。为了提高数据理解和沟通效果,我们利用类比来弥合抽象数据与熟悉度量之间的差距。在这项工作中,我们首先对设计专家进行半结构化访谈,以识别设计问题并总结设计注意事项。然后,我们从各种在线来源收集了一个包含138个案例的类比数据集。基于收集到的数据集,我们描绘了一个用于创建数据类比的设计空间。接下来,我们构建了一个原型系统AnalogyMate,它能自动推荐数据类比、相应的设计解决方案以及由生成式人工智能生成的可视化表示。研究结果表明,AnalogyMate在辅助数据类比创建过程中很有用,并且数据类比在提高数据理解和沟通方面是有效的。
讲者简介:本科毕业于同济大学媒体与传达设计专业,现为同济大学设计创意学院智能大数据可视化(idvx)实验室研究生,师从陈晴副教授,研究方向为人工智能与数据设计、创造力辅助工具等。

DKMap: Interactive Exploration of Vision-Language Alignment in Multimodal Embeddings via Dynamic Kernel Enhanced Projection

叶依林
叶依林
香港科技大学
报告摘要:在多模态嵌入中研究视觉-语言对齐对于多种任务至关重要,例如评估生成模型和筛选多模态预训练数据。由于高维嵌入特征的复杂性,必须借助降维(DR)方法来探索多模态嵌入的对齐关系。然而,现有的降维可视分析方法未能考虑跨模态对齐指标,导致问题:密集区域噪声点遮挡、指标热力图不准确、以及对多尺度交互式探索的支持不足。为了解决这些问题,本文提出了一种新颖的降维可视化系统——DKMap,它通过动态核增强投影(Dynamic Kernel Enhanced Projection)实现对多模态嵌入的交互式探索。首先,我们提出了一种参数化的有监督t-SNE,将投影后的指标热力图估计融入到投影学习过程中,从而提升多模态映射的准确性。其次,为了支持带有动态缩放和逐步增强局部细节的多尺度探索,我们将基于验证约束的广义t-核α参数优化与基于四叉树的多分辨率技术相结合,在确保低过拟合的前提下实现可靠的核参数调整。DKMap是一个跨平台的可视化工具,包含一个用于交互探索的Web系统和一个适用于计算笔记本分析的Python库。我们通过三个使用场景验证了DKMap的通用性与尺度可扩展性,包括:可视化百万级的文生图语料库DiffusionDB,对不同架构的生成模型(Unet-Diffusion和Diffusion Transformer)进行比较评估,以及探索亿级规模的预训练数据集LAION-400M。
讲者简介:香港科技大学跨学科研究部计算媒体与艺术博士,导师曾伟教授和张康教授。研究关注数据可视化、人机交互和人工智能的交叉领域,重点聚焦基于高维嵌入的Human-AI Interaction问题,通过开发高维嵌入降维与检索方法和系统支持用户与多模态数据和生成式模型进行交互。博士期间研究已发表10篇CCF-A文章,其中以一作发表5篇于VIS, ICML, CSCW, TVCG等可视化、人机交互、人工智能领域CCF-A顶会及顶刊,并以通讯作者获得CHI最佳论文提名。担任VIS, CHI, TVCG, PacificVIS等审稿人。

Reviving Static Charts into Live Charts

应璐
应璐
浙江大学
报告摘要:数据图表在各个领域广泛应用,因其能够有效传达复杂的数据关系。然而,静态图表有时可能难以吸引读者并有效呈现复杂信息,可能导致理解有限。我们引入了“实时图表”,这是一种新的呈现格式,它将图表中的复杂信息分解,并通过丰富的动画和伴随的音频叙述按顺序解释信息片段。我们提出了一种自动化方法,将静态图表转换为实时图表。我们的方法集成了基于GNN的技术来分析图表组件并从图表中提取数据。然后我们采用大型自然语言模型来生成适当的动画视觉效果以及配音,从静态图表制作实时图表。我们对我们的方法进行了全面评估,包括模型性能、使用案例、众包用户研究和专家访谈。结果表明,实时图表提供了一种多感官体验,读者可以跟随信息并更好地理解数据洞察。我们分析了实时图表相对于静态图表作为新信息消费体验的优势和劣势。
讲者简介:浙江大学计算机科学与技术学院博士在读,导师为巫英才教授,研究方向为数据叙事与图符可视化,致力于将人工智能技术融入可视化设计,提升可视化创作的智能化与效率。目前她的研究涵盖智能可视化生成、信息可视化叙事以及可视分析领域的基础理论与关键技术,相关成果已经在IEEE VIS、IEEE TVCG、ACM CHI、IEEE TPAMI等会议或期刊发表可视化与可视分析、人工智能相关论文十余篇,其中计算机领域顶级CCF-A类论文8篇,包括4篇一作CCF-A类论文。

ProactiveVA: Proactive Visual Analytics with LLM-Based UI Agent

赵宇恒
赵宇恒
复旦大学
报告摘要:传统的可视分析往往需要大量的人力投入,并且在探索过程中缺乏主动协助。即使是最新的响应式LLM辅助系统也只有在用户明确请求时才提供帮助,这使得它们在分析师最需要的时候无法充分智能地提供建议。为了支持更深入和更广泛的洞察探索,我们提出了一种新颖的主动式可视分析框架,其中基于LLM的UI代理能够自主预测用户的困难并提供及时的协助。为了确定用户何时需要主动帮助、他们需要什么协助以及代理应该如何干预,我们首先进行了一项形成性研究,从交互日志中分析寻求帮助的行为,并提炼了可视分析系统中主动代理的关键设计要求。我们开发了一个三阶段UI代理管道,包括感知、推理和行动。代理从交互日志中自主感知用户需求,通过系统的交互式探索提供量身定制的建议和直观的指导。我们在两种代表性的可视分析系统中实现了该框架,证明了其通用性,并通过算法评估、案例和专家研究以及用户研究评估了其有效性。我们还讨论了主动式可视分析的当前设计权衡和进一步探索的领域。
讲者简介:复旦大学博士生,师从陈思明研究员。研究成果发表在IEEE TVCG, IEEE VIS, ACM CSCW等顶级期刊与会议上。研究方向为大模型驱动的智能可视分析。具体包括:大模型增强的全流程可视分析框架、面向自动化任务拆解的智能体驱动的可视分析、社交媒体与文本可视分析方法等。获IEEE PacificVis最佳论文提名奖、IEEE VAST Challenge一等奖等。

基于生成数据的深度学习模型可视化

张扬
张扬
天津大学
报告摘要:随着生成模型的不断发展,生成样本已成为原始样本的重要补充,并广泛应用于产品设计、模型训练和优化等下游任务中。生成模型通过学习高维潜在空间,实现从中采样出无限数量的样本。然而,如何有效引导用户在潜在空间中找到理想的生成样本,并将其应用于下游任务,仍然是一个挑战。为了解决这一问题,我们提出了Latent Space Map,该方法将潜在空间映射到二维平面,并保留其关键特性,通过视觉引导帮助用户在潜在空间中定位具有期望属性的样本。我们在模型诊断和产品设计场景中应用了该地图,并验证了其有效性。此外,基于这一思想,我们进一步提出了RobustMap,一种基于生成潜空间的深度神经网络对抗鲁棒性可视化探索方法。该方法通过使用生成样本可视化深度神经网络的鲁棒性,显著提升了生成样本在深度学习模型分析中的应用价值。
讲者简介:天津大学智能与计算学部硕士研究生,导师为李杰教授。研究方向是生成模型潜在空间可视化。

Leveraging Foundation Models for Crafting Narrative Visualization: A Survey

何一
何一
同济大学
报告摘要:叙事可视化将数据转化为引人入胜的故事,使复杂信息对广大受众变得可理解。基础模型凭借其在自然语言处理、内容生成和多模态集成等方面的先进能力,在丰富叙事可视化方面具有巨大潜力。最近,从不同方面引入了一系列基于基础模型制作叙事可视化的技术。我们基于66篇论文构建了调研,研究基础模型如何逐步参与这一过程,然后提出了一个参考模型,将所审查的文献分为四个基本阶段:分析、叙述、可视化和交互。此外,我们识别了八项具体任务(如洞察提取和创作),其中基础模型在这些阶段中被应用以促进视觉叙事的创建。每个任务都提供了详细的描述、相关文献和反思。为了为不同的读者提供更具影响力和信息性的体验,我们讨论了关键研究问题,并提供了每个任务的优势和劣势,以指导人们在该领域识别和抓住机遇的同时应对挑战。
讲者简介:目前在同济大学智能大数据可视化实验室攻读博士学位,师从曹楠教授,主要研究方向为智能体设计、人机交互和叙事可视化。已发表学术论文三篇,其中以第一作者身份发表SCI论文一篇。本科毕业于北京邮电大学数字媒体系。

Versatile Ordering Network: An Attention-based Neural Network for Ordering Across Scales and Quality Metrics

于泽华
于泽华
中山大学
报告摘要:排序在许多可视化应用中被广泛研究,例如轴和矩阵重排序,原因很简单,顺序会极大地影响数据感知模式。提出了许多关于数据模式、感知和美学的质量指标,并开发了相应的优化算法。然而,与排序相关的优化问题往往难以解决(例如,TSP是NP完全的),并且开发专门的优化算法成本高昂。在本文中,我们提出了通用排序网络(VON),它自动学习在给定质量指标的情况下进行排序的策略。VON使用质量指标来评估其解决方案,并利用具有贪婪展开基线的强化学习来改进自身。这保持了指标的透明度,并允许VON在不同指标上进行优化。此外,VON使用注意力机制来收集跨尺度的信息,并根据当前上下文重新定位数据点。这使得VON能够处理遵循不同分布的数据点。我们在不同的使用场景和指标下检验了VON的有效性。结果表明,VON可以产生与专门求解器相当的结果。
讲者简介:中山大学计算机学院博士生,师从陶钧副教授,研究方向是面向神经网络的可视分析方法、机器学习和事件序列分析,其中重点研究VIS4AI的通用工具和算法。

VisGuard: Securing Visualization Dissemination through Tampering-Resistant Data Retrieval

叶铧远
叶铧远
华东师范大学
报告摘要:可视化的传播主要以栅格图像的形式进行,这往往导致源代码、交互功能和元数据等关键信息的丢失。虽然之前的方法提出将元数据嵌入图像中以促进可视化图像数据检索(VIDR),但大多数现有方法缺乏实用性,因为它们对在线分发过程中常见的图像篡改(如裁剪和编辑)非常脆弱。为了解决这个问题,我们提出了VisGuard,一个防篡改的VIDR框架,可以可靠地将元数据链接嵌入到可视化图像中。即使在图像遭受大量篡改后,嵌入的数据链接仍然可以恢复。VisGuard支持各种应用,包括交互式图表重建、篡改检测和版权保护。我们对VisGuard在数据检索准确性、嵌入容量以及针对篡改和隐写分析的安全性方面的卓越性能进行了全面实验,证明了VisGuard在促进和保护可视化传播和信息传递方面的能力。
讲者简介:叶铧远,华东师范大学硕士生,导师为李晨辉副教授。他的研究方向包括AI4VIS、人机交互、计算机视觉等。他曾在VIS、CHI等期刊/会议上发表论文数篇。

NeuroSync: Intent-Aware Code-Based Problem Solving via Direct LLM Understanding Modification

张文硕
张文硕
香港科技大学
报告摘要:非专业人员使用对话式大型语言模型进行编程任务正在增加。然而,在有效地向这些模型传达复杂用户意图方面仍然存在重大障碍,往往导致生成的代码无法满足用户需求。本研究调查了这种沟通故障,并提出了人机交互的新方向。我们的方法旨在创建一个更透明和协作的过程,使用户的意图能够被系统更清楚地理解和验证。我们已经开发了一个原型来探索这种新范式。我们评估的结果是有希望的,表明我们的方法可以增强用户和人工智能之间的协同作用,在编程相关任务中实现更有效和高效的结果。
讲者简介:张文硕,香港科技大学博士生,导师为屈华民教授。他的研究方向为对话式及智能体系统中的人机对齐,尤其关注如何提升大语言模型在编程等任务中的表现。
logo
第十二届中国可视化与可视分析大会
The 12th China Visualization and Visual Analytics Conference