“统计大讲堂”系列第142讲
2021-01-18
1月12日下午,“统计大讲堂”系列讲座第142讲举行。本次讲座采取在线会议的方式,邀请香港城市大学数学系副教授练恒作题为“High-dimensional tensor quantile regression”的报告,统计学院部分老师参加。讲座由生物统计与流行病学系系主任许王莉教授主持。
许王莉首先介绍了报告人的相关信息。练恒现任香港城市大学数学系副教授,于2000年在中国科学技术大学获得数学和计算机学士学位,2007年在美国布朗大学获得计算机硕士、经济学硕士和应用数学博士学位。先后在新加坡南洋理工大学、澳大利亚新南威尔士大学和香港城市大学工作。在高水平国际期刊上发表学术论文30多篇,研究方向包括高维数据分析、函数数据分析、机器学习等。
练恒老师首先介绍了分位数回归和张量的基本概念。相比均值回归,分位数回归可以更加全面地估计响应变量各分位点的取值,且估计结果稳健。张量概念则对向量和矩阵进行了推广,包括多个维度的信息,可应用于图像或视频分析等领域。随后,他以图像数据为例详细讲解了高维张量分数位回归的建模和求解过程。
练恒老师类比向量清晰地讲解了张量回归模型,并指出样本量小的情况下难以准确估计大量参数,因此需要进行降维处理。他详细阐述了张量与矩阵在性质和运算方面的差异,讲解了三种张量矩阵化的方法、张量与矩阵的乘法以及张量的Tucker分解,从而达到降维的目的。在此基础上,介绍了参数估计的方法,即逐个更新参数估计值使得损失函数最小化,直到估计结果收敛,此外他对于可能存在的过度参数化问题进行了解释。而在高维情况下,Tucker分解仍然不能解决参数太多的问题,此时需要引入惩罚项,并运用ADMM等算法求解约束条件下的线性分位数回归模型。数据模拟和图像数据实例分析结果显示,高维张量分位数回归模型与传统回归模型相比具有明显的优势。
在提问交流环节,练恒老师耐心解答了老师和同学们的提问,进一步解释了参数估计方法以及模型在现实问题中的具体应用等。
本次讲座介绍了一种高维张量分位数回归模型,详细讲解了模型构建思路、参数估计方法和实际应用价值。此后“统计大讲堂”系列将陆续推出更多精彩讲座,敬请关注。