华中科技大学杨欣教授2018年8月29日VALSE Webinar 成功举办。
Xin Yang received her PhD degree in University of California, Santa Barbara in 2013. She worked as a Post-doc in Learning-based Multimedia Lab at UCSB (2013-2014). She joined Huazhong University of Science and Technology in August 2014 and is currently the Associate Professor of School of Electronic Information and Communications. Her research interests include medical image analysis, monocular simultaneous localization and mapping, and augmented reality. She has published over 40 technical papers, including TPAMI, TMI, MeDIA, TMM, TVCG, ACM MM, MICCAI, ECCV, etc., co-authored two books and held 10+ U.S. and Chinese Patents and software copyrights. Prof. Yang is a member of IEEE and a member of ACM.
杨欣教授Webinar的题目为: Deep Neural Networks for Automated Prostate Cancer Detection and Diagnosis in Multi-parametric MRI.
Multi-parameter magnetic resonance imaging (mp-MRI) is increasingly popular for prostate cancer (PCa) detection and diagnosis. However, interpreting mp-MRI data which typically contains multiple unregistered 3D sequences, e.g. apparent diffusion coefficient (ADC) maps and T2-weighted (T2w) images, is time-consuming and demands special expertise, limiting its usage for large-scale PCa screening. Therefore, solutions to computer-aided detection and diagnosis of PCa in mp-MRI images are highly desirable. In this talk I will introduce a series of our recent works on utilizing deep convolutional neural networks (CNN) for automated PCa detection and diagnosis. I will introduce our co-trained weakly-supervised CNNs which can concurrently identify the presence of PCa in an image and localize lesions. Our weakly-supervised CNNs are trained with entire prostate images with only image-level labels indicating the presence or absence of PCa, significantly alleviating the manual annotation efforts in clinical usage. I will also introduce our Tissue Deformation Network (TDN) for automated prostate detection and multimodal registration. The TDN can be directly integrated any PCa detection CNNs so that all parameters of the entire network can be jointly optimized in an end-to-end manner. In addition, I will describe our recent method for mp-MRI image synthesis based on generative adversarial learning.
问答部分:
问题1:T2w图像和ADC图像之间的形变大吗?他们应该是连续采集的,腹部运动会不会影响到形变? 回答:二者本身形变没有非常的大。通过实验结果可以看出。
问题2:在杨老师工作中,配准和CNN关系是什么? 回答:端到端优化。
问题3:配准的关键点是否需要人工标注? 回答:不需要。关键点是自动根据图像内容回归出来的。矫正后的图像的关键点是预定义的,标准正方形的顶点和等间隔分割点。
问题4:杨老师好,据我所知目前公认的分类效果最好的CNN是ResNet结构的网络,请问老师在第一个工作中为什么选择了GoogLeNet结构的呢? 回答:其实都可以,方法的重点并不是用了什么样的网络。
问题5:合成的ADC图像和T2w图像的是一一对应的吗?怎么保证和真实的医学图像类似? 回答:是。相关工作在under review,后续会公布相关方法和结果。
问题6:想请问有试过3d whole prostate的detection吗? 回答:目前正在向3D上做扩展。
问题7:杨老师 动态增强的特征 如果加入作为训练集中 会提高效果吗? 杨老师的GoogLeNet最后将FC改为了GAP,是为了fine tune时 any size吗? 回答:DCE-MRI的结果加进来应该会有一定程度的提升。
问题8:老师,请问weakly method 得到的heatmap能够得到病灶的边界么,比如分割意义上的? 回答:目前得到的分割边界仍然不是非常精准。不过目前的分割结果和supervised方法的U-Net相当,但训练要便宜很多。
问题9:老师,配准点的个数的选择会影响配准的好坏吗? 回答:会。目前挑选的配准点数是综合考虑性能和速度最优的。
问题10:从噪声来生成医学图像应该比较困难吧?有没有更好的方法,conditional GAN?不是输入噪声,而是和其他模态前列腺图像,CT,T1w? 回答:从噪声生成数据能实现数据扩增。将已有图像模态转换成其他模态通常用来解决数据缺失问题。两者解决的问题不同。
问题11:杨老师,每个病人MRI分辨率若不一样,会做相关预处理吗? 回答:需要做预处理。
问题12:对于数量特别少的医学图像分类,目前有没有比较好的方法?只有30类病例,肿瘤和结节大概各一半?(一共500幅图像) 回答:数据特别少一方面是训练容易overfit到小样本上。另一方面,测试数据太少,结果说服力不强。
问题13:fine-grade分类会不会比直接分类效果更好?对于这种ROI集中在某个位置的图像? 回答:fine-grade分类用来训练detection目前不会得到更好的效果。主要是由于不同类别图像数量分布严重不均衡。
问题14:自然图像都是2维的,医学图像是3维的,finetune有没问题? 回答:3维图像处理需要相应的3D的CNN来进行处理。用3D图像去Fine-tune 3D CNN没有问题。
录像视频在线观看地址: http://www.iqiyi.com/u/2289191062
特别鸣谢本次Webinar主要组织者: VOOC责任委员:王兴刚(华中科技大学)
活动参与方式: 1、VALSE Webinar活动依托在线直播平台进行,活动时讲者会上传PPT或共享屏幕,听众可以看到Slides,听到讲者的语音,并通过聊天功能与讲者交互; 2、为参加活动,请关注VALSE微信公众号:valse_wechat 或加入VALSE QQ群(目前A、B、C、D、E、F、G群已满,除讲者等嘉宾外,只能申请加入VALSE H群,群号:701662399); *注:申请加入VALSE QQ群时需验证姓名、单位和身份,缺一不可。入群后,请实名,姓名身份单位。身份:学校及科研单位人员T;企业研发I;博士D;硕士M。 3、在活动开始前5分钟左右,讲者会开启直播,听众点击直播链接即可参加活动,支持安装Windows系统的电脑、MAC电脑、手机等设备; 4、活动过程中,请不要说无关话语,以免影响活动正常进行; 5、活动过程中,如出现听不到或看不到视频等问题,建议退出再重新进入,一般都能解决问题; 6、建议务必在速度较快的网络上参加活动,优先采用有线网络连接; 7、VALSE微信公众号会在每周一推送上一周Webinar报告的总结及视频(经讲者允许后),每周四发布下一周Webinar报告的通知及直播链接。
|