智能设备通信安全技术研讨会
会期:2019年 9 月 11日 - 12 日
研讨内容:1.智能网络设备如何检测主动攻击; 2.智能网络设备如何防御主动攻击。
本次研讨会邀请外校该领域的专家介绍最新的研究成果,国际信息与软件学院从事相关研究工作的人员也会对本院在智能安全计算方面的工作进行介绍,与校内同行一起就共同感兴趣的问题深入交换看法,探寻未来可能的合作研究。此次研讨会的召开将促进无线通信环境下智能网络安全解决方案相关研究经验的分享,进一步推动该领域研究进展。
日程安排:
9月11日 大连理工大学开发区校区 综合楼5楼第一会议室 |
13:40 - 16:40 |
同国际信息与软件学院教师及同学座谈 |
9月12日 大连理工大学开发区校区 综合楼5楼第一会议室 |
8:30 - 9:15 |
人工智能技术在漏洞挖掘领域的应用 吴敬征 (软件所) |
9:25 - 10:05 |
A Behavior Covert Channel Based on GPS Deception for Smart Mobile Devices 吴槟(信工所) |
10:15 - 11:25 |
VCCN下污染攻击检测与防御 姚琳(大连理工) |
11:30 - 12:30 |
边缘网络中的大数据处理进行研讨 夏秋粉(大连理工) |
14:30 - 16:30 |
同相关老师和学生座谈,针对人工智能&网络安全进行研讨 主持老师 薛昕惟 (大连理工) |
校外报告人及相关信息:
吴敬征博士,中国科学院软件研究所副研究员,2012年毕业于中国科学院大学,主要研究方向为漏洞挖掘,代码分析,安全增强。在国内外期刊和会议发表学术论文50余篇,申请国家专利20余项,获得软件著作权10余项。主持自然科学基金、国家科技重点研发计划课题等多项研究项目。研究成果发表在IJCAI、ICSE、ESEC/FSE等CCF-A类学术会议。
报告题目1:人工智能技术在漏洞挖掘领域的应用
人工智能时代,如何让机器具备安全漏洞分析专家的能力,能够在大规模代码中识别微小缺陷,发现潜在的安全漏洞,是人工智能安全发展之路的重要内容。结合人工智能技术,提出了一种基于代码属性图及注意力神经网络的漏洞挖掘方法。该方法研究代码属性图的语义等价表示,将注意力机制引入漏洞发现,模拟安全专家的视觉焦点,实现对代码漏洞的安全检测。该研究成果将在人工智能国际顶级会议IJCAI’19做报告展示。
吴槟,男,博士,2010年毕业于中国科学院研究生院信息安全国家重点实验室,师从冯登国研究员。现为中国科学院信息工程研究所副研究员,中国科学院大学网安学院岗位教授,信息安全国家重点实验室网络攻防与对抗方向技术带头人,中国计算机学会高级会员、区块链专委会委员,中国密码学会会员,中国图象图形学学会会员、数字媒体取证与安全专委会委员,ACM 会员,中国互联网协会物联网工作委员会顾问委员,北京市重大信息化项目评审专家,网安中心项目评审专家。近年来,先后主持了国家自然科学基金项目、发改委信息安全专项工程子系统研制项目、中科院先导专项子课题、交通运输部软科学研究项目等10余项,项目经费总额累计达1600万元;担任国家自然科学基金联合基金重点项目联合单位主持人、国家863计划项目副组长。结合研究工作申请发明专利7项,获得专利授权6项,在国内外重要学术刊物和学术会议上发表学术论文10余篇,参加编写国家标准2项,主持撰写国家级重大项目研究报告4项,形成软科学研究报告及提交部委建议稿3项。参与编写国家网信办干部培训教材《网络安全技术》第五章、第六章,在教学、授课方面具有较好的经验。2015年入选中国科学院“关键技术人才”。
报告题目2:Crossing-Domain Generative Adversarial Networks for Unsupervised Multi-Domain Image-to-Image Translation
State-of-the-art techniques in Generative Adversarial Networks (GANs) have shown remarkable success in image-to-image translation from peer domain X to domain Y using paired image data. However, obtaining abundant paired data is a non-trivial and expensive process in the majority of applications. When there is a need to translate images across n domains, if the training is performed between every two domains, the complexity of the training will increase quadratically. Moreover, training with data from two domains only at a time cannot benefit from data of other domains, which prevents the extraction of more useful features and hinders the progress of this research area. In this work, we propose a general framework for unsupervised image-to-image translation across multiple domains, which can translate images from domain X to any a domain without requiring direct training between the two domains involved in image translation. A byproduct of the framework is the reduction of computing time and computing resources, since it needs less time than training the domains in pairs as is done in state-of-the-art work. Our proposed framework consists of a pair of encoders along with a pair of GANs which learns high-level features across different domains to generate diverse and realistic samples from. Our framework shows competing results on many image-to-image tasks compared with state-of-the-art techniques.
联系人 姚琳 夏秋粉 62274368