本书面向智能化时代遥感影像处理与应用的需求,结合作者近年来在遥感影像智能解译方面的研究工作,系统地阐述了高分辨率遥感影像解译与变化检测的方法,以“数据-像素-目标-场景”的层次认知模型为基础,引入基于深度学习的全要素遥感影像语义分割模型,在此基础上提出顾及拓扑结构与空间上下文的线状、面状地物专题要素提取方法,并构建了融合高阶注意力机制的人机交互半自动提取模型。同时,引入密集连接与几何结构约束机制,提升变化检测模型的特征复用与结构感知能力。
本书可作为普通高校摄影测量与遥感、遥感科学与技术、测绘工程、模式识别与智能处理等专业的研究生教材,也可作为遥感智能解译相关从业人员的技术参考书籍。
张觅,武汉大学副研究员,长期从事智能遥感影像解译研究,担任中国遥感应用协会智能遥感开源联盟副秘书长、湖北珞珈实验室智能遥感解译中心副主任。主持或参与20余项国家自然科学基金、重点研发计划等项目,发表论文30余篇,担任CVPR/ICCV/ECCV、ISPRS/TGRS/TIP等顶级会议与期刊审稿人。参与研发的EasyFeature系统支撑了“全球测图”等国家重大工程,经济效益逾2亿元。开发首个遥感深度学习框架LuoJiaNET,吸引全球5000+用户提出LuoJiaSET分类体系,支撑OGC TrainingDML国际标准制定。与华为、百度等企业合作,主导研发28亿参数的多模态人机协同大模型LuoJia.SmartSensing(珞珈·灵感),显著提升了遥感解译的鲁棒性和迁移能力。相关成果荣获“测绘科学技术特等奖”“地理信息科技进步特等奖”等重要科技奖励。