当前位置:主页 > 学术会议查询 > 2025年第八届图像与图形处理国际会议

2025年第八届图像与图形处理国际会议(ICIGP 2025)


会议时间:
2025年1月3日至5日
会议地点:
中国 澳门
检索机构:
EI,Scopus

2025年第八届图像与图形处理国际会议

非常高兴地欢迎大家参加第八届国际会议 图像和图形处理(ICIGP 2025),将于2025年1月3日至5日在中国澳门举行。

ICIGP 2025由中国澳门大学和中国北京理工大学共同主办; 由英国中央兰开夏大学和山东海洋资源公司协助 中国环境研究所;由该机构提供支持 英国工程与技术大学和中国哈尔滨工程大学。

图像和图形处理领域正在迅速发展和演变,随着 新技术和新应用不断涌现。ICIGP 2025 是一个 为研究人员、学者和行业专业人士提供绝佳机会 来自世界各地的人们聚集在一起,进行热烈的讨论, 交流思想,与其他专业人士建立宝贵的联系,以及 该领域的专家。

此外,在澳门举办会议提供了一个绝佳的机会 探索这座充满活力和活力的城市,拥有丰富的历史、文化和 技术创新。参与者将有机会体验 这座城市的许多景点,包括博物馆、历史遗迹和现代 建筑,以及享受其举世闻名的美食和热情好客。

我们热烈欢迎所有参加ICIGP的参与者和嘉宾 2025. 我们期待您的参与和贡献,并做出 本次会议取得圆满成功。

出版:
被接受的论文将由ACM出版至ICIGP 2025会议论文集(ISBN:979-8-4007-1021-6),并存档在 ACM 中数字图书馆,能被Ei Compendex、Scopus等检索。
 
ICIGP 2024 Proceedings (ISBN: 979-8-4007-1672-0) 即将Ei Compendex & Scopus检索.
ICIGP 2023 Proceedings (ISBN: 978-1-4503-9857-2) Ei Compendex & Scopus已检索.
ICIGP 2022 Proceedings (ISBN: 978-1-4503-9546-5) Ei Compendex & Scopus已检索.
ICIGP 2021 Proceedings (ISBN: 978-1-4503-6367-9) Ei Compendex & Scopus已检索.
ICIGP 2020 Proceedings (ISBN: 978-1-4503-7720-1) Ei Compendex & Scopus已检索.
ICIGP 2019 Proceedings (ISBN: 978-1-4503-6092-0) Ei Compendex & Scopus已检索.
ICIGP 2018 Proceedings (ISBN: 978-1-4503-6367-9) Ei Compendex & Scopus已检索.
 
征稿启事
 
描述原创工作的论文,如任何主题所示 以下,被邀请。验收将基于质量, 相关性、原创性等。既有全面的研究,又有 欢迎提交正在进行的报告。感兴趣的话题 提交材料包括但不限于:
 
 
轨道 1。图像处理技术与应用
▪ 图像增强与修复
▪ 图像分割与特征提取
▪ 图像和视频编码与压缩
▪ 图像分析与理解
▪ 医学图像处理与分析
 
 
轨道 2.计算机视觉和模式识别
▪ 物体检测和识别
▪ 用于图像分析
▪的机器学习 视觉跟踪和监视
▪ 面部和手势识别
▪ 视觉
 
 
深度学习 轨道 3.计算机图形学和动画
▪ 渲染和建模
▪ 虚拟和增强现实
▪ 3D 打印和制造
▪ 计算摄影
▪ 视觉效果和动画
 
 
轨道 4.多媒体技术和应用
▪ 音频和视频处理
▪ 多媒体内容分析和检索
▪ 交互式多媒体系统
▪ 沉浸式和游戏环境
▪ 社交媒体和多媒体
 
 
轨道 5.人机交互与界面 设计
▪ 用户体验设计与评估
▪ 用户界面设计与开发
▪ 人为因素和人体工程学
▪ 移动设备
▪的交互设计 自然用户界面
 
 
轨道 6.遥感与地理空间影像 处理
▪ 用于环境监测
▪的图像分析 地理信息系统
▪ 卫星图像处理和分析
▪ 地理空间数据处理和分析
▪ 雷达和激光雷达成像
 
 
轨道 7.图像和图形中的安全和隐私 处理
▪ 图像和视频加密和水印
▪ 多媒体取证和身份验证
▪ 安全的多媒体通信和存储
▪ 隐私保护图像和视频分析
▪ 网络安全和图像取证
 
主旨演讲嘉宾
 
邱国平教授 英国诺丁汉大学
 
邱国平是英国诺丁汉大学计算机科学学院的视觉信息处理教授。 他的研究领域是神经网络和图像处理。他的博士论文(1993年)题为“图像神经网络的研究” 处理应用程序“,他开发了一些神经网络最早的图像处理应用程序 - 图像压缩(约 1991 年), 学习图像分辨率增强(约 1996 年,又名超分辨率)、压缩伪影去除(约 1997 年)和高动态范围 (HDR) 色调映射 (约2004年)。他还开发了最早的表征学习形式之一,他设计了自组织竞争性学习模型来学习图像 表示特征(约2000年,又名视觉词袋)。他和他的学生开创了一种高动态范围(HDR)图像的计算方法 在色调映射中,他们优化了一个两项成本函数,其中一个支持线性映射,另一个鼓励均匀分布映射。这 Computational Approach是对传统启发式方法的突破,并在第18届国际模式会议上获得了最佳论文奖 认可 (ICPR2006)。在这个框架下,他的团队开发了一些最实用的 HDR 色调映射解决方案——一种封闭式算法,一种神经算法 网络解决方案,以及一种树状数据结构化计算效率高的技术。这些方法已被广泛采用,并在获奖照片中得到了展示 全球数以亿计的编辑软件经常使用。最近,他的研究主要集中在深度学习及其应用上。其中 亮点是深度卷积神经网络在图像处理中最早的应用之一 - 缩小、去色、HDR 色调映射 以及逆色调映射/半调(约 2016 年)、深度特征一致变分自编码器(约 2016 年)和用于 对抗生成对抗网络 (GAN) 中的模式崩溃(约 2018 年)。其他应用包括城市区域功能识别(约2019年)、图像 去雾化(约 2020 年)、医学(数字病理学)图像分析(约 2018 年)、深度估计(约 2019 年)、视觉质量评估(约 2020 年)、反色调 映射 HDR 视频(约 2021 年)、视觉语言建模(约 2022 年)、计算图像编辑和 AIGC(约 2022 年)以及 3D 重建(约 2023 年)。 他的最新工作研究了人工智能如何帮助促进心理健康和福祉。
 
演讲题目:“高动态范围——最后的前沿 数字成像”
 
摘要:多年的研发加上 数十亿美元的技术投资已经取得了 数码摄影设备无处不在,而且非常先进。 尽管取得了巨大的进步,但仍有一些场合, 例如,在 A 上拍摄晚会的照片 餐厅,图像质量仍然会出来 不好。要么黑影太暗,以至于 看不到任何细节,或者光线区域太亮了 这样它们就完全饱和了,没有细节 是可见的。即使在开启高动态后 相机中的范围 (HDR) 功能(现在是 每个智能手机中的功能),或调整各种 控制按钮,情况不会有太大改善。 然而,现场的摄影师可以看到每一个 黑暗和明亮区域的细节。这 问题是,为什么?在这次演讲中,我将展示这一点 困难是由高动态范围造成的 场景的光强度,我们称之为 HDR 问题。我将从第一性原理证明 HDR 是 数字成像中许多困难的原因 (摄影)并纠正其中的一些误解 关于图像处理问题的最新文献很多 例如(低光或暗)图像增强, 尤其是那些所谓的端到端黑匣子解决方案 基于深度学习。我将演示两者 从理论上和实践上讲,HDR是最后一个 技术障碍,数字化的最后前沿 成像。
 
James Tin-Yau Kwok 教授 (IEEE Fellow)
香港科技大学, 香港, 中国
 
James Kwok是香港科技大学计算机科学与工程学系的教授。 他是IEEE院士。
 
郭教授于香港大学取得电机及电子工程 B.Sc 学士学位 以及他在香港科技大学获得计算机科学博士学位。随后,他加入了计算机系 香港浸会大学理学院助理教授。他回到香港科技大学,现在是 计算机科学与工程系教授。他目前担任IEEE Transactions on Neural Networks的副主编 以及学习系统、神经网络、神经计算、人工智能杂志、国际数据科学与分析杂志等 《Machine Learning》编辑委员会。他还担任/担任主要机器学习/人工智能会议的高级领域主席,包括 NeurIPS、 ICML、ICLR、IJCAI,并担任包括 AAAI 和 ECML 在内的会议的区域主席。他是IJCAI董事会成员。他被公认为最具影响力的人 学者奖荣誉奖,以表彰“2009 年至 2019 年期间对 AAAI/IJCAI 领域的杰出和充满活力的贡献”。郭教授将担任IJCAI-2025 项目主席。
 
联系我们
这 ICIGP 2025 秘书办公室将收集 投稿并完成日常组织工作。
如果您有任何问题,请随时与我们联系 会议秘书。
Luna Wu 女士
E-mail:icigp_contact@163.com
电话: +86-18000547208
 

内容为网页翻译,可能会有差异,以官网为准:https://www.icigp.org/
按学科领域查询: 电子通信信息技术网络安全计算机科学与数据人工智能与自动化医学经济与金融物理地理地球数学能源与资源电气工程海洋科学化工科学环境科学图像处理人文社会科学交通运输工程航空航天机械材料科学土木建设工程生物科学与技术 按国家查询: 中国美国日本韩国越南泰国马来西亚新加坡印度尼西亚阿联酋土耳其德国英国法国意大利西班牙葡萄牙澳大利亚加拿大 按检索机构查询: EIScopusCPCICNKISCIInspecIEEE XploreGoogle Scholar
language: