Insert Anything: 开源图像无缝插入编辑框架

2025-05-16 203 0

浙江大学、哈佛大学、南洋理工大学联合提出了统一的图像插入框架Insert Anything,支持多种实际场景,包括艺术创作、逼真的脸部交换、电影场景构图、虚拟服装试穿、配饰定制和数字道具更换,下图展示了其在各种图像编辑任务中的多功能性和有效性。

效果展示

相关链接

  • 论文:https://arxiv.org/pdf/2504.15009
  • 主页:https://song-wensong.github.io/insert-anything

结论

Insert Anything是一个基于参考的图像插入统一框架,它通过支持蒙版和文本引导控制,克服了专用方法的局限性,适用于各种插入任务。利用新开发的包含 12 万个提示图像对的 AnyInsertion 数据集以及 DiT 架构的功能实现了创新的上下文编辑机制,该机制采用双联画和三联画提示策略,能够有效地保留身份特征,同时保持插入元素与目标场景之间的视觉和谐。在三个基准测试上进行的大量实验表明,提出的方法在人物、物体和服装插入方面始终优于最先进的方法,为基于参考的图像编辑树立了新标杆,并为现实世界的创意应用提供了通用的解决方案。

相关文章

谷歌发布Gemini 3:百万级上下文与全链路 Agent 引领 AI 新纪元
AI视频像素级角色与物品参考:BindWeave模型与ComfyUI部署实测
谷歌Gemini平台将推出Nano Banana2,图像生成效率与风格多样性升级
重磅发布:MiniMax M2 开源模型 —— 低成本高性能新时代
开源AI新浪潮:十月风云变幻,模型竞赛进入“效率为王”新阶段
近一周开源模型动态汇总(2025年10月21日–28日)

发布评论