我们用 AI 做图、修图时,经常会遇到一些难题:想把图中的杯子挪个位置,结果杯子变形了;想换个视角看看画面,透视却完全不对;想调整两个物体的前后位置,也会出现遮挡混乱、比例失衡…… 核心问题是AI更像是在平面上“P图”,无法理解图像背后的三维空间结构。
近日,京东探索研究院正式开源了自研的 JoyAI-Image-Edit 图像模型,彻底解决上述难题。这是业内首个把 “空间智能” 刻进骨子里的开源模型,让 AI 终于能真正 “看懂” 空间、“编辑” 空间,从原来的平面修图,升级成了三维空间重塑,而且模型的推理代码全部开放,开发者能直接拿来做应用。
彻底解决传统模型空间逻辑混乱难题
JoyAI-Image-Edit深度贴合真实世界空间规律,从空间位置关系、多视角一致性、相机感知到场景推理等维度全面建模,实现了相机坐标视角变换、物体空间位移旋转、几何结构精准控制等多项空间编辑技术突破,将空间认知能力深度融入文本与图像生成流程,搭建了完整的空间理解数据与任务体系。
该模型打破了 AI “理解图像” 和 “生成图像” 的壁垒,让 AI 不仅能生成逼真的图像外观,更能精准理解图像背后的空间结构,在编辑过程中稳定保持主体形象与场景结构完整,多视角空间布局高度一致。不管是移动物体、换视角,还是调整物体间的关系,都能保持场景的几何规律,遮挡、光影也都自然合理,不会再出现变形、错乱的情况,彻底解决传统模型空间逻辑混乱的行业难题。
经实验验证,在物体移动精度、空间一致性等空间编辑核心指标上,JoyAI-Image-Edit达到世界一流水准。
三大空间编辑范式突破,融合15类通用编辑能力
JoyAI-Image-Edit 的核心跃升,在于其攻克了此前开源模型难以逾越的空间理解难题,具备三大辨识度极高的空间编辑能力:视角变换——用户可通过自然语言指定相机的偏航角、俯仰角及缩放程度,模型在保持场景几何一致性的前提下生成新视角图像;空间漫游——支持连续的视角移动,生成在空间中逻辑连贯的多视角图像序列,类似于在三维场景中"走动";物体空间关系操控——在保持场景整体结构稳定的前提下,对特定物体进行位移、缩放等空间变换,同时确保遮挡与光影关系自然合理。
在实现空间级突破的同时,JoyAI-Image-Edit 全面兼容 15 类通用编辑能力,深度覆盖内容创作的高频需求。无论是物体的替换、删除、添加,还是整体风格迁移、细节精修等操作,模型均实现了高性能覆盖。结合顶尖的空间编辑技术,模型在长文本精准渲染、多视角一致性生成等行业高难度任务中表现卓越,真正做到了全场景、无死角的高效创作。
凭借领先的空间理解与编辑能力,JoyAI-Image-Edit模型突破场景限制,可广泛应用于电商内容生产、创意设计制作、智能图像处理、3D 模型重建、具身智能视觉感知等多元领域,大幅提升 AI 图像技术在复杂空间场景中的适配性与实用性。尤其是在具身智能领域,空间理解能力是机器人“理解世界”的核心基础,而该模型的推出,也为相关技术研发提供了关键的底层能力。
此次 JoyAI-Image-Edit 的开源,是京东在 AI 多模态模型领域的重要布局,更是让 AI 图像编辑实现了从平面到空间的大跨越。未来该模型还将持续落地更多场景,不断探索空间智能落地价值。
在AI研发和应用领域,京东今年成果不断。过去一个月内,京东宣布首次开源基础大模型JoyAI-LLM Flash,打破了大模型参数内卷的困局;京东云“龙虾”系列产品集体上线,token调用量周环比增长高达455%;京东还宣布将建成全球最大的具身数据采集中心。依托超级供应链优势,京东将持续推动AI与产业深度融合,真正为产业创造价值。
相关文章
2026-04-080阅读
2026-04-080阅读
2026-04-080阅读
2026-04-080阅读
2026-04-080阅读
2026-04-080阅读
2026-04-080阅读
2026-04-080阅读
2026-04-080阅读
2026-04-080阅读