苹果公司近日发布了一项重要研究成果——名为《Pico-Banana-400K:面向文本引导图像编辑的大规模数据集》的全新数据集。该数据集包含40万张经过精心编辑的图像,旨在为文本引导的图像编辑模型提供高质量的训练和评测资源。与以往数据集不同,Pico-Banana-400K采用非商业性研究许可发布,允许全球研究人员和学术机构自由使用,但禁止用于商业用途。
近年来,图像生成与编辑技术取得了显著进展,但开放研究仍面临诸多挑战。苹果研究团队指出,现有数据集普遍存在三大问题:一是依赖专有模型生成的合成数据,二是仅包含有限的人工筛选子集,三是存在领域偏移、编辑类型分布不均以及质量控制不一致等问题。这些问题严重制约了鲁棒图像编辑模型的发展。为突破这一瓶颈,苹果团队决定构建一个更全面、更具代表性的图像编辑数据集。
Pico-Banana-400K的构建过程严谨而系统。研究团队首先从OpenImages数据集中精选了大量真实照片,确保内容涵盖人物、物体及含文字场景等多样化元素。随后,他们设计了35种不同类型的图像修改指令,并将其归入八大类别,包括像素与光度调整(如添加复古滤镜)、以人为中心的编辑(如将人物转换为玩具形象)、场景构成与多主体编辑(如改变天气条件)、对象级语义修改(如移动物体位置)以及图像缩放(如放大画面)等。
在编辑过程中,研究人员将原始图像与编辑指令输入谷歌的Gemini 2.5-Flash-Image模型(也被称为Nanon-Banana)进行图像编辑。该模型在图像编辑任务中表现出色,被广泛认为是当前最先进的模型之一。生成结果随后交由Gemini 2.5-Pro模型进行自动评估,只有准确遵循指令且具备良好视觉质量的图像才会被纳入最终数据集。这一双重验证机制确保了数据集的高质量。
Pico-Banana-400K不仅包含单轮编辑的样本,还涵盖了多轮连续编辑序列以及“偏好对”样本。后者通过对比成功与失败的编辑结果,帮助模型学习区分理想与不良输出。这种设计使得数据集更具实用性和训练价值。尽管研究团队承认Nanon-Banana在精细空间控制、布局外推和文字排版处理方面仍存在局限,但他们强调,Pico-Banana-400K的目标是为下一代文本引导图像编辑模型提供一个坚实、可复现的基础。
目前,相关研究论文已发布于预印本平台arXiv,完整的Pico-Banana-400K数据集也已在GitHub上向全球研究者免费开放。这一举措有望推动图像编辑领域的研究进展,为开发更智能、更高效的图像编辑工具奠定基础。











