【AI短讯】苹果开源视觉模型 FastVLM

2025-05-16 69 0

苹果正式发布 FastVLM 开源视觉模型,专为 iPhone、IPad 设备优化的高速视觉模型,强调能以极低的延迟完成图文理解任务,并实现与大语言模型 GPT 和 Qwen 高度整合。

FastVLM的主要功能是将高解析图像实时转换为语言模型可处理的视觉token,让设备得以在本地直接进行图像描述、问答分析等任务,无需仰赖云端资源或高耗能硬件。架构包含轻量级视觉主干FastViTHD,以及可与开源语言模型搭配的解码器模组。根据苹果公开的效能资料,从「看懂图片」到「即时语言输入」

项目地址:https://github.com/apple/ml-fastvlm

相关文章

【AI短讯】Midjourney V7再升级
【AI 短讯】小米开源推理大模型 Xiaomi MiMo
【AI 短讯】开源AI上色模型 Cobra 发布!
阿里通义Qwen3发布:重新定义开源AI的里程碑

发布评论