您现在的位置是:首页 > 综合热门 > 科技信息 > 正文
MIT与DeepMind联合研究:揭秘视觉语言模型难以解析否定表述的根源
发布时间:2025-01-20 19:07:04来源:
导读 视觉语言模型(VLMs)在多模态任务中至关重要,但在理解否定表达上仍面临挑战。否定在诸多应用中极为关键,然而现有VLMs在处理否定陈述时表
视觉语言模型(VLMs)在多模态任务中至关重要,但在理解否定表达上仍面临挑战。否定在诸多应用中极为关键,然而现有VLMs在处理否定陈述时表现不佳,尤其在安全监控和医疗保健等领域尤为明显。这一问题的根源在于预训练数据偏差,导致模型将否定与肯定视为同义。
为解决这一问题,MIT、DeepMind及牛津大学的研究人员提出NegBench框架,用于评估和改进VLMs对否定的理解能力。该框架通过大量合成数据集提升模型训练和评估效果,显著提高了模型性能和泛化能力,特别是在处理否定查询和多项选择任务时表现出色。NegBench的提出填补了VLMs在理解否定方面的空白,对构建更强大的人工智能系统具有重要意义。
标签:
猜你喜欢
- 三星三折叠屏手机震撼亮相:Z形折叠挑战华为Mate XT
- TikTok:成功穿越阴霾,迎接新生
- 三星Galaxy S25 Slim影像配置大揭秘:2亿像素HP5主摄震撼来袭
- 特斯拉股价有望年内飙升近两成!美知名投行力荐:专注FSD新技术是关键
- 揭秘华为手机消费群体:25-45岁为主力军,富豪偏爱三折叠机型
- 微软与OpenAI调整合作框架,允许OpenAI接入多元计算资源
- 非主流AI口音纠正App爆红,单月流水突破百万美金大关
- 5000亿美元巨资!特朗普宣布史上最大AI投资计划,孙正义出任星门计划董事长
- 美国对TikTok禁令实施75天缓冲期:官方呼吁理性客观审视
- 12306官方揭秘:抢票加速包实为营销噱头,携程、去哪儿等平台客服各有说辞