开源逆袭:TAO方法微调 Llama 模型,FinanceBench跑分
科技媒体 NeoWin 昨日发布博文,报道称数据智能公司 Databricks 发布新型大语言模型微调方法 TAO,通过无标注数据和强化学习技术,在显著降低企业成本的同时提升模型性能。
测试显示,在金融文档问答和 SQL 生成任务中,通过 TAO 微调后的 Llama 3.3 70B 模型,表现甚至超越传统标注微调方法,逼近 OpenAI 顶级闭源模型。
TAO 方法利用测试时计算自动探索任务可能性,结合强化学习优化模型,省去人工标注成本。在三大企业基准测试中,TAO 微调的 Llama 模型表现亮眼:
TAO 技术为开源模型提供了持续进化路径:用户使用越多,模型通过反馈数据自我优化的潜力越大,目前该技术已在 Llama 模型上启动私测,企业可通过申请表单参与。
