近日,国际知名专业信息出版及服务商威科集团宣布与字节豆包大模型达成合作,借助豆包大模型优秀的语义理解能力,威科集团的法律行业信息库实现了智能化升级,以AI代替传统人工标记,对法律判例多维度自动抽取,抽取精度超95%,大大降低成本又保障了准确性。
威科集团为律师以及税务、金融、审计、风险、合规和监管等部门提供专业信息、软件解决方案和服务,其打造的威科先行法律信息库等工具,集法规、案例、解读、工具、问答等模块为一体,帮助法律行业客户加深对判例的理解和认识,提升业务能力。
据介绍,豆包大模型最大的作用于威科法信息库的判例解析场景。判例研究是法律从业者最重要的工作内容之一,判例研究不但可以为律师找到支持案件论点的法律依据,评估案件走向与潜在风险,制定出更有力的诉讼与辩护策略。还可以深入理解法律的适合使用的范围和限制,为客户提供更专业的法律咨询服务;此外,企业法务部门还可以通过对过往判例研究,在起草和审查合同时减少法律歧义和风险,确保企业业务操作和政策符合现行法律标准,甚至能基于判例中的法律阐释,参与或影响企业战略的制定。
鉴于判例往往涉及广泛范围内的多个不同对象客体,相关检索字段数量如法条、金额、地点等,可能达到数十甚至上百个,给判例整理工作带来了极大的难度。因而,高效解析判例内容并抽取这些关键字段,进行分类与整理,构建出一个结构清晰、易检索易查询易使用的信息库,成为众多法律行业从业者的核心诉求。
豆包大模型基于字节跳动内部50+业务场景实践验证,目前已覆盖20个以上细分行业,尤其在文本分类、总结摘要、信息抽取、角色扮演、文案创作等多个角度表现出优势,能够有效解决威科构建信息库过程中,人工标记、机器抽取等方式对判例打标、分类效率低、错误率高等问题。目前,豆包大模型通过字节跳动旗下的云服务平台火山引擎对公司可以提供服务,通过火山引擎平台层面的算法和工程优化,豆包大模型的成本优势让威科以更低价格完成大规模的批量数据处理,实现了效率与成本的双向优化。
当前,法律行业数字化趋势明显地增强。在知识库管理方面,卷宗、文书的繁杂处理流程,迫切地需要信息化与智能化技术的深度融入。
威科集团方面表示,未来希望与火山引擎共同探索豆包大模型能力在法律行业的更多应用场景,如RAG方案智能问答等,将大模型技术转化成生产力,持续为法律行业从业者及各类公司可以提供多元化智能服务。