聯發科強化AI量能 創新基地再推LLM可生成中英兩語言
联发科(2454)集团辖下的前瞻技术研究单位联发创新基地,继2023年初释出全球第一款繁体中文大型语言模型(LLM)后,今(7)日再度开源释出能够精准理解和生成中英两种语言的MediaTek Research Breeze-7B 70亿参数系列大型语言模型供大众使用。
联发科表示,Breeze-7B基于开源界最热门的Mistral模型,较上一代繁体中文大型语言模型增加20倍以上的知识量,使Breeze-7B能更精确掌握中英文的细微语言与文化差异,呈现更自然、准确的沟通以及双语内容创作。
此外,在联发创新基地对模型的优化下,Breeze-7B繁体中文的推理处理速度只需要市面上其他70亿参数级别的Meta或Mistral模型一半的时间,提供更顺畅的使用体验。
联发创新基地负责人许大山博士指出,近期全球AI领域研究蓬勃发展,但多数研究与开发项目都以英文的大型语言模型进行,所以许多学术界专家与应用开发者,都在为推进繁体中文AI的创新与应用而努力,看好这次联发创新基地Breeze-7B繁体中文大型语言模型开源将有益于学术界与业界在AI的发展,未来联发创新基地也将规划开源多模态模型,期待持续与学术界及业界共同开创AI领域的更多可能性。
据悉,在市面上众多70亿参数级别的中英双语模型中,Breeze-7B 模型在对话与表格处理能力上都是领先者,例如Breeze-7B能在更短的时间内理解并生成更流畅、精准的中英文回应,还能精准捕捉语境,提供高度相关且连贯的回答,为即时翻译、商业沟通、智能客服对话等需要快速反应的即时中英双语的场景提供显著的效能提升。
联发科强调,Breeze-7B也能精确地解读和生成表格内容,无论是数据分析、财务报表还是复杂的排程任务,都能够提供高效且可靠的支援,对于需要处理大量结构化数据的企业来说尤其重要。
联发科进一步说,此次联发创新基地Breeze-7B的模型开源有助学术研究人员深入理解大型语言模型的运作机制,持续改进大型语言模型的幻觉问题(hallucination)与问答校准(alignment)等,以优化未来语言模型的生成结果。
联发创新基地会不断地投入大型语言模型的开发,预计下一代以开源模型Mixtral为基础所训练的470亿参数大模型,将在近期开放给大众测试。