乾元BigBangTransformer BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。 03701 AI行业大模型# AI行业大模型|GPT架构|多语言支持|多领域应用|大规模预训练模型|对话生成|开源|微调|文本理解|自定义训练|自然语言处理|金融分析