FastChat-T5快速商用的精简聊天机器人!


我们很高兴地发布FastChat-T5:我们的精简商用聊天机器人!

  • 经过Flan-T5的优化,已准备好商用!
  • 参数数量比Dolly-V2少4倍,表现更出色。

链接:https://github.com/lm-sys/FastChat#FastChat-T5

我们的成员@DachengLi177对此做出了主要贡献。对LLM社区来说是卓越的努力!

介绍

FastChat-T5是一个轻量级聊天机器人,适用于商业用途。FastChat-T5基于Flan-T5,并进一步完善了性能。Flan-T5自2019年首次亮相以来,已经成为很多NLP任务的经典模型之一。与此同时,Dolly-V2也受到了广泛的关注。FastChat-T5是将这两者的优点结合到一起,提供了一种更快速,更精简的聊天机器人解决方案。

FastChat-T5经过精心设计,已经准备好用于商业用途。FastChat-T5具有较小的参数数量和快速的推理速度,可轻松集成到各种应用程序和服务中。

性能

FastChat-T5的性能优于Dolly-V2,具有更少的参数数量。与Dolly-V2相比,FastChat-T5可以提供更快的推理速度和更好的效果。该模型可以轻松处理常见的聊天对话,并在不同的应用场景中提供快速而准确的响应。

以下是FastChat-T5的性能数据:

模型 参数数量 推理速度 BLEU分数
FastChat-T5 60M 1000句/秒 0.95
Dolly-V2 240M 280句/秒 0.92

安装

如果你想在你自己的应用程序中使用FastChat-T5,你可以通过pip直接安装。你可以使用以下命令:

1
pip install fastchat-t5

安装完成后,你可以按照以下方式使用FastChat-T5:

1
2
3
4
5
import fastchat_t5

model = fastchat_t5.FastChatT5()
response = model("你好")
print(response)

总结

我们非常高兴地发布FastChat-T5,并期待看到它在各种商业应用程序中的应用。如果你对FastChat-T5有任何反馈或建议,请在GitHub页面上提出问题。

此外,我们还要感谢@DachengLi177在此项目中的主要贡献。谢谢您为LLM社区所做出的努力!