贾扬清点赞LightningAI推出通用模型引擎LitServe什么都好除了慢

Lightning AI刚刚发布了一款号称"通吃所有模型"的服务引擎

——LitServe!

贾扬清点赞LightningAI推出通用模型引擎LitServe什么都好除了慢-2

这玩意儿到底有多牛呢?

先听听第一批"小白鼠"怎么说。

贾扬清点赞LightningAI推出通用模型引擎LitServe什么都好除了慢-3

AI开发者Kuldeep Singh Sidhu第一时间就上手试了试,结果却让人直呼"卧槽"!

在llama.cpp和vLLM之间,有一小部分大模型是无法部署的。这就是LitServe的用武之地!

听起来很厉害?

但是等等,这哥们儿接下来的话可就有点"打脸"了:

但在我的测试中,它的速度远远落后于vLLM。而且,目前还没有兼容OpenAI API的端点。

哎呀我去,这不就是说 又香又糊 吗?

不过Kuldeep还是给出了一些积极的评价:

它非常灵活,开箱即用地支持多模态和各种模型。随着我们向多模态模型和代理转移,这是一个很好的起点。

看来是有潜力,就是还需要再"练练"啊。

那为啥LitServe会这么慢呢?

Lightning AI官方也看不下去了,赶紧出来解释:

LitServe是为那些想要完全控制内部结构的人设计的。速度方面,vLLM等工具自带内核和KV缓存等优化,而LitServe则需要开发者手动添加这些功能(这是设计使然)。

呃,这不就是说 "为了自由,我们牺牲了速度" 吗?

不过官方也表示,他们有专门的LitGPT来对标vLLM这些"速度怪兽"。看来是想两条腿走路,既要"灵活",又要"快"。

那么问题又来了, 这LitServe到底是个啥玩意儿?

简单来说,它就是一个基于FastAPI构建的 高吞吐量AI模型服务引擎 。FastAPI是它的优势,也是它的短板。

优势在于:

极度灵活

支持多模态

开箱即用支持各种模型

短板嘛,你懂的, 就是慢呗 。

不过话说回来,随着AI界越来越卷,大家对多模态和Agent的需求也越来越高。从这个角度看,LitServe倒是走在了前面。

只是,正如Kuldeep所说:

但是,它必须变得更快……

在这个"快"字当道的时代,慢一步可就要被甩开好几条街了。

最后,附上LitServe的GitHub地址:

https://github.com/Lightning-AI/LitServe

版权声明:
作者:shadowrocket
链接:https://www.shadowrocket8.top/201.html
来源:Shadowrocket官网
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
< <上一篇
下一篇>>