Kimi Copilot 网页总结助手,这个工具的开发逻辑着实没让我想到
刚开始看到开发者借用kimi开了一个工具,我的第一反应式:这个大兄弟竟然舍得免费花token给我们,好让人感动啊。
于是我决定多用两次帮他提升这个工具的DAU。
不过当我用来这个工具下边,有一个和kimi对话,我觉得这个技术真厉害,还能把这么多内容给到kimi,这个token消耗真舍得。
打开了对话,怎么是我的对话页面?
震惊我一整年,我脑子里时时刻刻都在想这个工具要消耗token,在tpf阶段该怎么去做,结果人家压根就没考虑这个事情。
直接调用你和kimi的对话接口,然后通过前端把内容转出来放到页面上。
这个思维真的是绝了,实在佩服。
这么说很多前端开发功能的时候也可以先不用着急接api,先走前端掉LLM,调用LLM的成本一下子少了很多,基于LLM的前端封装自己的Chatbot。
当然大了不能这么搞,前期探索期是个路子。
6/100 kimi Copilot 网页总结助手
刚开始看到开发者借用kimi开了一个工具,我的第一反应式:这个大兄弟竟然舍得免费花token给我们,好让人感动啊。
于是我决定多用两次帮他提升这个工具的DAU。
不过当我用来这个工具下边,有一个和kimi对话,我觉得这个技术真厉害,还能把这么多内容给到kimi,这个token消耗真舍得。
打开了对话,怎么是我的对话页面?
震惊我一整年,我脑子里时时刻刻都在想这个工具要消耗token,在tpf阶段该怎么去做,结果人家压根就没考虑这个事情。
直接调用你和kimi的对话接口,然后通过前端把内容转出来放到页面上。
这个思维真的是绝了,实在佩服。
这么说很多前端开发功能的时候也可以先不用着急接api,先走前端掉LLM,调用LLM的成本一下子少了很多,基于LLM的前端封装自己的Chatbot。
当然大了不能这么搞,前期探索期是个路子。
6/100 kimi Copilot 网页总结助手