智谱清言已经对GLM-4-Flash模型的api完全免费,官方文档表明兼容openai 格式调用,但测试报错,不过kimi可以,而我在其他软件上openai格式调用的质谱是可以正常使用
这是因为它的服务的 Url 不完全符合官方的 API 格式,它的是 https://open.bigmodel.cn/api/paas/v4/,这个 Url 最后一段路径是 v4 了,但官方的 Url 里的是 v1 。
https://open.bigmodel.cn/api/paas/v4/
v4
v1
目前的话,动作里也只支持自定义 v1 前面的部分,也就是说 v1 暂时改不成 v4,所以无法使用。
虽然我已经用one-api转换使用了,但还是希望能更简单的支持多模型,毕竟大模型的翻译比传统翻译好很多
这里主要涉及到一个功能性和易用性的平衡——自定义 APIUrl 本身应该约定俗成完全符合 OpenAI 的格式,只需要更改前半部分,这样用户填写和开发者后期跟进API版本都更方便。
但有很多第三方服务就不是这么想😂,导致大家都徒增工作量,诶。
不过嘛,介于这种兼容但又不完全规范的服务越来越多,还是不得不改进,下个版本应该就能支持完整的 Url 自定义了。希望用户不会看迷糊。
最新版已适配各种第三方链接。
操作演示如下:
感谢作者
智谱清言与类似OpenAI类接口的填写:https://getquicker.net/Common/Topics/ViewTopic/28620