如果想用glm-ocr,这么填写可以么?问的ai,端点url填的智谱平台
glm-ocr的话,直接选这个,填KEY
也是要付费吧。
我一般都是识别公式或不规则排版的图文时才用AI OCR
我常用的话现在是有道、百度。AI接口是硅基流动的zai-org/GLM-4.5V
谢谢回复,请教下哈,如果不是用的硅基流动平台,而是智谱平台,那调用方式也是选的Base URL吗,端点URL怎么填呢?
尝试这样子填写,提示OCR结果空白,应该是填写错了
智谱平台应该要选HTTP模式。
HTTP默认内置的就是智谱平台的
1、大佬,这个动作很方便,但是我感觉ai-ocr接口,应该是要优化下,调用方式选Base URL和http模式都一样很慢,相同的模型,ocr识别耗时比其他动作慢很多。
2、调试运行,在ai调用或者http请求这两个步骤耗时耗时:7461ms、耗时:61047ms
3、例如跟这款万能识别动作相比,相同的ai模型,就慢很多https://getquicker.net/Sharedaction?code=9062589a-dba2-425f-860c-08dcf8c7ad5e
其他的接口速度正常
这个动作内置的模型是
智谱的 GLM-4V-Flash
通义千问的 qwen-vl-max-latest
腾讯混元的 hunyuan-turbos-vision
对,两个动作我都用的智谱的 GLM-4V-Flash
应该不至于会这样,我看两边的HTTP写法都差不多。
我刚试了截图同一张差不多大小尺寸的区域去让两个动作分别识别,用时差不多。
尺寸大跟尺寸小,用时是会不一样。
你也可以按照他的写法(多了一些参数),改一下请求体再试试看
如果想用glm-ocr,这么填写可以么?问的ai,端点url填的智谱平台
glm-ocr的话,直接选这个,填KEY