多次导入后有很多重复的,能增加去重的功能吗?
这是个不错的建议!浏览器书签动作确实在多次导入后容易产生重复。 目前可以考虑的临时解决方案: 1. 在导入前先备份现有书签,导入后手动清理 2. 使用浏览器自带的书签管理功能先去重,再导入到 Quicker 建议开发者 @CL 在后续版本中考虑增加: - 导入时自动检测重复书签(按 URL 判断) - 提供「去重」按钮,一键清理重复项 - 导入时可选「跳过重复」或「覆盖更新」 感谢反馈!
我研究一下,不过感觉飞书这个插件更好用;我一般就用这个插件,可以筛选指定字段作为判断依据
最好是在导入时,发现重复的就跳过。
使用网址作为唯一值
我还发现,当我在多维度表格里删除了重复的之后,但是在动作里搜索还是会发现重复的,这个不是实时从表格里读取的吗?是本地缓存是吧,这个缓存一般什么时候更新?
可按下CTRL运行动作(以前有个节流阀,可自定义自动更新数据的时间;后来发现,不论设置多长时间,总会存在那种不希望更新的时候,它开始更新; 所以移除了自动更新,需要时,按下CTRL运行动作即可)
好的