之前做了个白嫖AI服务的动作(利用了@抄书侠大佬提供的逆向中转服务),但逆向项目不稳定,现在很多服务已经无法使用。以后有什么白嫖的方案我会分享到这里。
星火开放了无限token的Spark Lite模型,以下是获取方法:
错误信息:接口调用出错: chat/completions (https://spark-api-open.xf-yun.com/v1/chat/completions) HTTP状态码:BadRequest. 返回内容: {"error":{"message":"invalid param model:gpt-3.5-turbo (sid: cha000b0f04@dx191f9c2beffb8f2532)","type":"invalid_request_error","param":null,"code":"10005"}} 异常堆栈: 在 OpenAI_API.EndpointBase.<HttpRequestRaw>d__10.MoveNext()
模型名没换
换成:general
错误信息:接口调用出错: chat/completions (https://spark-api-open.xf-yun.com/v1/chat/completions) HTTP状态码:BadRequest. 返回内容: {"error":{"message":"invalid param model:gpt-3.5-turbo (sid: cha000b0bcb@dx193619415d99a4b532)","type":"invalid_request_error","param":null,"code":"10005"}} 异常堆栈: 在 OpenAI_API.EndpointBase.<HttpRequestRaw>d__10.MoveNext() --- 引发异常的上一位置中堆栈跟踪的末尾 --- 在 System.Runtime.ExceptionServices.ExceptionDispatchInfo.Throw() 在 OpenAI_API.EndpointBase.<HttpStreamingRequest>d__18`1.MoveNext() --- 引发异常的上一位置中堆栈跟踪的末尾 --- 在 System.Runtime.ExceptionServices.ExceptionDispatchInfo.Throw() 在 System.Threading.Tasks.Sources.ManualResetValueTaskSourceCore`1.GetResult(Int16 token) 在 OpenAI_API.EndpointBase.<HttpStreamingRequest>d__18`1.System.Threading.Tasks.Sources.IValueTaskSource<System.Boolean>.GetResult(Int16 token) 在 OpenAI_API.Chat.ChatEndpoint.<StreamChatAsync>d__15.MoveNext() --- 引发异常的上一位置中堆栈跟踪的末尾 --- 在 System.Runtime.ExceptionServices.ExceptionDispatchInfo.Throw() 在 OpenAI_API.Chat.ChatEndpoint.<StreamChatAsync>d__15.MoveNext() --- 引发异常的上一位置中堆栈跟踪的末尾 --- 在 System.Runtime.ExceptionServices.ExceptionDispatchInfo.Throw() 在 System.Runtime.CompilerServices.TaskAwaiter.HandleNonSuccessAndDebuggerNotification(Task task) 在 DynamicClass.<SendAsyncRequest>d__af.MoveNext()