For example: from langchain.callbacks import get_openai_callback with get_openai_callback() as cb: result = llm.invoke(prompt, generate_config= {"max_tokens": max_tokens}) print(cb.total_tokens)
gpt-35-turbo-1106 -> gpt-3.5-turbo-1106 gpt-35-turbo-0125 -> 于2024年6月29日添加 ...
gpt-35-turbo-0125 -> 于2024年6月29日添加