from llama_cpp import llama print("loading . . .") llm = llama()