안녕하세요?
계속 질문을 드리게 되네요..
클라우드에서 인스턴스 생성시 스토리지 설정이 잘못되어 인스턴스를 재생성하고
RNGD에서 furiosa-llm을 테스트 중입니다.
아래와 같이 가이드에 있는 qickstart.py를 사용해서 인스턴스를 재생성하기 전에는 성공적으로 잘 수행하였습니다.
from furiosa_llm import LLM, SamplingParams
-# Load the Llama 3.1 8B Instruct model
llm = LLM.load_artifact(“furiosa-ai/Llama-3.1-8B-Instruct-FP8”, devices=“npu:0”)-# You can specify various parameters for text generation
sampling_params = SamplingParams(min_tokens=10, top_p=0.3, top_k=100)-# Prompt for the model
message = [{“role”: “user”, “content”: “What is the capital of France?”}]
prompt = llm.tokenizer.apply_chat_template(message, tokenize=False)-# Generate text
response = llm.generate([prompt], sampling_params)-# Print the output of the model
print(response[0].outputs[0].text)
현재 환경은 아래와 같습니다.
furiosa-compiler v2025.3.0 (4467f6a699 2025-07-25T02:01:49Z)
backend:
- version: 2025.3.0
- revision: 4467f6a699
- built_at: 2025-07-25T02:01:49Z
frontend:- version: 2025.3.0
- revision: 2414f915f
- built_at: 2025-07-25T02:05:46Z
furiosa-llm 2025.3.0
furiosa-llm-models 2025.3.0
furiosa-model-compressor 2025.3.0
furiosa-model-compressor-impl 2025.3.0
furiosa-models-lang 2025.3.0
furiosa-native-compiler 2025.3.0
furiosa-native-llm-common 2025.3.0
furiosa-native-runtime 2025.3.0
furiosa-smi-py 2025.3.0
furiosa-torch-ext 2025.3.0
zstandard 0.23.0
그런데 위의 quickstart.py를 수행시키면 아래와 같이 load_artifact에서
llm = LLM.load_artifact(“furiosa-ai/Llama-3.1-8B-Instruct-FP8”, devices=“npu:0”)
아래와 같은 오류가 발생하고 있습니다.
Exception has occurred: ImportError
/home/elicer/anaconda3/envs/llama_ve310/lib/python3.10/site-packages/furiosa/native_runtime.cpython-310-x86_64-linux-gnu.so: undefined symbol: _ZSt28__throw_bad_array_new_lengthv
File “/home/elicer/workspace/qickstart.py”, line 2, in
from furiosa_llm import LLM, SamplingParams
ImportError: /home/elicer/anaconda3/envs/llama_ve310/lib/python3.10/site-packages/furiosa/native_runtime.cpython-310-x86_64-linux-gnu.so: undefined symbol: _ZSt28__throw_bad_array_new_lengthv
zstandard 패키지의 버전을 맞춰야 하는 것인지…
어떻게 조치를 해야 하는지 알려주시면 감사하겠습니다.

