Skip to content

Commit 60e6b15

Browse files
committed
fixe more params
1 parent 1e09d92 commit 60e6b15

File tree

2 files changed

+23
-26
lines changed

2 files changed

+23
-26
lines changed

llama_cpp/_internals.py

Lines changed: 3 additions & 6 deletions
Original file line numberDiff line numberDiff line change
@@ -110,19 +110,16 @@ def size(self) -> int:
110110
def n_params(self) -> int:
111111
return llama_cpp.llama_model_n_params(self.model)
112112

113-
def get_tensor(self, name: str) -> ctypes.c_void_p:
114-
return llama_cpp.llama_get_model_tensor(self.model, name.encode("utf-8"))
115-
116113
# Vocab
117114

118115
def token_get_text(self, token: int) -> str:
119-
return llama_cpp.llama_token_get_text(self.model, token).decode("utf-8")
116+
return llama_cpp.llama_vocab_get_text(self.vocab, token).decode("utf-8")
120117

121118
def token_get_score(self, token: int) -> float:
122-
return llama_cpp.llama_token_get_score(self.model, token)
119+
return llama_cpp.llama_vocab_get_score(self.vocab, token)
123120

124121
def token_get_attr(self, token: int) -> int:
125-
return llama_cpp.llama_token_get_attr(self.model, token)
122+
return llama_cpp.llama_vocab_get_attr(self.vocab, token)
126123

127124
# Special tokens
128125

llama_cpp/llama_cpp.py

Lines changed: 20 additions & 20 deletions
Original file line numberDiff line numberDiff line change
@@ -2625,7 +2625,7 @@ def llama_get_embeddings_seq(
26252625
"llama_vocab_get_text", [llama_vocab_p_ctypes, llama_token], ctypes.c_char_p
26262626
)
26272627
def llama_vocab_get_text(
2628-
model: llama_model_p, token: Union[llama_token, int], /
2628+
vocab: llama_vocab_p, token: Union[llama_token, int], /
26292629
) -> bytes:
26302630
...
26312631

@@ -2635,7 +2635,7 @@ def llama_vocab_get_text(
26352635
"llama_vocab_get_score", [llama_vocab_p_ctypes, llama_token], ctypes.c_float
26362636
)
26372637
def llama_vocab_get_score(
2638-
model: llama_model_p, token: Union[llama_token, int], /
2638+
vocab: llama_vocab_p, token: Union[llama_token, int], /
26392639
) -> float:
26402640
...
26412641

@@ -2645,7 +2645,7 @@ def llama_vocab_get_score(
26452645
"llama_vocab_get_attr", [llama_vocab_p_ctypes, llama_token], ctypes.c_int
26462646
)
26472647
def llama_vocab_get_attr(
2648-
model: llama_model_p, token: Union[llama_token, int], /
2648+
vocab: llama_vocab_p, token: Union[llama_token, int], /
26492649
) -> int:
26502650
...
26512651

@@ -2655,7 +2655,7 @@ def llama_vocab_get_attr(
26552655
@ctypes_function(
26562656
"llama_vocab_is_eog", [llama_vocab_p_ctypes, llama_token], ctypes.c_bool
26572657
)
2658-
def llama_vocab_is_eog(model: llama_model_p, token: Union[llama_token, int], /) -> bool:
2658+
def llama_vocab_is_eog(vocab: llama_vocab_p, token: Union[llama_token, int], /) -> bool:
26592659
"""Check if the token is supposed to end generation (end-of-generation, eg. EOS, EOT, etc.)"""
26602660
...
26612661

@@ -2666,7 +2666,7 @@ def llama_vocab_is_eog(model: llama_model_p, token: Union[llama_token, int], /)
26662666
"llama_vocab_is_control", [llama_vocab_p_ctypes, llama_token], ctypes.c_bool
26672667
)
26682668
def llama_vocab_is_control(
2669-
model: llama_model_p, token: Union[llama_token, int], /
2669+
vocab: llama_vocab_p, token: Union[llama_token, int], /
26702670
) -> bool:
26712671
"""Identify if Token Id is a control token or a render-able token"""
26722672
...
@@ -2677,91 +2677,91 @@ def llama_vocab_is_control(
26772677

26782678
# LLAMA_API llama_token llama_vocab_bos(const struct llama_vocab * vocab); // beginning-of-sentence
26792679
@ctypes_function("llama_vocab_bos", [llama_vocab_p_ctypes], llama_token)
2680-
def llama_vocab_bos(model: llama_model_p, /) -> int:
2680+
def llama_vocab_bos(vocab: llama_vocab_p, /) -> int:
26812681
"""beginning-of-sentence"""
26822682
...
26832683

26842684

26852685
# LLAMA_API llama_token llama_vocab_eos(const struct llama_vocab * vocab); // end-of-sentence
26862686
@ctypes_function("llama_vocab_eos", [llama_vocab_p_ctypes], llama_token)
2687-
def llama_vocab_eos(model: llama_model_p, /) -> int:
2687+
def llama_vocab_eos(vocab: llama_vocab_p, /) -> int:
26882688
"""end-of-sentence"""
26892689
...
26902690

26912691

26922692
# LLAMA_API llama_token llama_vocab_eot(const struct llama_vocab * vocab); // end-of-turn
26932693
@ctypes_function("llama_vocab_eot", [llama_vocab_p_ctypes], llama_token)
2694-
def llama_vocab_eot(model: llama_model_p, /) -> int:
2694+
def llama_vocab_eot(vocab: llama_vocab_p, /) -> int:
26952695
"""end-of-turn"""
26962696
...
26972697

26982698
# LLAMA_API llama_token llama_vocab_cls(const struct llama_vocab * vocab), // classification
26992699
# "use llama_vocab_bos instead");
27002700
@ctypes_function("llama_vocab_cls", [llama_vocab_p_ctypes], llama_token)
2701-
def llama_vocab_cls(model: llama_model_p, /) -> int:
2701+
def llama_vocab_cls(vocab: llama_vocab_p, /) -> int:
27022702
"""llama_vocab_cls"""
27032703
...
27042704

27052705

27062706
# LLAMA_API llama_token llama_vocab_sep(const struct llama_vocab * vocab); // sentence separator
27072707
@ctypes_function("llama_vocab_sep", [llama_vocab_p_ctypes], llama_token)
2708-
def llama_vocab_sep(model: llama_model_p, /) -> int:
2708+
def llama_vocab_sep(vocab: llama_vocab_p, /) -> int:
27092709
"""sentence separator"""
27102710
...
27112711

27122712

27132713
# LLAMA_API llama_token llama_vocab_nl (const struct llama_vocab * vocab); // next-line
27142714
@ctypes_function("llama_vocab_nl", [llama_vocab_p_ctypes], llama_token)
2715-
def llama_vocab_nl(model: llama_model_p, /) -> int:
2715+
def llama_vocab_nl(vocab: llama_vocab_p, /) -> int:
27162716
"""next-line"""
27172717
...
27182718

27192719
# LLAMA_API llama_token llama_vocab_pad(const struct llama_vocab * vocab); // padding
27202720
@ctypes_function("llama_vocab_pad", [llama_vocab_p_ctypes], llama_token)
2721-
def llama_vocab_pad(model: llama_model_p, /) -> int:
2721+
def llama_vocab_pad(vocab: llama_vocab_p, /) -> int:
27222722
"""padding"""
27232723
...
27242724

27252725

27262726
# LLAMA_API bool llama_vocab_get_add_bos(const struct llama_vocab * vocab);
27272727
@ctypes_function("llama_vocab_get_add_bos", [llama_vocab_p_ctypes], ctypes.c_bool)
2728-
def llama_vocab_get_add_bos(model: llama_model_p, /) -> bool:
2728+
def llama_vocab_get_add_bos(vocab: llama_vocab_p, /) -> bool:
27292729
...
27302730

27312731

27322732
# LLAMA_API bool llama_vocab_get_add_eos(const struct llama_vocab * vocab);
27332733
@ctypes_function("llama_vocab_get_add_eos", [llama_vocab_p_ctypes], ctypes.c_bool)
2734-
def llama_vocab_get_add_eos(model: llama_model_p, /) -> bool:
2734+
def llama_vocab_get_add_eos(vocab: llama_vocab_p, /) -> bool:
27352735
...
27362736

27372737
# LLAMA_API llama_token llama_vocab_fim_pre(const struct llama_vocab * vocab);
27382738
@ctypes_function("llama_vocab_fim_pre", [llama_vocab_p_ctypes], llama_token)
2739-
def llama_vocab_fim_pre(model: llama_model_p, /) -> int:
2739+
def llama_vocab_fim_pre(vocab: llama_vocab_p, /) -> int:
27402740
...
27412741

27422742
# LLAMA_API llama_token llama_vocab_fim_suf(const struct llama_vocab * vocab);
27432743
@ctypes_function("llama_vocab_fim_suf", [llama_vocab_p_ctypes], llama_token)
2744-
def llama_vocab_fim_suf(model: llama_model_p, /) -> int:
2744+
def llama_vocab_fim_suf(vocab: llama_vocab_p, /) -> int:
27452745
...
27462746

27472747
# LLAMA_API llama_token llama_vocab_fim_mid(const struct llama_vocab * vocab);
27482748
@ctypes_function("llama_vocab_fim_mid", [llama_vocab_p_ctypes], llama_token)
2749-
def llama_vocab_fim_mid(model: llama_model_p, /) -> int:
2749+
def llama_vocab_fim_mid(vocab: llama_vocab_p, /) -> int:
27502750
...
27512751

27522752
# LLAMA_API llama_token llama_vocab_fim_pad(const struct llama_vocab * vocab);
27532753
@ctypes_function("llama_vocab_fim_pad", [llama_vocab_p_ctypes], llama_token)
2754-
def llama_vocab_fim_pad(model: llama_model_p, /) -> int:
2754+
def llama_vocab_fim_pad(vocab: llama_vocab_p, /) -> int:
27552755
...
27562756

27572757
# LLAMA_API llama_token llama_vocab_fim_rep(const struct llama_vocab * vocab);
27582758
@ctypes_function("llama_vocab_fim_rep", [llama_vocab_p_ctypes], llama_token)
2759-
def llama_vocab_fim_rep(model: llama_model_p, /) -> int:
2759+
def llama_vocab_fim_rep(vocab: llama_vocab_p, /) -> int:
27602760
...
27612761

27622762
# LLAMA_API llama_token llama_vocab_fim_sep(const struct llama_vocab * vocab);
27632763
@ctypes_function("llama_vocab_fim_sep", [llama_vocab_p_ctypes], llama_token)
2764-
def llama_vocab_fim_sep(model: llama_model_p, /) -> int:
2764+
def llama_vocab_fim_sep(vocab: llama_vocab_p, /) -> int:
27652765
...
27662766

27672767

0 commit comments

Comments
 (0)