@@ -2625,7 +2625,7 @@ def llama_get_embeddings_seq(
2625
2625
"llama_vocab_get_text" , [llama_vocab_p_ctypes , llama_token ], ctypes .c_char_p
2626
2626
)
2627
2627
def llama_vocab_get_text (
2628
- model : llama_model_p , token : Union [llama_token , int ], /
2628
+ vocab : llama_vocab_p , token : Union [llama_token , int ], /
2629
2629
) -> bytes :
2630
2630
...
2631
2631
@@ -2635,7 +2635,7 @@ def llama_vocab_get_text(
2635
2635
"llama_vocab_get_score" , [llama_vocab_p_ctypes , llama_token ], ctypes .c_float
2636
2636
)
2637
2637
def llama_vocab_get_score (
2638
- model : llama_model_p , token : Union [llama_token , int ], /
2638
+ vocab : llama_vocab_p , token : Union [llama_token , int ], /
2639
2639
) -> float :
2640
2640
...
2641
2641
@@ -2645,7 +2645,7 @@ def llama_vocab_get_score(
2645
2645
"llama_vocab_get_attr" , [llama_vocab_p_ctypes , llama_token ], ctypes .c_int
2646
2646
)
2647
2647
def llama_vocab_get_attr (
2648
- model : llama_model_p , token : Union [llama_token , int ], /
2648
+ vocab : llama_vocab_p , token : Union [llama_token , int ], /
2649
2649
) -> int :
2650
2650
...
2651
2651
@@ -2655,7 +2655,7 @@ def llama_vocab_get_attr(
2655
2655
@ctypes_function (
2656
2656
"llama_vocab_is_eog" , [llama_vocab_p_ctypes , llama_token ], ctypes .c_bool
2657
2657
)
2658
- def llama_vocab_is_eog (model : llama_model_p , token : Union [llama_token , int ], / ) -> bool :
2658
+ def llama_vocab_is_eog (vocab : llama_vocab_p , token : Union [llama_token , int ], / ) -> bool :
2659
2659
"""Check if the token is supposed to end generation (end-of-generation, eg. EOS, EOT, etc.)"""
2660
2660
...
2661
2661
@@ -2666,7 +2666,7 @@ def llama_vocab_is_eog(model: llama_model_p, token: Union[llama_token, int], /)
2666
2666
"llama_vocab_is_control" , [llama_vocab_p_ctypes , llama_token ], ctypes .c_bool
2667
2667
)
2668
2668
def llama_vocab_is_control (
2669
- model : llama_model_p , token : Union [llama_token , int ], /
2669
+ vocab : llama_vocab_p , token : Union [llama_token , int ], /
2670
2670
) -> bool :
2671
2671
"""Identify if Token Id is a control token or a render-able token"""
2672
2672
...
@@ -2677,91 +2677,91 @@ def llama_vocab_is_control(
2677
2677
2678
2678
# LLAMA_API llama_token llama_vocab_bos(const struct llama_vocab * vocab); // beginning-of-sentence
2679
2679
@ctypes_function ("llama_vocab_bos" , [llama_vocab_p_ctypes ], llama_token )
2680
- def llama_vocab_bos (model : llama_model_p , / ) -> int :
2680
+ def llama_vocab_bos (vocab : llama_vocab_p , / ) -> int :
2681
2681
"""beginning-of-sentence"""
2682
2682
...
2683
2683
2684
2684
2685
2685
# LLAMA_API llama_token llama_vocab_eos(const struct llama_vocab * vocab); // end-of-sentence
2686
2686
@ctypes_function ("llama_vocab_eos" , [llama_vocab_p_ctypes ], llama_token )
2687
- def llama_vocab_eos (model : llama_model_p , / ) -> int :
2687
+ def llama_vocab_eos (vocab : llama_vocab_p , / ) -> int :
2688
2688
"""end-of-sentence"""
2689
2689
...
2690
2690
2691
2691
2692
2692
# LLAMA_API llama_token llama_vocab_eot(const struct llama_vocab * vocab); // end-of-turn
2693
2693
@ctypes_function ("llama_vocab_eot" , [llama_vocab_p_ctypes ], llama_token )
2694
- def llama_vocab_eot (model : llama_model_p , / ) -> int :
2694
+ def llama_vocab_eot (vocab : llama_vocab_p , / ) -> int :
2695
2695
"""end-of-turn"""
2696
2696
...
2697
2697
2698
2698
# LLAMA_API llama_token llama_vocab_cls(const struct llama_vocab * vocab), // classification
2699
2699
# "use llama_vocab_bos instead");
2700
2700
@ctypes_function ("llama_vocab_cls" , [llama_vocab_p_ctypes ], llama_token )
2701
- def llama_vocab_cls (model : llama_model_p , / ) -> int :
2701
+ def llama_vocab_cls (vocab : llama_vocab_p , / ) -> int :
2702
2702
"""llama_vocab_cls"""
2703
2703
...
2704
2704
2705
2705
2706
2706
# LLAMA_API llama_token llama_vocab_sep(const struct llama_vocab * vocab); // sentence separator
2707
2707
@ctypes_function ("llama_vocab_sep" , [llama_vocab_p_ctypes ], llama_token )
2708
- def llama_vocab_sep (model : llama_model_p , / ) -> int :
2708
+ def llama_vocab_sep (vocab : llama_vocab_p , / ) -> int :
2709
2709
"""sentence separator"""
2710
2710
...
2711
2711
2712
2712
2713
2713
# LLAMA_API llama_token llama_vocab_nl (const struct llama_vocab * vocab); // next-line
2714
2714
@ctypes_function ("llama_vocab_nl" , [llama_vocab_p_ctypes ], llama_token )
2715
- def llama_vocab_nl (model : llama_model_p , / ) -> int :
2715
+ def llama_vocab_nl (vocab : llama_vocab_p , / ) -> int :
2716
2716
"""next-line"""
2717
2717
...
2718
2718
2719
2719
# LLAMA_API llama_token llama_vocab_pad(const struct llama_vocab * vocab); // padding
2720
2720
@ctypes_function ("llama_vocab_pad" , [llama_vocab_p_ctypes ], llama_token )
2721
- def llama_vocab_pad (model : llama_model_p , / ) -> int :
2721
+ def llama_vocab_pad (vocab : llama_vocab_p , / ) -> int :
2722
2722
"""padding"""
2723
2723
...
2724
2724
2725
2725
2726
2726
# LLAMA_API bool llama_vocab_get_add_bos(const struct llama_vocab * vocab);
2727
2727
@ctypes_function ("llama_vocab_get_add_bos" , [llama_vocab_p_ctypes ], ctypes .c_bool )
2728
- def llama_vocab_get_add_bos (model : llama_model_p , / ) -> bool :
2728
+ def llama_vocab_get_add_bos (vocab : llama_vocab_p , / ) -> bool :
2729
2729
...
2730
2730
2731
2731
2732
2732
# LLAMA_API bool llama_vocab_get_add_eos(const struct llama_vocab * vocab);
2733
2733
@ctypes_function ("llama_vocab_get_add_eos" , [llama_vocab_p_ctypes ], ctypes .c_bool )
2734
- def llama_vocab_get_add_eos (model : llama_model_p , / ) -> bool :
2734
+ def llama_vocab_get_add_eos (vocab : llama_vocab_p , / ) -> bool :
2735
2735
...
2736
2736
2737
2737
# LLAMA_API llama_token llama_vocab_fim_pre(const struct llama_vocab * vocab);
2738
2738
@ctypes_function ("llama_vocab_fim_pre" , [llama_vocab_p_ctypes ], llama_token )
2739
- def llama_vocab_fim_pre (model : llama_model_p , / ) -> int :
2739
+ def llama_vocab_fim_pre (vocab : llama_vocab_p , / ) -> int :
2740
2740
...
2741
2741
2742
2742
# LLAMA_API llama_token llama_vocab_fim_suf(const struct llama_vocab * vocab);
2743
2743
@ctypes_function ("llama_vocab_fim_suf" , [llama_vocab_p_ctypes ], llama_token )
2744
- def llama_vocab_fim_suf (model : llama_model_p , / ) -> int :
2744
+ def llama_vocab_fim_suf (vocab : llama_vocab_p , / ) -> int :
2745
2745
...
2746
2746
2747
2747
# LLAMA_API llama_token llama_vocab_fim_mid(const struct llama_vocab * vocab);
2748
2748
@ctypes_function ("llama_vocab_fim_mid" , [llama_vocab_p_ctypes ], llama_token )
2749
- def llama_vocab_fim_mid (model : llama_model_p , / ) -> int :
2749
+ def llama_vocab_fim_mid (vocab : llama_vocab_p , / ) -> int :
2750
2750
...
2751
2751
2752
2752
# LLAMA_API llama_token llama_vocab_fim_pad(const struct llama_vocab * vocab);
2753
2753
@ctypes_function ("llama_vocab_fim_pad" , [llama_vocab_p_ctypes ], llama_token )
2754
- def llama_vocab_fim_pad (model : llama_model_p , / ) -> int :
2754
+ def llama_vocab_fim_pad (vocab : llama_vocab_p , / ) -> int :
2755
2755
...
2756
2756
2757
2757
# LLAMA_API llama_token llama_vocab_fim_rep(const struct llama_vocab * vocab);
2758
2758
@ctypes_function ("llama_vocab_fim_rep" , [llama_vocab_p_ctypes ], llama_token )
2759
- def llama_vocab_fim_rep (model : llama_model_p , / ) -> int :
2759
+ def llama_vocab_fim_rep (vocab : llama_vocab_p , / ) -> int :
2760
2760
...
2761
2761
2762
2762
# LLAMA_API llama_token llama_vocab_fim_sep(const struct llama_vocab * vocab);
2763
2763
@ctypes_function ("llama_vocab_fim_sep" , [llama_vocab_p_ctypes ], llama_token )
2764
- def llama_vocab_fim_sep (model : llama_model_p , / ) -> int :
2764
+ def llama_vocab_fim_sep (vocab : llama_vocab_p , / ) -> int :
2765
2765
...
2766
2766
2767
2767
0 commit comments