2
2
AzureOpenAiApiVersionsList ,
3
3
EnginesConfiguration ,
4
4
LLMProvider ,
5
+ OllamaEmModelsList ,
6
+ OllamaLlmModelsList ,
5
7
OpenAIEmbeddingModel ,
6
8
OpenAIModelsList
7
9
} from '../../../shared/model/ai-settings' ;
@@ -57,6 +59,16 @@ const EnginesConfigurations_Llm: EnginesConfiguration[] = [
57
59
{ key : 'temperature' , label : 'Temperature' , type : 'number' , inputScale : 'fullwidth' } ,
58
60
{ key : 'prompt' , label : 'Prompt' , type : 'prompt' , inputScale : 'fullwidth' , defaultValue : DefaultPrompt }
59
61
]
62
+ } ,
63
+ {
64
+ label : 'Ollama' ,
65
+ key : LLMProvider . Ollama ,
66
+ params : [
67
+ { key : 'baseUrl' , label : 'BaseUrl' , type : 'text' , defaultValue : 'http://localhost:11434' } ,
68
+ { key : 'model' , label : 'Model' , type : 'openlist' , source : OllamaLlmModelsList , defaultValue : 'llama2' } ,
69
+ { key : 'temperature' , label : 'Temperature' , type : 'number' , inputScale : 'fullwidth' , defaultValue : 0.7 } ,
70
+ { key : 'prompt' , label : 'Prompt' , type : 'prompt' , inputScale : 'fullwidth' , defaultValue : DefaultPrompt }
71
+ ]
60
72
}
61
73
] ;
62
74
@@ -78,6 +90,14 @@ const EnginesConfigurations_Embedding: EnginesConfiguration[] = [
78
90
{ key : 'deploymentName' , label : 'Deployment name' , type : 'text' } ,
79
91
{ key : 'apiBase' , label : 'Private endpoint base url' , type : 'obfuscated' }
80
92
]
93
+ } ,
94
+ {
95
+ label : 'Ollama' ,
96
+ key : LLMProvider . Ollama ,
97
+ params : [
98
+ { key : 'baseUrl' , label : 'BaseUrl' , type : 'text' , defaultValue : 'http://localhost:11434' } ,
99
+ { key : 'model' , label : 'Model' , type : 'openlist' , source : OllamaEmModelsList , defaultValue : 'all-minilm' }
100
+ ]
81
101
}
82
102
] ;
83
103
0 commit comments