Duibonduil commited on
Commit
ec0367d
·
verified ·
1 Parent(s): 58d47d5

Upload agents.md

Browse files
Files changed (1) hide show
  1. docs/source/hi/agents.md +151 -0
docs/source/hi/agents.md ADDED
@@ -0,0 +1,151 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # Agents
2
+
3
+ <Tip warning={true}>
4
+
5
+ Smolagents एक experimental API है जो किसी भी समय बदल सकता है। एजेंट्स द्वारा लौटाए गए परिणाम भिन्न हो सकते हैं क्योंकि APIs या underlying मॉडल बदलने की संभावना रखते हैं।
6
+
7
+ </Tip>
8
+
9
+ Agents और tools के बारे में अधिक जानने के लिए [introductory guide](../index) पढ़ना सुनिश्चित करें।
10
+ यह पेज underlying क्लासेज के लिए API docs को शामिल करता है।
11
+
12
+ ## Agents
13
+
14
+ हमारे एजेंट्स [`MultiStepAgent`] से इनहेरिट करते हैं, जिसका अर्थ है कि वे कई चरणों में कार्य कर सकते हैं, प्रत्येक चरण में एक विचार, फिर एक टूल कॉल और एक्जीक्यूशन शामिल होता है। [इस कॉन्सेप्चुअल गाइड](../conceptual_guides/react) में अधिक पढ़ें।
15
+
16
+ हम मुख्य [`Agent`] क्लास पर आधारित दो प्रकार के एजेंट्स प्रदान करते हैं।
17
+ - [`CodeAgent`] डिफ़ॉल्ट एजेंट है, यह अपने टूल कॉल्स को Python कोड में लिखता है।
18
+ - [`ToolCallingAgent`] अपने टूल कॉल्स को JSON में लिखता है।
19
+
20
+ दोनों को इनिशियलाइजेशन पर `model` और टूल्स की सूची `tools` आर्गुमेंट्स की आवश्यकता होती है।
21
+
22
+ ### Agents की क्लासेज
23
+
24
+ [[autodoc]] MultiStepAgent
25
+
26
+ [[autodoc]] CodeAgent
27
+
28
+ [[autodoc]] ToolCallingAgent
29
+
30
+ ### ManagedAgent
31
+
32
+ _This class is deprecated since 1.8.0: now you just need to pass name and description attributes to an agent to directly use it as previously done with a ManagedAgent._
33
+
34
+ ### stream_to_gradio
35
+
36
+ [[autodoc]] stream_to_gradio
37
+
38
+ ### GradioUI
39
+
40
+ [[autodoc]] GradioUI
41
+
42
+ ## मॉडल्स
43
+
44
+ आप स्वतंत्र रूप से अपने स्वयं के मॉडल बना सकते हैं और उनका उपयोग कर सकते हैं।
45
+
46
+ आप अपने एजेंट के लिए कोई भी `model` कॉल करने योग्य उपयोग कर सकते हैं, जब तक कि:
47
+ 1. यह अपने इनपुट `messages` के लिए [messages format](./chat_templating) (`List[Dict[str, str]]`) का पालन करता है, और यह एक `str` लौटाता है।
48
+ 2. यह आर्गुमेंट `stop_sequences` में पास किए गए सीक्वेंस से *पहले* आउटपुट जनरेट करना बंद कर देता है।
49
+
50
+ अपने LLM को परिभाषित करने के लिए, आप एक `custom_model` मेथड बना सकते हैं जो [messages](./chat_templating) की एक सूची स्वीकार करता है और टेक्स्ट युक्त .content विशेषता वाला एक ऑब्जेक्ट लौटाता है। इस कॉलेबल को एक `stop_sequences` आर्गुमेंट भी स्वीकार करने की आवश्यकता होती है जो बताता है कि कब जनरेट करना और बंद करना है।
51
+
52
+ ```python
53
+ from huggingface_hub import login, InferenceClient
54
+
55
+ login("<YOUR_HUGGINGFACEHUB_API_TOKEN>")
56
+
57
+ model_id = "meta-llama/Llama-3.3-70B-Instruct"
58
+
59
+ client = InferenceClient(model=model_id)
60
+
61
+ def custom_model(messages, stop_sequences=["Task"]):
62
+ response = client.chat_completion(messages, stop=stop_sequences, max_tokens=1000)
63
+ answer = response.choices[0].message
64
+ return answer
65
+ ```
66
+
67
+ इसके अतिरिक्त, `custom_model` एक `grammar` आर्गुमेंट भी ले सकता है। जिस स्थिति में आप एजेंट इनिशियलाइजेशन पर एक `grammar` निर्दिष्ट करते हैं, यह आर्गुमेंट मॉडल के कॉल्स को आपके द्वारा इनिशियलाइजेशन पर परिभाषित `grammar` के साथ पास किया जाएगा, ताकि [constrained generation](https://huggingface.co/docs/text-generation-inference/conceptual/guidance) की अनुमति ���िल सके जिससे उचित-फॉर्मेटेड एजेंट आउटपुट को फोर्स किया जा सके।
68
+
69
+ ### TransformersModel
70
+
71
+ सुविधा के लिए, हमने एक `TransformersModel` जोड़ा है जो इनिशियलाइजेशन पर दिए गए model_id के लिए एक लोकल `transformers` पाइपलाइन बनाकर ऊपर के बिंदुओं को लागू करता है।
72
+
73
+ ```python
74
+ from smolagents import TransformersModel
75
+
76
+ model = TransformersModel(model_id="HuggingFaceTB/SmolLM-135M-Instruct")
77
+
78
+ print(model([{"role": "user", "content": "Ok!"}], stop_sequences=["great"]))
79
+ ```
80
+ ```text
81
+ >>> What a
82
+ ```
83
+
84
+ [[autodoc]] TransformersModel
85
+
86
+ ### InferenceClientModel
87
+
88
+ `InferenceClientModel` LLM के एक्जीक्यूशन के लिए [HF Inference API](https://huggingface.co/docs/api-inference/index) क्लाइंट को रैप करता है।
89
+
90
+ ```python
91
+ from smolagents import InferenceClientModel
92
+
93
+ messages = [
94
+ {"role": "user", "content": "Hello, how are you?"},
95
+ {"role": "assistant", "content": "I'm doing great. How can I help you today?"},
96
+ {"role": "user", "content": "No need to help, take it easy."},
97
+ ]
98
+
99
+ model = InferenceClientModel()
100
+ print(model(messages))
101
+ ```
102
+ ```text
103
+ >>> Of course! If you change your mind, feel free to reach out. Take care!
104
+ ```
105
+ [[autodoc]] InferenceClientModel
106
+
107
+ ### LiteLLMModel
108
+
109
+ `LiteLLMModel` विभिन्न प्रदाताओं से 100+ LLMs को सपोर्ट करने के लिए [LiteLLM](https://www.litellm.ai/) का लाभ उठाता है।
110
+ आप मॉडल इनिशियलाइजेशन पर kwargs पास कर सकते हैं जो तब मॉडल का उपयोग करते समय प्रयोग किए जाएंगे, उदाहरण के लिए नीचे हम `temperature` पास करते हैं।
111
+
112
+ ```python
113
+ from smolagents import LiteLLMModel
114
+
115
+ messages = [
116
+ {"role": "user", "content": "Hello, how are you?"},
117
+ {"role": "assistant", "content": "I'm doing great. How can I help you today?"},
118
+ {"role": "user", "content": "No need to help, take it easy."},
119
+ ]
120
+
121
+ model = LiteLLMModel(model_id="anthropic/claude-3-5-sonnet-latest", temperature=0.2, max_tokens=10)
122
+ print(model(messages))
123
+ ```
124
+
125
+ [[autodoc]] LiteLLMModel
126
+
127
+ ### OpenAiServerModel
128
+
129
+
130
+ यह क्लास आपको किसी भी OpenAIServer कम्पैटिबल मॉडल को कॉल करने देती है।
131
+ यहाँ बताया गया है कि आप इसे कैसे सेट कर सकते हैं (आप दूसरे सर्वर को पॉइंट करने के लिए `api_base` url को कस्टमाइज़ कर सकते हैं):
132
+ ```py
133
+ import os
134
+ from smolagents import OpenAIServerModel
135
+
136
+ model = OpenAIServerModel(
137
+ model_id="gpt-4o",
138
+ api_base="https://api.openai.com/v1",
139
+ api_key=os.environ["OPENAI_API_KEY"],
140
+ )
141
+ ```
142
+
143
+ ## Prompts
144
+
145
+ [[autodoc]] smolagents.agents.PromptTemplates
146
+
147
+ [[autodoc]] smolagents.agents.PlanningPromptTemplate
148
+
149
+ [[autodoc]] smolagents.agents.ManagedAgentPromptTemplate
150
+
151
+ [[autodoc]] smolagents.agents.FinalAnswerPromptTemplate