Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Microsoft Agent Framework supporta sia l'inferenza diretta del modello dagli endpoint del progetto Microsoft Foundry che dagli agenti gestiti dal servizio Foundry Agent.
Come iniziare
Aggiungere i pacchetti NuGet necessari al progetto.
dotnet add package Azure.Identity
dotnet add package Microsoft.Agents.AI.Foundry --prerelease
Due tipi di agente
L'integrazione di Microsoft Foundry espone due modelli di utilizzo distinti:
| Tipo | Tipo prodotto | Descrizione | Usare quando |
|---|---|---|---|
| Agente di Risposte | ChatClientAgent |
L'app fornisce a livello di codice un modello, istruzioni e strumenti in fase di esecuzione tramite AIProjectClient.AsAIAgent(...). Non viene creata alcuna risorsa agente sul lato server. |
Si è proprietari della definizione dell'agente e si vuole una configurazione semplice e flessibile. Questo è il modello usato nella maggior parte degli esempi. |
| Agente Foundry (con versione) | FoundryAgent |
Gestito dal server: le definizioni degli agenti vengono create e sottoposte a controllo delle versioni tramite il portale di Foundry o a livello di codice tramite AIProjectClient.AgentAdministrationClient. Passare un ProjectsAgentVersion o un ProjectsAgentRecord o un AgentReference a AIProjectClient.AsAIAgent(...). |
Sono necessarie definizioni dell'agente con controllo delle versioni rigorose gestite nel portale di Foundry tramite le API del servizio |
Agente di Risposte (inferenza diretta)
Usare direttamente AsAIAgent su AIProjectClient con un modello e delle istruzioni. Questo è il punto di partenza consigliato per la maggior parte degli scenari.
using Azure.AI.Projects;
using Azure.Identity;
using Microsoft.Agents.AI;
AIAgent agent = new AIProjectClient(
new Uri("<your-foundry-project-endpoint>"),
new DefaultAzureCredential())
.AsAIAgent(
model: "gpt-4o-mini",
name: "Joker",
instructions: "You are good at telling jokes.");
Console.WriteLine(await agent.RunAsync("Tell me a joke about a pirate."));
Avviso
DefaultAzureCredential è utile per lo sviluppo, ma richiede un'attenta considerazione nell'ambiente di produzione. Nell'ambiente di produzione prendere in considerazione l'uso di credenziali specifiche ,ad esempio ManagedIdentityCredential, per evitare problemi di latenza, probe di credenziali indesiderate e potenziali rischi per la sicurezza dai meccanismi di fallback.
Questo percorso è code-first e non crea una risorsa agente gestita dal server.
Agente Foundry (con versione)
Usare le API native AIProjectClient.AgentAdministrationClient di AI Projects SDK per recuperare le risorse dell'agente con versione e quindi eseguirne il wrapping con AsAIAgent. Gli agenti possono essere creati e configurati direttamente nel portale di Foundry o a livello di codice tramite AIProjectClient.AgentAdministrationClient.
using Azure.AI.Projects;
using Azure.AI.Projects.Agents;
using Azure.Identity;
using Microsoft.Agents.AI;
using Microsoft.Agents.AI.Foundry;
var aiProjectClient = new AIProjectClient(
new Uri("<your-foundry-project-endpoint>"),
new DefaultAzureCredential());
// Retrieve an existing agent by name (uses the latest version automatically)
ProjectsAgentRecord jokerRecord = await aiProjectClient.AgentAdministrationClient.GetAgentAsync("Joker");
FoundryAgent agent = aiProjectClient.AsAIAgent(jokerRecord);
Console.WriteLine(await agent.RunAsync("Tell me a joke about a pirate."));
Importante
Gli strumenti e le istruzioni degli agenti Foundry seguono rigorosamente quelli con cui sono stati creati; il tentativo di modificare gli strumenti o le istruzioni durante l'esecuzione non è supportato.
Uso dell'agente
Sia ChatClientAgent (risposte) che FoundryAgent (versionato) sono istanze standard di AIAgent e supportano tutte le operazioni standard, comprese sessioni, strumenti, middleware e streaming.
AgentSession session = await agent.CreateSessionAsync();
Console.WriteLine(await agent.RunAsync("Tell me a joke.", session));
Console.WriteLine(await agent.RunAsync("Now make it funnier.", session));
Per altre informazioni su come eseguire e interagire con gli agenti, vedere le esercitazioni introduttive su Agent.
Cassette degli attrezzi
Note
La documentazione di Foundry Toolbox .NET sarà presto disponibile.
Fonderia in Python
In Python tutti i client specifici di Foundry ora si trovano in agent_framework.foundry.
-
agent-framework-foundryfornisce i connettori cloud Foundry:FoundryChatClient,FoundryAgent,FoundryEmbeddingClienteFoundryMemoryProvider. -
agent-framework-foundry-localfornisceFoundryLocalClientper l'esecuzione del modello locale.
Importante
Questa pagina descrive i client Python attualmente disponibili per gli endpoint del progetto Microsoft Foundry, gli endpoint dei modelli e il servizio agente Foundry. Se si dispone di un endpoint di risorsa OpenAI autonomo Azure (https://<your-resource>.openai.azure.com), usare le linee guida Python nella pagina del provider OpenAI. Per eseguire modelli supportati in locale, vedere la Pagina del Provider Locale di Foundry.
Modelli di chat e agenti di fonderia in Python
| Scenario | Python forma | Usare quando |
|---|---|---|
| Semplice inferenza con l'endpoint delle risposte Foundry | Agent(client=FoundryChatClient(...)) |
L'app è proprietaria della definizione dell'agente, degli strumenti e del ciclo di conversazione e si vuole distribuire un modello in un progetto Foundry. |
| Agenti gestiti dal servizio Foundry Agent | FoundryAgent(...) |
Si vuole connettersi a un PromptAgent o HostedAgent creato e configurato nel portale foundry o tramite le API del servizio. |
Installazione
pip install agent-framework-foundry
pip install azure-identity
Lo stesso agent-framework-foundry pacchetto include anche gli incorporamenti degli endpoint dei modelli Foundry.
Configurazione
FoundryChatClient
FOUNDRY_PROJECT_ENDPOINT="https://<your-project>.services.ai.azure.com"
FOUNDRY_MODEL="gpt-4o-mini"
FoundryAgent
FOUNDRY_PROJECT_ENDPOINT="https://<your-project>.services.ai.azure.com"
FOUNDRY_AGENT_NAME="my-agent"
FOUNDRY_AGENT_VERSION="1.0"
Usare FOUNDRY_AGENT_VERSION per gli agenti di prompt. Gli agenti ospitati possono ometterlo.
FoundryEmbeddingClient
FOUNDRY_MODELS_ENDPOINT="https://<apim-instance>.azure-api.net/<foundry-instance>/models"
FOUNDRY_MODELS_API_KEY="<api-key>"
FOUNDRY_EMBEDDING_MODEL="text-embedding-3-small"
FOUNDRY_IMAGE_EMBEDDING_MODEL="Cohere-embed-v3-english" # optional
FoundryChatClient e FoundryAgent utilizzano l'endpoint del progetto.
FoundryEmbeddingClient usa l'endpoint dei modelli separati.
Scegliere il client di Python corretto
| Scenario | Client preferito | Note |
|---|---|---|
| Azure risorsa OpenAI | OpenAIChatCompletionClient / OpenAIChatClient |
Utilizzare la pagina del provider OpenAI. |
| inferenza del progetto Foundry Microsoft | Agent(client=FoundryChatClient(...)) |
Usa l'endpoint Foundry Responses. |
| Agente gestito dal servizio Microsoft Foundry | FoundryAgent |
Consigliato per gli agenti prompt e gli agenti ospitati. |
| Embedding degli endpoint dei modelli di Microsoft Foundry | FoundryEmbeddingClient |
Usa FOUNDRY_MODELS_ENDPOINT più FOUNDRY_EMBEDDING_MODEL / FOUNDRY_IMAGE_EMBEDDING_MODEL. |
| Runtime locale di Foundry | Agent(client=FoundryLocalClient(...)) |
Vedere Foundry Local. |
Creare un agente con FoundryChatClient
FoundryChatClient si connette a un modello distribuito in un progetto Foundry e usa l'endpoint Risposte. Associarlo a uno standard Agent quando l'app deve possedere istruzioni, strumenti e gestione delle sessioni.
from agent_framework import Agent
from agent_framework.foundry import FoundryChatClient
from azure.identity import AzureCliCredential
agent = Agent(
client=FoundryChatClient(
project_endpoint="https://your-project.services.ai.azure.com",
model="gpt-4o-mini",
credential=AzureCliCredential(),
),
name="FoundryWeatherAgent",
instructions="You are a helpful assistant.",
)
FoundryChatClient è il percorso di Python Foundry-first per l'inferenza diretta e supporta strumenti, output strutturati e streaming.
Creare incorporamenti con FoundryEmbeddingClient
Usare FoundryEmbeddingClient quando si vogliono incorporare testo o immagini da un endpoint dei modelli Foundry.
from agent_framework.foundry import FoundryEmbeddingClient
async with FoundryEmbeddingClient() as client:
result = await client.get_embeddings(["hello from Agent Framework"])
print(result[0].dimensions)
connettersi all'agente gestito dal servizio con FoundryAgent
Usare FoundryAgent quando la definizione dell'agente risiede in Foundry. Si tratta dell'API consigliata di Python per gli agenti prompt e gli HostedAgents.
from agent_framework.foundry import FoundryAgent
from azure.identity import AzureCliCredential
agent = FoundryAgent(
project_endpoint="https://your-project.services.ai.azure.com",
agent_name="my-prompt-agent",
agent_version="1.0",
credential=AzureCliCredential(),
)
Per HostedAgent, omettere agent_version e usare invece il nome dell'agente ospitato.
Connessione a un agente Foundry distribuito
Per HostedAgents che eseguono sessioni sul lato servizio (/agents/{name}/sessions), usare FoundryAgent con allow_preview=True per abilitare l'area di visualizzazione delle risposte in anteprima e passare version="v2":
from agent_framework.foundry import FoundryAgent
from azure.identity import AzureCliCredential
agent = FoundryAgent(
agent_name="my-hosted-agent",
credential=AzureCliCredential(),
allow_preview=True,
version="v2",
)
Quando è necessario gestire manualmente la sessione del servizio sottostante, ad esempio per associare una sessione a un tenant o a un utente specifico, creare la sessione tramite l'API di anteprima AIProjectClient ed eseguire il wrapping con agent.get_session(...):
from azure.ai.projects.aio import AIProjectClient
from azure.ai.projects.models import VersionRefIndicator
service_session = await project_client.beta.agents.create_session(
agent_name="my-hosted-agent",
isolation_key="user-123",
version_indicator=VersionRefIndicator(agent_version="1.0"),
)
session = agent.get_session(service_session.agent_session_id)
response = await agent.run("Hello!", session=session)
Tip
Vedere l'esempiousing_deployed_agent.py per un esempio completo, inclusa la risoluzione automatica della versione più recente.
Avviso
Le precedenti superfici di compatibilità di incorporamento per Python AzureAIClient, AzureAIProjectAgentProvider, AzureAIAgentClient, AzureAIAgentsProvider e Azure AI sono state rimosse dallo spazio dei nomi corrente agent_framework.azure. Per il codice Python corrente, usa FoundryChatClient quando l'app possiede istruzioni e strumenti, FoundryAgent quando la definizione dell'agente si trova in Foundry e FoundryEmbeddingClient per gli incorporamenti degli endpoint dei modelli Foundry.
Uso dell'agente
Sia FoundryChatClient che FoundryAgent si integrano con l'esperienza standard Python Agent, incluse le chiamate degli strumenti, le sessioni e le risposte di streaming. Per i runtime locali, utilizzare la pagina separata del provider locale Foundry.
Cassette degli attrezzi
Importante
Le API della casella degli strumenti sono sperimentali. La superficie può cambiare nelle versioni future.
Una casella degli strumenti Foundry è un pacchetto lato server, con nome e versione, di configurazioni di strumenti ospitati (interprete di codice, ricerca file, generazione immagini, MCP, ricerca web) configurato in un progetto Microsoft Foundry. Le caselle degli strumenti consentono di gestire la configurazione degli strumenti una sola volta nel portale foundry e di riutilizzarla tra gli agenti.
Agent Framework copre solo il consumo: la creazione e l'aggiornamento delle versioni della toolbox vengono eseguite tramite il portale Foundry o l'SDK non elaborato azure-ai-projects (azure-ai-projects>=2.1.0).
FoundryAgent vs FoundryChatClient
| Tipo di agente | Comportamento della casella degli strumenti |
|---|---|
| FoundryAgent (ospitato) | L'allegato della casella degli strumenti avviene sul lato server. Non è necessario il collegamento lato client. |
| FoundryChatClient (inferenza diretta) | Recupera la casella degli strumenti con get_toolbox() e passarla come tools=. |
Due modelli di consumo
| Pattern | Descrizione |
|---|---|
| Nativo (strumenti ospitati) | Le configurazioni degli strumenti vengono eseguite nel Runtime di Foundry. Passare la casella degli strumenti direttamente come tools=. |
| MCP | Usare MCPStreamableHTTPTool sull'endpoint MCP della casella degli strumenti. Funziona con qualsiasi client di chat, non solo FoundryChatClient. |
Prendere una cassetta degli attrezzi
Utilizzare FoundryChatClient.get_toolbox() per recuperare una cassetta degli attrezzi:
from agent_framework import Agent
from agent_framework.foundry import FoundryChatClient
from azure.identity.aio import AzureCliCredential
async with AzureCliCredential() as credential:
client = FoundryChatClient(credential=credential)
toolbox = await client.get_toolbox("research_toolbox")
async with Agent(client=client, name="ResearchAgent", tools=toolbox) as agent:
result = await agent.run("Summarize recent findings.")
print(result.text)
Quando version viene omesso, get_toolbox risolve la versione predefinita in due richieste. Aggiungere una versione specifica per evitare il round trip aggiuntivo:
toolbox = await client.get_toolbox("research_toolbox", version="v3")
Note
Ogni get_toolbox() chiamata raggiunge la rete: non esiste alcuna cache sul lato framework, perché le versioni predefinite possono modificare il lato server. La memorizzazione nella cache è di proprietà del chiamante.
Appiattimento implicito
Non è necessario scrivere toolbox.tools. Il framework normalize_tools riconosce ToolboxVersionObject e si appiattisce automaticamente. Tutte queste operazioni:
# Single toolbox
agent = Agent(client=client, tools=toolbox)
# Toolbox in a list
agent = Agent(client=client, tools=[toolbox])
# Mix local function tools with a toolbox
agent = Agent(client=client, tools=[get_internal_metrics, toolbox])
# Combine multiple toolboxes
agent = Agent(client=client, tools=[toolbox_a, toolbox_b])
Strumenti di filtro con select_toolbox_tools
Se la casella degli strumenti aggrega diversi strumenti, ma un agente richiede solo un subset, usare select_toolbox_tools per restringere il set dopo il recupero. In questo modo si evita di inviare definizioni di strumenti non necessarie al modello, riducendo l'utilizzo dei token e impedendo al modello di richiamare gli strumenti che non si intende esporre:
from agent_framework.foundry import select_toolbox_tools, get_toolbox_tool_name
# Filter by tool name
tools = select_toolbox_tools(toolbox, include_names=["web_search", "code_interpreter"])
# Filter by tool type
tools = select_toolbox_tools(toolbox, include_types=["mcp", "web_search"])
# Filter with a custom predicate
tools = select_toolbox_tools(toolbox, predicate=lambda t: "search" in (get_toolbox_tool_name(t) or ""))
Le funzioni di supporto get_toolbox_tool_name(tool) e get_toolbox_tool_type(tool) restituiscono rispettivamente il nome della selezione e il tipo grezzo di una voce dello strumento.
FoundryHostedToolType è un TypeAlias (Literal["code_interpreter", "file_search", "image_generation", "mcp", "web_search"] | str) per il completamento guidato dall'IDE su include_types / exclude_types.
Percorso di utilizzo MCP
È anche possibile utilizzare una casella degli strumenti come server MCP puntando MCPStreamableHTTPTool all'URL dell'endpoint MCP della casella degli strumenti.
L'URL dell'endpoint MCP viene visualizzato nel portale di Foundry o segue il formato:
https://<account>.services.ai.azure.com/api/projects/<project>/toolsets/<name>/mcp?api-version=v1
Poiché il client si connette direttamente all'endpoint del Foundry toolbox, è necessario eseguire l'autenticazione con un token portatore dell'ID Entra tramite header_provider:
from azure.identity.aio import DefaultAzureCredential
from azure.identity.aio import get_bearer_token_provider
from agent_framework import Agent, MCPStreamableHTTPTool
credential = DefaultAzureCredential()
token_provider = get_bearer_token_provider(credential, "https://ai.azure.com/.default")
mcp_tool = MCPStreamableHTTPTool(
name="research_mcp",
url="https://<your-toolbox-mcp-endpoint>",
header_provider=lambda: {"Authorization": f"Bearer {token_provider()}"},
)
async with Agent(client=client, name="MCPAgent", tools=[mcp_tool]) as agent:
result = await agent.run("Search for recent papers on LLM agents.")
print(result.text)
Limitazioni
- Gli strumenti MCP all'interno di una casella degli strumenti usano l'autenticazione lato server. L'autenticazione al server MCP upstream viene gestita tramite
project_connection_id(una connessione OAuth configurata nel progetto Foundry). Il client non contiene mai token di accesso per il server upstream. - L'utilizzo di una casella degli strumenti come server MCP richiede l'autenticazione lato client. Quando si punta
MCPStreamableHTTPToolall'endpoint MCP di una casella degli strumenti, è necessario specificare un bearer token dell'ID Entra (ad esempio, tramiteget_bearer_token_provider(credential, "https://ai.azure.com/.default")) attraversoheader_provider. - La gestione del flusso di consenso è un problema di runtime. Se uno strumento MCP della casella degli strumenti viene attivato
CONSENT_REQUIREDduranteagent.run(), viene gestito in fase di esecuzione, non durante il recupero della casella degli strumenti.
Esempi
| Sample | Descrizione |
|---|---|
| foundry_chat_client_with_toolbox.py | Recupero della toolbox di base, blocco della versione, combinazione delle toolbox e filtraggio |
| foundry_chat_client_with_toolbox_mcp.py | Percorso di utilizzo MCP con MCPStreamableHTTPTool |
| foundry_toolbox_context_provider.py | Selezione dinamica degli strumenti per turno tramite un provider di contesto |