@azure/search-documents package

Classes

AzureKeyCredential

Uma credencial baseada em chave estática que dá suporte à atualização do valor da chave subjacente.

GeographyPoint

Representa um ponto geográfico em coordenadas globais.

IndexDocumentsBatch

Classe usada para executar operações em lote com vários documentos para o índice.

KnowledgeRetrievalClient

Classe usada para realizar operações contra uma base de conhecimento.

SearchClient

Classe usada para executar operações em um índice de pesquisa, incluindo consultar documentos no índice, bem como adicioná-los, atualizá-los e removê-los.

SearchIndexClient

Classe para executar operações para gerenciar índices (criar, atualizar, listar/excluir), & sinônimos.

SearchIndexerClient

Classe para executar operações para gerenciar (criar, atualizar, listar/excluir) indexadores, fontes de dados & conjuntos de habilidades.

SearchIndexingBufferedSender

Classe usada para executar operações em buffer em um índice de pesquisa, incluindo adição, atualização e remoção delas.

Interfaces

AIServices

Parâmetros para Serviços de IA.

AIServicesAccountIdentity

A conta multi-região de um recurso de serviço de IA do Azure que está vinculado a um conjunto de habilidades.

AIServicesAccountKey

A chave de conta de um recurso de serviço de IA do Azure que está vinculado a um conjunto de habilidades, para ser usado com o subdomínio do recurso.

AnalyzeRequest

Especifica alguns componentes de texto e análise usados para dividir esse texto em tokens.

AnalyzeResult

O resultado do teste de um analisador no texto.

AnalyzedTokenInfo

Informações sobre um token retornado por um analisador.

AsciiFoldingTokenFilter

Converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 caracteres ASCII (o bloco Unicode "Latino Básico") em seus equivalentes ASCII, se esses equivalentes existirem. Esse filtro de token é implementado usando o Apache Lucene.

AutocompleteItem

O resultado das solicitações de preenchimento automático.

AutocompleteRequest

Parâmetros para correspondência difusa e outros comportamentos de consulta de preenchimento automático.

AutocompleteResult

O resultado da consulta de preenchimento automático.

AzureActiveDirectoryApplicationCredentials

Credenciais de um aplicativo registrado criado para seu serviço de pesquisa, usado para acesso autenticado às chaves de criptografia armazenadas no Azure Key Vault.

AzureBlobKnowledgeSource

Configuração para a fonte de conhecimento do Armazenamento de Blobs do Azure.

AzureBlobKnowledgeSourceParameters

Parâmetros para a fonte de conhecimento do Armazenamento de Blobs do Azure.

AzureBlobKnowledgeSourceParams

Especifica parâmetros de runtime para uma fonte de conhecimento de blob do Azure

AzureMachineLearningVectorizer

Especifica um endpoint de Azure Machine Learning implantado via o Fábrica de IA do Azure Model Catalog para gerar a incorporação vetorial de uma string de consulta.

AzureOpenAIEmbeddingSkill

Permite que você gere uma inserção de vetor para uma determinada entrada de texto usando o recurso Azure OpenAI.

AzureOpenAIParameters

Especifica os parâmetros para se conectar ao recurso do Azure OpenAI.

AzureOpenAIVectorizer

Contém os parâmetros específicos para usar um serviço de IA Aberta do Azure para vetorização no momento da consulta.

BM25Similarity

Função de classificação com base no algoritmo de similaridade Okapi BM25. BM25 é um algoritmo do tipo TF-IDF que inclui normalização de comprimento (controlada pelo parâmetro 'b'), bem como saturação de frequência de termo (controlada pelo parâmetro 'k1').

BaseAzureMachineLearningVectorizerParameters

Especifica as propriedades comuns entre todos os tipos de autenticação de vetorizador AML.

BaseCharFilter

Tipo base para filtros de caractere.

BaseCognitiveServicesAccount

Tipo base para descrever qualquer recurso de serviço de IA do Azure anexado a um conjunto de habilidades.

BaseDataChangeDetectionPolicy

Tipo base para políticas de detecção de alterações de dados.

BaseDataDeletionDetectionPolicy

Tipo base para políticas de detecção de exclusão de dados.

BaseKnowledgeBaseActivityRecord

Tipo base para registros de atividade. Acompanha detalhes de execução, timing e erros para operações de base de conhecimento.

BaseKnowledgeBaseMessageContent

Especifica o tipo de conteúdo da mensagem.

BaseKnowledgeBaseModel

Especifica os parâmetros de conexão para o modelo a ser usado para o planejamento de consultas.

BaseKnowledgeBaseReference

Tipo de base para referências.

BaseKnowledgeRetrievalReasoningEffort

Tipo base para esforço de raciocínio.

BaseKnowledgeSource

Representa uma definição de fonte de conhecimento.

BaseKnowledgeSourceParams

Tipo base para parâmetros de runtime da fonte de conhecimento.

BaseKnowledgeSourceVectorizer

Especifica o método de vetorização a ser usado para o modelo de imersão de fonte de conhecimento.

BaseLexicalAnalyzer

Tipo base para analisadores.

BaseLexicalNormalizer

Tipo base para normalizadores.

BaseLexicalTokenizer

Tipo base para tokenizadores.

BaseScoringFunction

Tipo base para funções que podem modificar as pontuações do documento durante a classificação.

BaseSearchIndexerDataIdentity

Tipo base abstrato para identidades de dados.

BaseSearchIndexerSkill

Tipo base para habilidades.

BaseSearchRequestOptions

Parâmetros para filtragem, classificação, faceta, paginação e outros comportamentos de consulta de pesquisa.

BaseSimilarityAlgorithm

Tipo base para algoritmos de similaridade. Algoritmos de similaridade são usados para calcular pontuações que vinculam consultas a documentos. Quanto maior a pontuação, mais relevante é o documento para essa consulta específica. Essas pontuações são usadas para classificar os resultados da pesquisa.

BaseTokenFilter

Tipo base para filtros de token.

BaseVectorQuery

Os parâmetros de consulta para consultas de pesquisa vetor e híbrida.

BaseVectorSearchAlgorithmConfiguration

Contém opções de configuração específicas para o algoritmo usado durante a indexação e/ou consulta.

BaseVectorSearchCompression

Contém opções de configuração específicas para o método de compactação usado durante a indexação ou consulta.

BaseVectorSearchVectorizer

Contém detalhes específicos para um método de vetorização a ser usado durante o tempo de consulta.

BinaryQuantizationCompression

Contém opções de configuração específicas para o método de compactação de quantização binária usado durante a indexação e a consulta.

ChatCompletionResponseFormat

Determina como a resposta do modelo de linguagem deve ser serializada. O padrão é 'text'.

ChatCompletionResponseFormatJsonSchemaProperties

Propriedades para o formato de resposta de esquema JSON.

ChatCompletionSchema

Objeto que define o esquema personalizado que o modelo usará para estruturar sua saída.

ChatCompletionSkill

Uma habilidade que chama um modelo de linguagem via o endpoint Chat Completions do Fábrica de IA do Azure.

CjkBigramTokenFilter

Forma bigrams de termos CJK gerados a partir do tokenizador padrão. Esse filtro de token é implementado usando o Apache Lucene.

ClassicSimilarity

Algoritmo de similaridade herdado que usa a implementação lucene TFIDFSimilarity do TF-IDF. Essa variação de TF-IDF introduz a normalização do comprimento do documento estático, bem como fatores de coordenação que penalizam documentos que correspondem apenas parcialmente às consultas pesquisadas.

ClassicTokenizer

Tokenizador baseado em gramática adequado para processar a maioria dos documentos em idioma europeu. Esse tokenizador é implementado usando o Apache Lucene.

CognitiveServicesAccountKey

A chave da conta de várias regiões de um recurso de serviço de IA do Azure anexado a um conjunto de habilidades.

CommonGramTokenFilter

Construa bigrams para termos frequentes durante a indexação. Termos únicos ainda são indexados também, com bigrams sobrepostos. Esse filtro de token é implementado usando o Apache Lucene.

CommonModelParameters

Parâmetros de modelo de linguagem comum para conclusões de chat. Se omitido, os valores padrão serão usados.

CompletedSynchronizationState

Representa o estado concluído da última sincronização.

ComplexField

Representa um campo em uma definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo.

ConditionalSkill

Uma habilidade que permite cenários que exigem uma operação booliana para determinar os dados a serem atribuídos a uma saída.

ContentUnderstandingSkill

Uma habilidade que aproveita o Azure AI Content Understanding para processar e extrair insights estruturados de documentos, possibilitando conteúdo enriquecido e pesquisável para uma indexação e recuperação aprimorada de documentos.

ContentUnderstandingSkillChunkingProperties

Controla a cardinalidade para dividir o conteúdo.

CorsOptions

Define opções para controlar o CORS (Compartilhamento de Recursos entre Origens) para um índice.

CreateKnowledgeBaseOptions
CreateKnowledgeSourceOptions
CreateOrUpdateAliasOptions

Opções para criar ou atualizar a operação de alias.

CreateOrUpdateIndexOptions

Opções para criar/atualizar a operação de índice.

CreateOrUpdateKnowledgeBaseOptions
CreateOrUpdateKnowledgeSourceOptions
CreateOrUpdateSkillsetOptions

Opções para a operação de conjunto de habilidades de criação/atualização.

CreateOrUpdateSynonymMapOptions

Opções para a operação de synonymmap de criação/atualização.

CreateorUpdateDataSourceConnectionOptions

Opções para criar/atualizar a operação de fonte de dados.

CreateorUpdateIndexerOptions

Opções para a operação do indexador de criação/atualização.

CustomAnalyzer

Permite que você assuma o controle sobre o processo de conversão de texto em tokens indexáveis/pesquisáveis. É uma configuração definida pelo usuário que consiste em um único tokenizador predefinido e um ou mais filtros. O tokenizador é responsável por dividir texto em tokens e os filtros para modificar tokens emitidos pelo tokenizer.

CustomEntity

Um objeto que contém informações sobre as correspondências que foram encontradas e metadados relacionados.

CustomEntityAlias

Um objeto complexo que pode ser usado para especificar ortografias ou sinônimos alternativos para o nome da entidade raiz.

CustomEntityLookupSkill

Uma habilidade procura texto de uma lista personalizada definida pelo usuário de palavras e frases.

CustomLexicalNormalizer

Permite que você configure a normalização para campos filtrados, classificáveis e facetáveis, que, por padrão, operam com correspondência estrita. Essa é uma configuração definida pelo usuário que consiste em pelo menos um ou mais filtros, que modificam o token armazenado.

DefaultCognitiveServicesAccount

Um objeto vazio que representa o recurso de serviço de IA do Azure padrão para um conjunto de habilidades.

DeleteAliasOptions

Opções para excluir a operação de alias.

DeleteDataSourceConnectionOptions

Opções para excluir a operação de fonte de dados.

DeleteIndexOptions

Opções para excluir a operação de índice.

DeleteIndexerOptions

Opções para excluir a operação do indexador.

DeleteKnowledgeBaseOptions
DeleteKnowledgeSourceOptions
DeleteSkillsetOptions

Opções para excluir a operação do conjunto de habilidades.

DeleteSynonymMapOptions

Opções para a operação de synonymmap de exclusão.

DictionaryDecompounderTokenFilter

Decompõe palavras compostas encontradas em muitas línguas germânicas. Esse filtro de token é implementado usando o Apache Lucene.

DistanceScoringFunction

Define uma função que aumenta as pontuações com base na distância de uma localização geográfica.

DistanceScoringParameters

Fornece valores de parâmetro para uma função de pontuação de distância.

DocumentDebugInfo

Contém informações de depuração que podem ser usadas para explorar ainda mais os resultados da pesquisa.

DocumentExtractionSkill

Uma habilidade que extrai conteúdo de um arquivo dentro do pipeline de enriquecimento.

DocumentIntelligenceLayoutSkill

Uma habilidade que extrai informações de conteúdo e layout (como markdown), por meio dos Serviços de IA do Azure, de arquivos dentro do pipeline de enriquecimento.

DocumentIntelligenceLayoutSkillChunkingProperties

Controla a cardinalidade para dividir o conteúdo.

EdgeNGramTokenFilter

Gera n-gramas dos tamanhos fornecidos a partir da frente ou da parte traseira de um token de entrada. Esse filtro de token é implementado usando o Apache Lucene.

EdgeNGramTokenizer

Tokeniza a entrada de uma borda em n-gramas dos tamanhos fornecidos. Esse tokenizador é implementado usando o Apache Lucene.

ElisionTokenFilter

Remove elisões. Por exemplo, "l'avion" (o plano) será convertido em "avion" (plano). Esse filtro de token é implementado usando o Apache Lucene.

EntityLinkingSkill

Usando a API de Análise de Texto, extrai entidades vinculadas do texto.

EntityRecognitionSkill

Reconhecimento de entidade de análise de texto.

EntityRecognitionSkillV3

Usando a API de Análise de Texto, extrai entidades de diferentes tipos do texto.

ExhaustiveKnnParameters

Contém os parâmetros específicos para o algoritmo KNN exaustivo.

ExtractiveQueryAnswer

Extrai os candidatos de resposta do conteúdo dos documentos retornados em resposta a uma consulta expressa como uma pergunta em linguagem natural.

ExtractiveQueryCaption

Extrai legendas dos documentos correspondentes que contêm passagens relevantes para a consulta de pesquisa.

FacetResult

Um único bucket de um resultado de consulta de faceta. Relata o número de documentos com um valor de campo caindo dentro de um intervalo específico ou com um determinado valor ou intervalo.

FieldMapping

Define um mapeamento entre um campo em uma fonte de dados e um campo de destino em um índice.

FieldMappingFunction

Representa uma função que transforma um valor de uma fonte de dados antes da indexação.

FreshnessScoringFunction

Define uma função que aumenta as pontuações com base no valor de um campo de data e hora.

FreshnessScoringParameters

Fornece valores de parâmetro para uma função de pontuação de atualização.

GenerativeQueryRewrites

Gere termos de consulta alternativos para aumentar o recall de uma solicitação de pesquisa.

GetDocumentOptions

Opções para recuperar um único documento.

GetKnowledgeBaseOptions
GetKnowledgeSourceOptions
GetKnowledgeSourceStatusOptions
HighWaterMarkChangeDetectionPolicy

Define uma política de detecção de alteração de dados que captura alterações com base no valor de uma coluna de marca d'água alta.

HnswParameters

Contém os parâmetros específicos do algoritmo hnsw.

ImageAnalysisSkill

Uma habilidade que analisa arquivos de imagem. Ele extrai um conjunto avançado de recursos visuais com base no conteúdo da imagem.

IndexDocumentsClient

Cliente de Documentos de Índice

IndexDocumentsOptions

Opções para a operação de modificação do lote de índice.

IndexDocumentsResult

Resposta que contém o status das operações para todos os documentos na solicitação de indexação.

IndexedOneLakeKnowledgeSource

Configuração para a fonte de conhecimento do OneLake.

IndexedOneLakeKnowledgeSourceParameters

Parâmetros para a fonte de conhecimento do OneLake.

IndexedOneLakeKnowledgeSourceParams

Especifica parâmetros de runtime para uma fonte de conhecimento indexada do OneLake

IndexerExecutionResult

Representa o resultado de uma execução individual do indexador.

IndexingParameters

Representa parâmetros para a execução do indexador.

IndexingParametersConfiguration

Um dicionário de propriedades de configuração específicas do indexador. Cada nome é o nome de uma propriedade específica. Cada valor deve ser de um tipo primitivo.

IndexingResult

Status de uma operação de indexação para um único documento.

IndexingSchedule

Representa um agendamento para a execução do indexador.

InputFieldMappingEntry

Mapeamento de campo de entrada para uma habilidade.

KeepTokenFilter

Um filtro de token que mantém apenas tokens com texto contido em uma lista de palavras especificada. Esse filtro de token é implementado usando o Apache Lucene.

KeyAuthAzureMachineLearningVectorizerParameters

Especifica as propriedades para se conectar a um vetorizador AML com uma chave de autenticação.

KeyPhraseExtractionSkill

Uma habilidade que usa a análise de texto para extração de frases-chave.

KeywordMarkerTokenFilter

Marca termos como palavras-chave. Esse filtro de token é implementado usando o Apache Lucene.

KeywordTokenizer

Emite toda a entrada como um único token. Esse tokenizador é implementado usando o Apache Lucene.

KnowledgeBase
KnowledgeBaseAgenticReasoningActivityRecord

Representa um registro de atividade de raciocínio agente.

KnowledgeBaseAzureBlobReference

Representa uma referência de documento do Armazenamento de Blobs do Azure.

KnowledgeBaseAzureOpenAIModel

Especifica o recurso OpenAI do Azure usado para fazer o planejamento de consulta.

KnowledgeBaseErrorAdditionalInfo

As informações adicionais do erro de gerenciamento de recursos.

KnowledgeBaseErrorDetail

Os detalhes do erro.

KnowledgeBaseIndexedOneLakeReference

Representa uma referência indexada de documento OneLake.

KnowledgeBaseMessage

O objeto de estilo de mensagem de linguagem natural.

KnowledgeBaseMessageImageContent

Tipo de mensagem de imagem.

KnowledgeBaseMessageImageContentImage

Conteúdo de imagens.

KnowledgeBaseMessageTextContent

Tipo de mensagem de texto.

KnowledgeBaseModelWebSummarizationActivityRecord

Representa um registro de atividade de resumo web de LLM.

KnowledgeBaseRetrievalRequest

O contrato de entrada para a solicitação de recuperação.

KnowledgeBaseRetrievalResponse

O contrato de saída para a resposta de recuperação.

KnowledgeBaseSearchIndexReference

Representa uma referência de documento do Azure Search.

KnowledgeBaseWebReference

Representa uma referência de documento da Web.

KnowledgeRetrievalClientOptions

Opções de cliente usadas para configurar solicitações de API de Pesquisa Cognitiva.

KnowledgeRetrievalIntent

Uma consulta destinada a ser executada sem planejamento de consulta de modelo.

KnowledgeRetrievalMinimalReasoningEffort

Execute a recuperação de conhecimento com o mínimo de esforço de raciocínio.

KnowledgeRetrievalSemanticIntent

Uma intenção de consulta semântica.

KnowledgeSourceAzureOpenAIVectorizer

Especifica o recurso OpenAI do Azure usado para vetorizar uma cadeia de caracteres de consulta.

KnowledgeSourceIngestionParameters

Consolida todas as configurações gerais de ingestão para fontes de conhecimento.

KnowledgeSourceReference

Referência a uma fonte de conhecimento.

KnowledgeSourceStatistics

Informações estatísticas sobre o histórico de sincronização da fonte de conhecimento.

KnowledgeSourceStatus

Representa o status e o histórico de sincronização de uma fonte de conhecimento.

KnowledgeSourceSynchronizationError

Representa um erro de indexação em nível de documento encontrado durante uma execução de sincronização de fonte de conhecimento.

LanguageDetectionSkill

Uma habilidade que detecta o idioma do texto de entrada e relata um único código de idioma para cada documento enviado na solicitação. O código de idioma é emparelhado com uma pontuação que indica a confiança da análise.

LengthTokenFilter

Remove palavras muito longas ou muito curtas. Esse filtro de token é implementado usando o Apache Lucene.

LimitTokenFilter

Limita o número de tokens durante a indexação. Esse filtro de token é implementado usando o Apache Lucene.

ListKnowledgeBasesOptions
ListKnowledgeSourcesOptions
ListSearchResultsPageSettings

Argumentos para recuperar a próxima página de resultados da pesquisa.

LuceneStandardAnalyzer

Analisador standard do Apache Lucene; Composto pelo tokenizador padrão, filtro em letras minúsculas e filtro de parada.

LuceneStandardTokenizer

Quebra o texto seguindo as regras de Segmentação de Texto Unicode. Esse tokenizador é implementado usando o Apache Lucene.

MagnitudeScoringFunction

Define uma função que aumenta as pontuações com base na magnitude de um campo numérico.

MagnitudeScoringParameters

Fornece valores de parâmetro para uma função de pontuação de magnitude.

MappingCharFilter

Um filtro de caractere que aplica mapeamentos definidos com a opção de mapeamentos. A correspondência é gananciosa (a correspondência de padrões mais longa em um determinado ponto vence). A substituição tem permissão para ser a cadeia de caracteres vazia. Esse filtro de caractere é implementado usando o Apache Lucene.

MergeSkill

Uma habilidade para mesclar duas ou mais cadeias de caracteres em uma única cadeia de caracteres unificada, com um delimitador opcional definido pelo usuário separando cada parte do componente.

MicrosoftLanguageStemmingTokenizer

Divide o texto usando regras específicas do idioma e reduz as palavras aos formulários base.

MicrosoftLanguageTokenizer

Divide o texto usando regras específicas do idioma.

NGramTokenFilter

Gera n-gramas dos tamanhos determinados. Esse filtro de token é implementado usando o Apache Lucene.

NGramTokenizer

Tokeniza a entrada em n-gramas dos tamanhos fornecidos. Esse tokenizador é implementado usando o Apache Lucene.

NativeBlobSoftDeleteDeletionDetectionPolicy

Define uma política de detecção de exclusão de dados utilizando o recurso de exclusão reversível nativo do Armazenamento de Blobs do Azure para detecção de exclusão.

NoAuthAzureMachineLearningVectorizerParameters

Especifica as propriedades para se conectar a um vetor AML sem autenticação.

OcrSkill

Uma habilidade que extrai texto de arquivos de imagem.

OutputFieldMappingEntry

Mapeamento de campo de saída para uma habilidade.

PIIDetectionSkill

Usando a API de Análise de Texto, extrai informações pessoais de um texto de entrada e oferece a opção de mascara-la.

PageSettings

Opções para o método byPage

PagedAsyncIterableIterator

Uma interface que permite iteração assíncrona iterável tanto para conclusão quanto por página.

PathHierarchyTokenizer

Tokenizer para hierarquias semelhantes a caminho. Esse tokenizador é implementado usando o Apache Lucene.

PatternAnalyzer

Separa o texto com flexibilidade em termos por meio de um padrão de expressão regular. Esse analisador é implementado usando o Apache Lucene.

PatternCaptureTokenFilter

Usa regexes Java para emitir vários tokens – um para cada grupo de captura em um ou mais padrões. Esse filtro de token é implementado usando o Apache Lucene.

PatternReplaceCharFilter

Um filtro de caractere que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres para preservar e um padrão de substituição para identificar caracteres a serem substituídos. Por exemplo, considerando o texto de entrada "aa bb aa bb", padrão "(aa)\s+(bb)" e substituição "$1#$2", o resultado seria "aa#bb aa#bb". Esse filtro de caractere é implementado usando o Apache Lucene.

PatternReplaceTokenFilter

Um filtro de caractere que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres para preservar e um padrão de substituição para identificar caracteres a serem substituídos. Por exemplo, considerando o texto de entrada "aa bb aa bb", padrão "(aa)\s+(bb)" e substituição "$1#$2", o resultado seria "aa#bb aa#bb". Esse filtro de token é implementado usando o Apache Lucene.

PatternTokenizer

Tokenizer que usa a correspondência de padrões regex para construir tokens distintos. Esse tokenizador é implementado usando o Apache Lucene.

PhoneticTokenFilter

Crie tokens para correspondências fonéticas. Esse filtro de token é implementado usando o Apache Lucene.

QueryAnswerResult

Uma resposta é uma passagem de texto extraída do conteúdo dos documentos mais relevantes que corresponderam à consulta. As respostas são extraídas dos principais resultados da pesquisa. Os candidatos de resposta são pontuados e as principais respostas são selecionadas.

QueryCaptionResult

As legendas são as passagens mais representativas do documento relativamente para a consulta de pesquisa. Eles geralmente são usados como resumo do documento. As legendas são retornadas apenas para consultas do tipo semantic.

QueryResultDocumentSemanticField

Descrição dos campos que foram enviados para o processo de enriquecimento semântico, bem como como eles foram usados

QueryResultDocumentSubscores

A divisão de subscores entre os componentes de consulta de texto e vetor da consulta de pesquisa para este documento. Cada consulta de vetor é mostrada como um objeto separado na mesma ordem em que foram recebidos.

RescoringOptions

Contém as opções de recortação.

ResourceCounter

Representa o uso e a cota de um recurso.

RetrieveOptions
ScalarQuantizationCompression

Contém opções de configuração específicas para o método de compactação de quantização escalar usado durante a indexação e a consulta.

ScalarQuantizationParameters

Contém os parâmetros específicos para a Quantização Escalar.

ScoringProfile

Define parâmetros para um índice de pesquisa que influenciam a pontuação em consultas de pesquisa.

SearchAlias

Representa um alias de índice, que descreve um mapeamento do nome do alias para um índice. O nome do alias pode ser usado no lugar do nome do índice para operações com suporte.

SearchClientOptions

Opções do cliente usadas para configurar solicitações de API do AI Search.

SearchDocumentsPageResult

Resposta que contém os resultados da página de pesquisa de um índice.

SearchDocumentsResult

Resposta que contém os resultados da pesquisa de um índice.

SearchDocumentsResultBase

Resposta que contém os resultados da pesquisa de um índice.

SearchIndex

Representa uma definição de índice de pesquisa, que descreve os campos e o comportamento de pesquisa de um índice.

SearchIndexClientOptions

Opções do cliente usadas para configurar solicitações de API do AI Search.

SearchIndexFieldReference

Referência de campo para um índice de busca.

SearchIndexKnowledgeSource

Fonte de conhecimento direcionada a um índice de pesquisa.

SearchIndexKnowledgeSourceParameters

Parâmetros para a fonte de conhecimento do índice de pesquisa.

SearchIndexKnowledgeSourceParams

Especifica parâmetros de tempo de execução para uma fonte de conhecimento de índice de pesquisa

SearchIndexStatistics

Estatísticas de um determinado índice. As estatísticas são coletadas periodicamente e não são garantidas como sempre up-to-date.

SearchIndexer

Representa um indexador.

SearchIndexerClientOptions

Opções do cliente usadas para configurar solicitações de API do AI Search.

SearchIndexerDataContainer

Representa informações sobre a entidade (como a tabela SQL do Azure ou a coleção cosmosDB) que serão indexadas.

SearchIndexerDataNoneIdentity

Limpa a propriedade de identidade de uma fonte de dados.

SearchIndexerDataSourceConnection

Representa uma definição de fonte de dados, que pode ser usada para configurar um indexador.

SearchIndexerDataUserAssignedIdentity

Especifica a identidade de uma fonte de dados a ser usada.

SearchIndexerError

Representa um erro de indexação no nível do item ou do documento.

SearchIndexerIndexProjection

Definição de projeções adicionais para índices de pesquisa secundários.

SearchIndexerIndexProjectionParameters

Um dicionário de propriedades de configuração específicas da projeção de índice. Cada nome é o nome de uma propriedade específica. Cada valor deve ser de um tipo primitivo.

SearchIndexerIndexProjectionSelector

Descrição de quais dados armazenar no índice de pesquisa designado.

SearchIndexerKnowledgeStore

Definição de projeções adicionais para blob, tabela ou arquivos do Azure de dados enriquecidos.

SearchIndexerKnowledgeStoreBlobProjectionSelector

Classe abstrata para compartilhar propriedades entre seletores concretos.

SearchIndexerKnowledgeStoreFileProjectionSelector

Definição de projeção para quais dados armazenar nos Arquivos do Azure.

SearchIndexerKnowledgeStoreObjectProjectionSelector

Definição de projeção para quais dados armazenar no Blob do Azure.

SearchIndexerKnowledgeStoreParameters

Um dicionário de propriedades de configuração específicas do repositório de conhecimento. Cada nome é o nome de uma propriedade específica. Cada valor deve ser de um tipo primitivo.

SearchIndexerKnowledgeStoreProjection

Objeto de contêiner para vários seletores de projeção.

SearchIndexerKnowledgeStoreProjectionSelector

Classe abstrata para compartilhar propriedades entre seletores concretos.

SearchIndexerKnowledgeStoreTableProjectionSelector

Descrição de quais dados armazenar nas Tabelas do Azure.

SearchIndexerLimits

Representa os limites que podem ser aplicados a um indexador.

SearchIndexerSkillset

Uma lista de habilidades.

SearchIndexerStatus

Representa o status atual e o histórico de execução de um indexador.

SearchIndexerWarning

Representa um aviso no nível do item.

SearchIndexingBufferedSenderOptions

Opções para SearchIndexingBufferedSender.

SearchResourceEncryptionKey

Uma chave de criptografia gerenciada pelo cliente no Azure Key Vault. As chaves que você cria e gerencia podem ser usadas para criptografar ou descriptografar dados em repouso no Pesquisa de IA do Azure , como índices e mapas de sinônimos.

SearchServiceStatistics

Resposta de uma solicitação obter estatísticas de serviço. Se tiver êxito, ele inclui contadores e limites de nível de serviço.

SemanticConfiguration

Define uma configuração específica a ser usada no contexto de funcionalidades semânticas.

SemanticDebugInfo

Opções de depuração para consultas de pesquisa semântica.

SemanticField

Um campo usado como parte da configuração semântica.

SemanticPrioritizedFields

Descreve os campos de título, conteúdo e palavras-chave a serem usados para classificação semântica, legendas, realces e respostas.

SemanticSearch

Define parâmetros para um índice de pesquisa que influenciam as funcionalidades semânticas.

SemanticSearchOptions

Define opções para consultas de pesquisa semântica

SentimentSkill

Análise de sentimento positivo-negativo da análise de texto, pontuada como um valor de ponto flutuante em um intervalo de zero a 1.

SentimentSkillV3

Usando a API de Análise de Texto, avalia o texto não estruturado e, para cada registro, fornece rótulos de sentimento (como "negativo", "neutro" e "positivo") com base na pontuação de confiança mais alta encontrada pelo serviço em uma frase e no nível do documento.

ServiceCounters

Representa cotas e contadores de recursos no nível do serviço.

ServiceLimits

Representa vários limites de nível de serviço.

ShaperSkill

Uma habilidade para remodelar as saídas. Ele cria um tipo complexo para dar suporte a campos compostos (também conhecidos como campos de várias partes).

ShingleTokenFilter

Cria combinações de tokens como um único token. Esse filtro de token é implementado usando o Apache Lucene.

SimpleField

Representa um campo em uma definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo.

SingleVectorFieldResult

Um único resultado de campo de vetor. Ambos

SnowballTokenFilter

Um filtro que resulta em palavras usando um lematizador gerado por Bola de Neve. Esse filtro de token é implementado usando o Apache Lucene.

SoftDeleteColumnDeletionDetectionPolicy

Define uma política de detecção de exclusão de dados que implementa uma estratégia de exclusão reversível. Ele determina se um item deve ser excluído com base no valor de uma coluna designada como "exclusão reversível".

SplitSkill

Uma habilidade para dividir uma cadeia de caracteres em partes de texto.

SqlIntegratedChangeTrackingPolicy

Define uma política de detecção de alteração de dados que captura alterações usando o recurso controle de alterações integrado do Banco de Dados SQL do Azure.

StemmerOverrideTokenFilter

Fornece a capacidade de substituir outros filtros com base em dicionário personalizado. Todos os termos de lematização de dicionário serão marcados como palavras-chave para que não sejam decorrentes de lematizadores na cadeia. Deve ser colocado antes de qualquer filtro de contenção. Esse filtro de token é implementado usando o Apache Lucene. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html

StemmerTokenFilter

Filtro de lematização específico da linguagem. Esse filtro de token é implementado usando o Apache Lucene. Consulte https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters

StopAnalyzer

Divide o texto em letras não letras; Aplica os filtros de token de letras minúsculas e palavras irrelevantes. Esse analisador é implementado usando o Apache Lucene.

StopwordsTokenFilter

Remove palavras irrelevantes de um fluxo de token. Esse filtro de token é implementado usando o Apache Lucene. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html

SuggestDocumentsResult

Resposta que contém os resultados da consulta de sugestão de um índice.

SuggestRequest

Parâmetros para filtragem, classificação, correspondência difusa e outros comportamentos de consulta de sugestões.

Suggester

Define como a API de Sugestão deve se aplicar a um grupo de campos no índice.

SynchronizationState

Representa o estado atual de uma sincronização contínua que abrange várias execuções do indexador.

SynonymMap

Representa uma definição de mapa de sinônimos.

SynonymTokenFilter

Corresponde a sinônimos de uma ou várias palavras em um fluxo de token. Esse filtro de token é implementado usando o Apache Lucene.

TagScoringFunction

Define uma função que aumenta as pontuações de documentos com valores de cadeia de caracteres correspondentes a uma determinada lista de marcas.

TagScoringParameters

Fornece valores de parâmetro para uma função de pontuação de marca.

TextResult

A pontuação BM25 ou Classic para a parte de texto da consulta.

TextTranslationSkill

Uma habilidade para traduzir texto de um idioma para outro.

TextWeights

Define os pesos nos campos de índice para os quais as correspondências devem aumentar a pontuação em consultas de pesquisa.

TokenAuthAzureMachineLearningVectorizerParameters

Especifica as propriedades para se conectar a um vetor AML com uma identidade gerenciada.

TruncateTokenFilter

Trunca os termos para um comprimento específico. Esse filtro de token é implementado usando o Apache Lucene.

UaxUrlEmailTokenizer

Tokeniza urls e emails como um token. Esse tokenizador é implementado usando o Apache Lucene.

UniqueTokenFilter

Filtra tokens com o mesmo texto do token anterior. Esse filtro de token é implementado usando o Apache Lucene.

VectorSearch

Contém opções de configuração relacionadas à pesquisa de vetor.

VectorSearchOptions

Define opções para consultas de pesquisa de vetor

VectorSearchProfile

Define uma combinação de configurações a serem usadas com a pesquisa de vetor.

VectorizableImageBinaryQuery

Os parâmetros de consulta a serem usados para pesquisa de vetor quando um binário codificado em base 64 de uma imagem que precisa ser vetorizada é fornecido.

VectorizableImageUrlQuery

Os parâmetros de consulta a serem usados para pesquisa de vetor quando uma URL que representa um valor de imagem que precisa ser vetorizado é fornecida.

VectorizableTextQuery

Os parâmetros de consulta a serem usados para pesquisa de vetor quando um valor de texto que precisa ser vetorizado é fornecido.

VectorizedQuery

Os parâmetros de consulta a serem usados para pesquisa de vetor quando um valor de vetor bruto é fornecido.

VectorsDebugInfo

"Contém informações de depuração específicas para busca vetorial e híbrida.")

WebApiParameters

Especifica as propriedades para se conectar a um vetor definido pelo usuário.

WebApiSkill

Uma habilidade que pode chamar um ponto de extremidade de API Web, permitindo que você estenda um conjunto de habilidades fazendo com que ele chame seu código personalizado.

WebApiVectorizer

Especifica um vetor definido pelo usuário para gerar a inserção de vetor de uma cadeia de caracteres de consulta. A integração de um vetorizador externo é obtida usando a interface de API Web personalizada de um conjunto de habilidades.

WebKnowledgeSource

Fonte de conhecimento direcionando resultados da Web.

WebKnowledgeSourceDomain

Configuração para domínio de fonte de conhecimento da Web.

WebKnowledgeSourceDomains

Configuração de permissão/bloqueio de domínio para fonte de conhecimento da Web.

WebKnowledgeSourceParameters

Parâmetros para fonte de conhecimento da Web.

WebKnowledgeSourceParams

Especifica parâmetros de tempo de execução para uma fonte de conhecimento da Web

WordDelimiterTokenFilter

Divide palavras em sub palavras e executa transformações opcionais em grupos de sub palavras. Esse filtro de token é implementado usando o Apache Lucene.

Aliases de tipo

AIFoundryModelCatalogName

O nome do modelo de embedding do Fábrica de IA do Azure Catalog que será chamado.
KnownAIFoundryModelCatalogName pode ser usado de forma intercambiável com AIFoundryModelCatalogName, essa enumeração contém os valores conhecidos aos quais o serviço dá suporte.

Valores conhecidos compatíveis com o serviço

OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32: OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32
OpenAI-CLIP-Image-Text-Embeddings-ViT-Large-Patch14-336: OpenAI-CLIP-Image-Text-Embeddings-ViT-Large-Patch14-336
Facebook-DinoV2-Image-Embeddings-ViT-Base: Facebook-DinoV2-Image-Embeddings-ViT-Base
Facebook-DinoV2-Imagem-Embeddings-ViT-Giant: Facebook-DinoV2-Imagem-Embeddings-ViT-Giant
Cohere-embed-v3-inglês: Cohere-embed-v3-english
Cohere-embed-v3-multilíngue: Cohere-embed-v3-multilíngue
Cohere-embed-v4: Modelo Cohere embed v4 para gerar incorporações de texto e imagens.

AliasIterator

Um iterador para listar os aliases que existem no serviço de Pesquisa. Isso fará solicitações conforme necessário durante a iteração. Use .byPage() para fazer uma solicitação ao servidor por iteração.

AnalyzeTextOptions

Opções para analisar a operação de texto.

AutocompleteMode

Especifica o modo de preenchimento automático. O padrão é 'oneTerm'. Use 'twoTerms' para obter shingles e 'oneTermWithContext' para usar o contexto atual na produção de termos de preenchimento automático.

AutocompleteOptions

Opções para recuperar o texto de conclusão de um searchText parcial.

AzureMachineLearningVectorizerParameters

Especifica as propriedades para se conectar a um vetorizador AML.

AzureOpenAIModelName

O nome do modelo do Azure Open AI que será chamado.
KnownAzureOpenAIModelName pode ser usado de forma intercambiável com AzureOpenAIModelName, essa enumeração contém os valores conhecidos aos quais o serviço dá suporte.

Valores conhecidos compatíveis com o serviço

text-embedding-ada-002: modelo TextEmbeddingAda002.
Embedding-3-grande: Embedding3Grande.
text-embedding-3-small: TextEmbedding3Small modelo.
gpt-5-mini: Modelo Gpt5Mini.
gpt-5-nano: Modelo Gpt5Nano.
gpt-5.4-mini: modelo gpt54Mini.
gpt-5.4-nano: Modelo Gpt54Nano.

BaseKnowledgeRetrievalIntent

Alias para KnowledgeRetrievalIntentUnion

BlobIndexerDataToExtract
BlobIndexerImageAction
BlobIndexerPDFTextRotationAlgorithm
BlobIndexerParsingMode
CharFilter

Contém os casos possíveis para CharFilter.

CharFilterName

Define os nomes de todos os filtros de caracteres suportados pelo mecanismo de pesquisa.
<xref:KnownCharFilterName> pode ser usado de forma intercambiável com CharFilterName, essa enumeração contém os valores conhecidos aos quais o serviço dá suporte.

Valores conhecidos compatíveis com o serviço

html_strip: um filtro de caractere que tenta remover constructos HTML. Consulte https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

ChatCompletionExtraParametersBehavior

Especifica como os 'extraParameters' devem ser tratados pelo Fábrica de IA do Azure. O padrão é 'error'.
KnownChatCompletionExtraParametersBehavior pode ser usado de forma intercambiável com ChatCompletionExtraParametersBehavior, essa enumeração contém os valores conhecidos aos quais o serviço dá suporte.

Valores conhecidos compatíveis com o serviço

passThrough: Passa todos os parâmetros extras diretamente para o modelo.
drop: Descarta todos os parâmetros extras.
error: Gera um erro se algum parâmetro extra estiver presente.

ChatCompletionResponseFormatType

Especifica como o LLM deve formatar a resposta.
KnownChatCompletionResponseFormatType pode ser usado de forma intercambiável com ChatCompletionResponseFormatType, essa enumeração contém os valores conhecidos aos quais o serviço dá suporte.

Valores conhecidos compatíveis com o serviço

texto: Formato de resposta em texto simples.
jsonObject: Formato arbitrário de resposta de objeto JSON.
jsonSchema: Formato de resposta que adere ao esquema JSON.

CjkBigramTokenFilterScripts

Scripts que podem ser ignorados por CjkBigramTokenFilter.

CognitiveServicesAccount

Contém os casos possíveis para CognitiveServicesAccount.

ComplexDataType

Define valores para ComplexDataType. Os valores possíveis incluem: 'Edm.ComplexType', 'Collection(Edm.ComplexType)'

ContentUnderstandingSkillChunkingUnit

Controla a cardinalidade da unidade da parte. O padrão é 'personagens'
KnownContentSunderstandingSkillChunkingUnit pode ser usado de forma intercambiável com ContentSkillChunkingUnit, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos compatíveis com o serviço

caracteres: Especifica o pedaço por caracteres.

ContentUnderstandingSkillExtractionOptions

Controla a cardinalidade do conteúdo extraído do documento pela habilidade.
KnownContentUnderstandingSkillExtractionOptions pode ser usado de forma intercambiável com ContentUnderstandingSkillExtractionOptions, esse enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos compatíveis com o serviço

images: especifique que o conteúdo da imagem deve ser extraído do documento.
locationMetadata: especifique que os metadados de localização devem ser extraídos do documento.

ContinuablePage

Uma interface que descreve uma página de resultados.

CountDocumentsOptions

Opções para executar a operação de contagem no índice.

CreateAliasOptions

Opções para criar operação de alias.

CreateDataSourceConnectionOptions

Opções para criar operação de fonte de dados.

CreateIndexOptions

Opções para criar operação de índice.

CreateIndexerOptions

Opções para criar operação de indexador.

CreateSkillsetOptions

Opções para criar uma operação de conjunto de habilidades.

CreateSynonymMapOptions

Opções para criar operação de synonymmap.

CustomEntityLookupSkillLanguage
DataChangeDetectionPolicy

Contém os casos possíveis para DataChangeDetectionPolicy.

DataDeletionDetectionPolicy

Contém os casos possíveis para DataDeletionDetectionPolicy.

DeleteDocumentsOptions

Opções para a operação de exclusão de documentos.

DocumentIntelligenceLayoutSkillChunkingUnit

Controla a cardinalidade da unidade da parte. O padrão é 'personagens'
KnownDocumentIntelligenceLayoutSkillChunkingUnit pode ser usado de forma intercambiável com DocumentIntelligenceLayoutSkillChunkingUnit, essa enumeração contém os valores conhecidos aos quais o serviço dá suporte.

Valores conhecidos compatíveis com o serviço

caracteres: Especifica o pedaço por caracteres.

DocumentIntelligenceLayoutSkillExtractionOptions

Controla a cardinalidade do conteúdo extraído do documento pela habilidade.
KnownDocumentIntelligenceLayoutSkillExtractionOptions pode ser usado de forma intercambiável com DocumentIntelligenceLayoutSkillExtractionOptions, essa enumeração contém os valores conhecidos aos quais o serviço dá suporte.

Valores conhecidos compatíveis com o serviço

images: especifique que o conteúdo da imagem deve ser extraído do documento.
locationMetadata: especifique que os metadados de localização devem ser extraídos do documento.

DocumentIntelligenceLayoutSkillMarkdownHeaderDepth

A profundidade dos cabeçalhos na saída de markdown. O padrão é h6.
KnownDocumentIntelligenceLayoutSkillMarkdownHeaderDepth pode ser usado de forma intercambiável com DocumentIntelligenceLayoutSkillMarkdownHeaderDepth, essa enumeração contém os valores conhecidos aos quais o serviço dá suporte.

Valores conhecidos compatíveis com o serviço

h1: Cabeçalho nível 1.
h2: Nível de cabeçalho 2.
h3: Cabeçalho nível 3.
h4: Nível de cabeçalho 4.
h5: Nível de cabeçalho 5.
h6: Cabeçalho nível 6.

DocumentIntelligenceLayoutSkillOutputFormat

Controla a cardinalidade do formato de saída. O padrão é 'markdown'.
KnownDocumentIntelligenceLayoutSkillOutputFormat pode ser usado de forma intercambiável com DocumentIntelligenceLayoutSkillOutputFormat, essa enumeração contém os valores conhecidos aos quais o serviço dá suporte.

Valores conhecidos compatíveis com o serviço

text: especifique o formato da saída como texto.
markdown: Especifique o formato da saída como markdown.

DocumentIntelligenceLayoutSkillOutputMode

Controla a cardinalidade da saída produzida pela habilidade. O padrão é 'oneToMany'.
KnownDocumentIntelligenceLayoutSkillOutputMode pode ser usado de forma intercambiável com DocumentIntelligenceLayoutSkillOutputMode, essa enumeração contém os valores conhecidos aos quais o serviço dá suporte.

Valores conhecidos compatíveis com o serviço

oneToMany: especifique que a saída deve ser analisada como 'oneToMany'.

EdgeNGramTokenFilterSide

Especifica de qual lado da entrada um n-grama deve ser gerado.

EntityCategory

Uma cadeia de caracteres que indica quais categorias de entidade retornar.
ConhecidaEntidadeCategoria pode ser usada de forma intercambiável com EntityCategory, esse enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos compatíveis com o serviço

localização: Entidades que descrevem uma localização física.
organização: Entidades que descrevem uma organização.
pessoa: Entidades que descrevem uma pessoa.
quantidade: Entidades que descrevem uma quantidade.
data-hora: Entidades que descrevem uma data e hora.
url: Entidades que descrevem uma URL.
e-mail: Entidades que descrevem um endereço de e-mail.

EntityRecognitionSkillLanguage

Os códigos de idioma com suporte para texto de entrada por EntityRecognitionSkill.
KnownEntityRecognitionSkillLanguage pode ser usado de forma intercambiável com EntityRecognitionSkillLanguage, esse enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos compatíveis com o serviço

ar: árabe
cs: Tcheco
zh-Hans: Chinese-Simplified
zh-Hant: Chinese-Traditional
da: dinamarquês
NL: Holandês
en: inglês
fi: finlandês
fr: Francês
de: alemão
el: Grego
hu: Húngaro
it: italiano
ja: Japonês
ko: Coreano
Não: Norueguês (Bokmaal)
pl: polonês
pt-PT: Português (Portugal)
pt-BR: Português (Brasil)
ru: Russo
es: Espanhol
sv: Sueco
tr: turco

ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

Contém opções de configuração específicas para o algoritmo KNN exaustivo usado durante a consulta, que executará a pesquisa de força bruta em todo o índice de vetor.

ExtractDocumentKey
GetAliasOptions

Opções para obter a operação de alias.

GetDataSourceConnectionOptions

Opções para obter a operação de fonte de dados.

GetIndexOptions

Opções para obter a operação de índice.

GetIndexStatisticsOptions

Opções para obter a operação de estatísticas de índice.

GetIndexerOptions

Opções para obter a operação do indexador.

GetIndexerStatusOptions

Opções para obter a operação de status do indexador.

GetServiceStatisticsOptions

Opções para obter a operação de estatísticas de serviço.

GetSkillSetOptions

Opções para obter a operação do conjunto de habilidades.

GetSynonymMapsOptions

Opções para obter a operação de sinônimos.

HnswAlgorithmConfiguration

Contém opções de configuração específicas para o algoritmo de vizinho mais próximo aproximado do hnsw usado durante o tempo de indexação.

ImageAnalysisSkillLanguage
ImageDetail
IndexActionType

A operação a ser executada em um documento em um lote de indexação.

IndexDocumentsAction

Representa uma ação de índice que opera em um documento.

IndexIterator

Um iterador para listar os índices que existem no serviço de Pesquisa. Fará solicitações conforme necessário durante a iteração. Use .byPage() para fazer uma solicitação ao servidor por iteração.

IndexNameIterator

Um iterador para listar os índices que existem no serviço de Pesquisa. Fará solicitações conforme necessário durante a iteração. Use .byPage() para fazer uma solicitação ao servidor por iteração.

IndexProjectionMode

Define o comportamento das projeções de índice em relação ao restante do indexador.
KnownIndexProjectionMode pode ser usado de forma intercambiável com IndexProjectionMode, essa enumeração contém os valores conhecidos aos quais o serviço dá suporte.

Valores conhecidos compatíveis com o serviço

skipIndexingParentDocuments: o documento de origem será ignorado da gravação no índice de destino do indexador.
includeIndexingParentDocuments: o documento de origem será gravado no índice de destino do indexador. Esse é o padrão padrão.

IndexerExecutionEnvironment
IndexerExecutionStatus

Representa o status de uma execução de indexador individual.

IndexerResyncOption

Opções com vários tipos de dados de permissão para indexar.
KnownIndexerResyncOption pode ser usado de forma intercambiável com IndexerResyncOption, essa enumeração contém os valores conhecidos aos quais o serviço dá suporte.

Valores conhecidos compatíveis com o serviço

permissions: indexador para realimentar dados de permissões pré-selecionados da fonte de dados para o índice.

IndexerStatus

Representa o status geral do indexador.

KeyPhraseExtractionSkillLanguage
KnowledgeBaseActivityRecord

Alias-se para KnowledgeBaseActivityRecordUnion

KnowledgeBaseActivityRecordType

O tipo de registro de atividade.
<xref:KnownKnowledgeBaseActivityRecordType> pode ser usado de forma intercambiável com KnowledgeBaseActivityRecordType, esse enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos compatíveis com o serviço

searchIndex: Atividade de recuperação de busca do índice.
azureBlob: Azure atividade de recuperação do blob.
indexedOneLake: Atividade de recuperação indexada OneLake.
web: Atividade de recuperação web.
modelWebSummarization: Atividade de resumo web de LLM.
Raciocínio agente: Atividade de raciocínio agente.

KnowledgeBaseIterator

Um iterador para listar as bases de conhecimento existentes no serviço de Busca. Fará solicitações conforme necessário durante a iteração. Use .byPage() para fazer uma solicitação ao servidor por iteração.

KnowledgeBaseMessageContent

Alias para KnowledgeBaseMessageContentUnion

KnowledgeBaseMessageContentType

O tipo de conteúdo da mensagem.
<xref:KnownKnowledgeBaseMessageContentType> pode ser usado de forma intercambiável com KnowledgeBaseMessageContentType, esse enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos compatíveis com o serviço

texto: Conteúdo por mensagem de texto.
imagem: Conteúdo da mensagem da imagem.

KnowledgeBaseModel
KnowledgeBaseModelKind

O modelo de IA a ser usado para planejamento de consulta.
KnowKnowledgeBaseModelKind pode ser usado de forma intercambiável com KnowledgeBaseModelKind, esse enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos compatíveis com o serviço

azureOpenAI: Use Azure modelos de IA aberta para planejamento de consultas.

KnowledgeBaseReference

Alias para KnowledgeBaseReferenceUnion

KnowledgeBaseReferenceType

O tipo de referência.
<xref:KnownKnowledgeBaseReferenceType> pode ser usado de forma intercambiável com KnowledgeBaseReferenceType, esse enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos compatíveis com o serviço

searchIndex: Pesquisa índice de referência de documento.
azureBlob: Azure referência do documento Blob.
indexedOneLake: Referência de documento OneLake indexada.
web: Referência de documento web.

KnowledgeRetrievalIntentType

O tipo de configuração da base de dados de conhecimento a ser usada.
<xref:KnownKnowledgeRetrievalIntentType> pode ser usado de forma intercambiável com KnowledgeRetrievalIntentType, esse enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos compatíveis com o serviço

semântica: Uma intenção semântica de consulta em linguagem natural.

KnowledgeRetrievalReasoningEffortKind

A quantidade de esforço a ser usado durante a recuperação.
<xref:KnownKnowledgeRetrievalReasoningEffortKind> pode ser usado de forma intercambiável com KnowledgeRetrievalReasoningEffortKind, esse enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos compatíveis com o serviço

minimal: Não realiza nenhuma seleção de fonte, planejamento de consultas ou busca iterativa.

KnowledgeRetrievalReasoningEffortUnion

Alias para RecuperaçãoRaciocínioEsforçoUnião

KnowledgeSource
KnowledgeSourceContentExtractionMode

Modo de extração de conteúdo opcional. O padrão é 'mínimo'.
<xref:KnownKnowledgeSourceContentExtractionMode> pode ser usado de forma intercambiável com KnowledgeSourceContentExtractionMode, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos compatíveis com o serviço

mínimo: extrai apenas metadados essenciais enquanto adia a maior parte do processamento de conteúdo.
padrão: Executa o pipeline completo padrão de extração de conteúdo.

KnowledgeSourceIterator

Um iterador para listar as fontes de conhecimento que existem no serviço de Busca. Fará solicitações conforme necessário durante a iteração. Use .byPage() para fazer uma solicitação ao servidor por iteração.

KnowledgeSourceKind

O tipo de fonte de conhecimento.
KnownKnowledgeSourceKind pode ser usado de forma intercambiável com KnowledgeSourceKind, essa enumeração contém os valores conhecidos aos quais o serviço dá suporte.

Valores conhecidos compatíveis com o serviço

searchIndex: uma fonte de conhecimento que lê dados de um índice de pesquisa.
azureBlob: uma fonte de conhecimento que lê e ingere dados do Armazenamento de Blobs do Azure em um Índice de Pesquisa.
indexedOneLake: Uma fonte de conhecimento que lê dados do OneLake indexado.
Web: Uma fonte de conhecimento que lê dados da web.

KnowledgeSourceParams

Alias para KnowledgeSourceParamsUnion

KnowledgeSourceSynchronizationStatus

O status de sincronização atual da fonte de conhecimento.
<xref:KnownKnowledgeSourceSynchronizationStatus> pode ser usado de forma intercambiável com KnowledgeSourceSynchronizationStatus, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos compatíveis com o serviço

criação: A fonte de conhecimento está sendo provisionada.
ativo: A fonte de conhecimento está ativa e as execuções de sincronização estão ocorrendo.
deletar: A fonte de conhecimento está sendo deletada e a sincronização está pausada.

KnowledgeSourceVectorizer
LexicalAnalyzer

Contém os casos possíveis para o Analisador.

LexicalAnalyzerName

Define os nomes de todos os analisadores de texto suportados pelo mecanismo de pesquisa.
KnownLexicalAnalyzerName pode ser usado de forma intercambiável com LexicalAnalyzerName, essa enumeração contém os valores conhecidos aos quais o serviço dá suporte.

Valores conhecidos compatíveis com o serviço

ar.microsoft: Analisador da Microsoft para árabe.
ar.lucene: Analisador lucene para árabe.
hy.lucene: analisador Lucene para armênio.
bn.microsoft: Analisador da Microsoft para Bangla.
eu.lucene: analisador Lucene para Basco.
bg.microsoft: Analisador da Microsoft para búlgaro.
bg.lucene: Analisador Lucene para búlgaro.
ca.microsoft: Analisador da Microsoft para Catalão.
ca.lucene: Analisador lucene para catalão.
zh-Hans.microsoft: Analisador da Microsoft para chinês (simplificado).
zh-Hans.lucene: Analisador lucene para chinês (simplificado).
zh-Hant.microsoft: Analisador da Microsoft para chinês (tradicional).
zh-Hant.lucene: analisador Lucene para chinês (tradicional).
hr.microsoft: Analisador da Microsoft para croata.
cs.microsoft: Analisador da Microsoft para tcheco.
cs.lucene: Analisador lucene para tcheco.
da.microsoft: Analisador da Microsoft para dinamarquês.
da.lucene: analisador Lucene para dinamarquês.
nl.microsoft: Analisador da Microsoft para holandês.
nl.lucene: Analisador lucene para holandês.
en.microsoft: Analisador da Microsoft para inglês.
en.lucene: Analisador Lucene para inglês.
et.microsoft: Analisador da Microsoft para estoniano.
fi.microsoft: Analisador da Microsoft para finlandês.
fi.lucene: analisador Lucene para finlandês.
fr.microsoft: Analisador da Microsoft para francês.
fr.lucene: analisador Lucene para francês.
gl.lucene: analisador Lucene para galego.
de.microsoft: Analisador da Microsoft para alemão.
de.lucene: analisador Lucene para alemão.
el.microsoft: Analisador da Microsoft para grego.
el.lucene: Analisador Lucene para grego.
gu.microsoft: Analisador da Microsoft para Gujarati.
he.microsoft: Analisador da Microsoft para hebraico.
hi.microsoft: Analisador da Microsoft para hindi.
hi.lucene: analisador Lucene para hindi.
hu.microsoft: Analisador da Microsoft para húngaro.
hu.lucene: analisador Lucene para húngaro.
is.microsoft: Analisador da Microsoft para islandês.
id.microsoft: Analisador da Microsoft para Indonésio (Bahasa).
id.lucene: Analisador lucene para indonésio.
ga.lucene: Analisador lucene para irlandês.
it.microsoft: Analisador da Microsoft para italiano.
it.lucene: Analisador Lucene para italiano.
ja.microsoft: Analisador da Microsoft para japonês.
ja.lucene: analisador Lucene para japonês.
kn.microsoft: Analisador da Microsoft para Kannada.
ko.microsoft: Analisador da Microsoft para coreano.
ko.lucene: analisador Lucene para coreano.
lv.microsoft: Analisador da Microsoft para letão.
lv.lucene: Analisador lucene para letão.
lt.microsoft: Analisador da Microsoft para lituano.
ml.microsoft: Analisador da Microsoft para Malaia.
ms.microsoft: Analisador da Microsoft para malaio (latino).
mr.microsoft: Analisador da Microsoft para Marathi.
nb. microsoft: Analisador Microsoft para norueguês (Bokmål).
no.lucene: analisador Lucene para norueguês.
fa.lucene: Analisador lucene para persa.
pl.microsoft: Analisador da Microsoft para polonês.
pl.lucene: analisador Lucene para polonês.
pt-BR.microsoft: Analisador da Microsoft para português (Brasil).
pt-BR.lucene: Analisador lucene para português (Brasil).
pt-PT.microsoft: Analisador da Microsoft para Português (Portugal).
pt-PT.lucene: Analisador lucene para português (Portugal).
pa.microsoft: Analisador da Microsoft para Punjabi.
ro.microsoft: Analisador da Microsoft para romeno.
ro.lucene: Analisador Lucene para romeno.
ru.microsoft: Analisador da Microsoft para russo.
ru.lucene: analisador Lucene para russo.
sr-cyrillic.microsoft: Analisador da Microsoft para sérvio (cirílico).
sr-latin.microsoft: Analisador da Microsoft para sérvio (latino).
sk.microsoft: Analisador da Microsoft para Eslovaco.
sl.microsoft: Analisador da Microsoft para esloveno.
es.microsoft: Analisador da Microsoft para espanhol.
es.lucene: analisador Lucene para espanhol.
sv.microsoft: Analisador da Microsoft para sueco.
sv.lucene: Analisador lucene para sueco.
ta.microsoft: Analisador da Microsoft para Tamil.
te.microsoft: Analisador da Microsoft para Telugu.
th.microsoft: Analisador da Microsoft para tailandês.
th.lucene: analisador Lucene para tailandês.
tr.microsoft: Analisador da Microsoft para turco.
tr.lucene: analisador Lucene para turco.
uk.microsoft: Analisador da Microsoft para ucraniano.
seuda Microsoft: Analisador da Microsoft para Urdu.
vi.microsoft: Analisador da Microsoft para vietnamita.
standard.lucene: analisador Lucene Standard.
standardasciifolding.lucene: analisador Lucene dobrável ASCII Padrão. Consulte https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers
palavra-chave: trata todo o conteúdo de um campo como um único token. Isso é útil para dados como cep, IDs e alguns nomes de produto. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html
padrão: separa o texto com flexibilidade em termos por meio de um padrão de expressão regular. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html
simples: divide o texto em não letras e converte-os em letras minúsculas. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html
parar: divide o texto em não letras; Aplica os filtros de token de letras minúsculas e palavras irrelevantes. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html
de espaço em branco: um analisador que usa o tokenizador de espaço em branco. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalNormalizer

Contém os casos possíveis para LexicalNormalizer.

LexicalNormalizerName

Define os nomes de todos os normalizadores de texto suportados pelo mecanismo de pesquisa.
KnownLexicalNormalizerName pode ser usado de forma intercambiável com LexicalNormalizerName, essa enumeração contém os valores conhecidos aos quais o serviço dá suporte.

Valores conhecidos compatíveis com o serviço

asciifolding: converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 caracteres ASCII (o bloco Unicode "Latino Básico") em seus equivalentes ASCII, se esses equivalentes existirem. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
elisão: remove elisões. Por exemplo, "l'avion" (o plano) será convertido em "avion" (plano). Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
minúsculas: normaliza o texto do token para minúsculas. Consulte https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html
padrão: normalizador padrão, que consiste em letras minúsculas e dobramento em ascii. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
maiúsculas: normaliza o texto do token para maiúsculas. Consulte https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html

LexicalTokenizer

Contém os casos possíveis para o Tokenizer.

LexicalTokenizerName

Define os nomes de todos os tokenizadores suportados pelo mecanismo de pesquisa.
<xref:KnownLexicalTokenizerName> pode ser usado de forma intercambiável com LexicalTokenizerName, essa enumeração contém os valores conhecidos aos quais o serviço dá suporte.

Valores conhecidos compatíveis com o serviço

clássico: tokenizador baseado em gramática adequado para processar a maioria dos documentos de idioma europeu. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
edgeNGram: tokeniza a entrada de uma borda em n-gramas dos tamanhos fornecidos. Consulte https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
keyword_v2: emite toda a entrada como um único token. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
letra: divide o texto em não letras. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html
minúsculas: divide o texto em não letras e converte-os em letras minúsculas. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html
microsoft_language_tokenizer: divide o texto usando regras específicas do idioma.
microsoft_language_stemming_tokenizer: divide o texto usando regras específicas do idioma e reduz as palavras aos formulários base.
nGram: tokeniza a entrada em n-gramas dos tamanhos fornecidos. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
path_hierarchy_v2: tokenizador para hierarquias semelhantes a caminho. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
padrão: Tokenizer que usa a correspondência de padrões regex para construir tokens distintos. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
standard_v2: Analisador Lucene Padrão; Composto pelo tokenizador padrão, filtro em letras minúsculas e filtro de parada. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
uax_url_email: tokeniza urls e emails como um token. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
de espaço em branco: divide o texto no espaço em branco. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

ListAliasesOptions

Opções para a operação de aliases de lista.

ListDataSourceConnectionsOptions

Opções para uma operação de fontes de dados de lista.

ListIndexersOptions

Opções para uma operação de indexadores de lista.

ListIndexesOptions

Opções para uma operação de índices de lista.

ListSkillsetsOptions

Opções para uma operação de conjuntos de habilidades de lista.

ListSynonymMapsOptions

Opções para uma operação synonymMaps de lista.

MarkdownHeaderDepth

Especifica a profundidade máxima do cabeçalho que será considerada ao agrupar o conteúdo de markdown. O padrão é h6.
KnownMarkdownHeaderDepth pode ser usado de forma intercambiável com MarkdownHeaderDepth, essa enumeração contém os valores conhecidos aos quais o serviço dá suporte.

Valores conhecidos compatíveis com o serviço

h1: indica que cabeçalhos até um nível de h1 serão considerados ao agrupar o conteúdo de markdown.
h2: indica que cabeçalhos até um nível de h2 serão considerados ao agrupar o conteúdo de markdown.
h3: Indica que cabeçalhos até um nível de h3 serão considerados ao agrupar o conteúdo de markdown.
h4: Indica que cabeçalhos até um nível de h4 serão considerados ao agrupar o conteúdo de markdown.
h5: Indica que cabeçalhos até um nível de h5 serão considerados ao agrupar o conteúdo de markdown.
h6: Indica que cabeçalhos até um nível de h6 serão considerados ao agrupar o conteúdo de markdown. Esse é o padrão.

MarkdownParsingSubmode

Especifica o submodo que determinará se um arquivo markdown será analisado em exatamente um documento de pesquisa ou em vários documentos de pesquisa. O padrão é oneToMany.
KnownMarkdownParsingSubmode pode ser usado de forma intercambiável com MarkdownParsingSubmode, essa enumeração contém os valores conhecidos aos quais o serviço dá suporte.

Valores conhecidos compatíveis com o serviço

oneToMany: indica que cada seção do arquivo markdown (até uma profundidade especificada) será analisada em documentos de pesquisa individuais. Isso pode resultar em um único arquivo markdown produzindo vários documentos de pesquisa. Esse é o sub-modo padrão.
oneToOne: indica que cada arquivo markdown será analisado em um único documento de pesquisa.

MergeDocumentsOptions

Opções para a operação de mesclagem de documentos.

MergeOrUploadDocumentsOptions

Opções para a operação de mesclagem ou upload de documentos.

MicrosoftStemmingTokenizerLanguage

Lista as linguagens suportadas pelo tokenizador de stemming da Microsoft.

MicrosoftTokenizerLanguage

Lista as linguagens suportadas pelo tokenizador de idiomas da Microsoft.

NarrowedModel

Restringe o tipo de modelo para incluir apenas os Campos selecionados

OcrLineEnding

Define a sequência de caracteres a ser usada entre as linhas de texto reconhecidas pela habilidade de OCR. O valor padrão é "espaço".
KnownOcrLineEnding pode ser usado de forma intercambiável com OcrLineEnding, essa enumeração contém os valores conhecidos aos quais o serviço dá suporte.

Valores conhecidos compatíveis com o serviço

espaço: as linhas são separadas por um único caractere de espaço.
carriageReturn: as linhas são separadas por um caractere de retorno de carro ("\r").
lineFeed: as linhas são separadas por um único caractere de feed de linha ('\n').
carriageReturnLineFeed: as linhas são separadas por um retorno de carro e um caractere de alimentação de linha ("\r\n").

OcrSkillLanguage
PIIDetectionSkillMaskingMode
PhoneticEncoder

Identifica o tipo de codificador fonético a ser usado com um PhoneticTokenFilter.

QueryAnswer

Um valor que especifica se as respostas devem ser retornadas como parte da resposta de pesquisa. Esse parâmetro só será válido se o tipo de consulta for 'semântico'. Se definido como extractive, a consulta retornará respostas extraídas das principais passagens nos documentos mais bem classificados.

QueryCaption

Um valor que especifica se as legendas devem ser retornadas como parte da resposta de pesquisa. Esse parâmetro só será válido se o tipo de consulta for 'semântico'. Se definida, a consulta retornará legendas extraídas das principais passagens nos documentos mais bem classificados. Quando Legendas são 'extrativas', o realce é habilitado por padrão. O padrão é 'none'.

QueryDebugMode

Habilita uma ferramenta de depuração que pode ser usada para explorar ainda mais os resultados da pesquisa. Você pode habilitar vários modos de depuração simultaneamente, separando-os com um | caractere, por exemplo: semantic|queryRewrites.
KnownQueryDebugMode pode ser usado de forma intercambiável com QueryDebugMode, essa enumeração contém os valores conhecidos aos quais o serviço dá suporte.

Valores conhecidos compatíveis com o serviço

desabilitado: nenhuma informação de depuração de consulta será retornada.
semântica: permite que o usuário explore ainda mais seus resultados reclassificados.
vector: Permite que o usuário explore ainda mais seus resultados de consulta híbrida e vetorial.
queryRewrites: Permite que o usuário explore a lista de reescritas de consulta geradas para sua solicitação de pesquisa.
innerHits: Permite que o usuário recupere informações de pontuação sobre vetores correspondentes em uma coleção de tipos complexos.
all: ative todas as opções de depuração.

QueryRewrites

Define opções para regravações de consulta.

QueryType

Especifica a sintaxe da consulta de pesquisa. O padrão é "simples". Use 'full' se sua consulta usar a sintaxe de consulta Lucene e 'semântica' se a sintaxe de consulta não for necessária.
<xref:KnownQueryType> pode ser usado de forma intercambiável com QueryType, esse enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos compatíveis com o serviço

simples: Usa a sintaxe de consulta simples para buscas. O texto de pesquisa é interpretado usando uma linguagem de consulta simples que permite símbolos como +, * e "". As consultas são avaliadas em todos os campos pesquisáveis por padrão, a menos que o parâmetro searchFields seja especificado.
full: Usa a sintaxe completa da consulta Lucene para buscas. O texto da pesquisa é interpretado usando a linguagem de consulta Lucene, que permite pesquisas ponderadas e específicas do campo, bem como outros recursos avançados.
Semântica: Mais adequada para consultas expressas em linguagem natural do que para palavras-chave. Melhora a precisão dos resultados da pesquisa reclassificando os principais resultados da pesquisa usando um modelo de classificação treinado no corpus da Web.

RankingOrder

Representa a pontuação a ser usada para a ordem de classificação dos documentos.
KnownRankingOrder pode ser usado de forma intercambiável com RankingOrder, essa enumeração contém os valores conhecidos aos quais o serviço dá suporte.

Valores conhecidos compatíveis com o serviço

BoostedRerankerScore: Define a ordem de classificação como BoostedRerankerScore
RerankerScore: Define a ordem de classificação como ReRankerScore

RegexFlags
ResetIndexerOptions

Opções para redefinir a operação do indexador.

RunIndexerOptions

Opções para executar a operação do indexador.

ScoringFunction

Contém os casos possíveis para ScoreFunction.

ScoringFunctionAggregation

Define a função de agregação usada para combinar os resultados de todas as funções de pontuação em um perfil de pontuação.

ScoringFunctionInterpolation

Define a função usada para interpolar o aumento de pontuação em um intervalo de documentos.

ScoringStatistics

Um valor que especifica se queremos calcular estatísticas de pontuação (como frequência de documento) globalmente para pontuação mais consistente ou localmente, para menor latência. O padrão é 'local'. Use 'global' para agregar estatísticas de pontuação globalmente antes de pontuar. O uso de estatísticas de pontuação global pode aumentar a latência das consultas de pesquisa.

SearchField

Representa um campo em uma definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo.

SearchFieldArray

Se TModel for um objeto não tipado, uma matriz de cadeia de caracteres não tipada Caso contrário, os campos delimitados por barra de TModel.

SearchFieldDataType

Define valores para SearchFieldDataType.

Valores conhecidos compatíveis com o serviço:

Edm.String: indica que um campo contém uma cadeia de caracteres.

Edm.Int32: indica que um campo contém um inteiro com sinal de 32 bits.

Edm.Int64: indica que um campo contém um inteiro com sinal de 64 bits.

Edm.Double: indica que um campo contém um número de ponto flutuante de precisão dupla IEEE.

Edm.Boolean: indica que um campo contém um valor booliano (verdadeiro ou falso).

Edm.DateTimeOffset: indica que um campo contém um valor de data/hora, incluindo informações de fuso horário.

Edm.GeographyPoint: indica que um campo contém uma localização geográfica em termos de longitude e latitude.

Edm.ComplexType: indica que um campo contém um ou mais objetos complexos que, por sua vez, têm sub-campos de outros tipos.

Edm.Single: indica que um campo contém um número de ponto flutuante de precisão única. Isso só é válido quando usado como parte de um tipo de coleção, ou seja, Collection(Edm.Single).

Edm.Half: indica que um campo contém um número de ponto flutuante de meia precisão. Isso só é válido quando usado como parte de um tipo de coleção, ou seja, Collection(Edm.Half).

Edm.Int16: indica que um campo contém um inteiro com sinal de 16 bits. Isso só é válido quando usado como parte de um tipo de coleção, ou seja, Collection(Edm.Int16).

Edm.SByte: indica que um campo contém um inteiro com sinal de 8 bits. Isso só é válido quando usado como parte de um tipo de coleção, ou seja, Collection(Edm.SByte).

Edm.Byte: indica que um campo contém um inteiro sem sinal de 8 bits. Isso só é válido quando usado como parte de um tipo de coleção, ou seja, Collection(Edm.Byte).

SearchIndexAlias

Objeto Alias de pesquisa.

SearchIndexerDataIdentity

Contém os casos possíveis para SearchIndexerDataIdentity.

SearchIndexerDataSourceType
SearchIndexerSkill

Contém os casos possíveis para Skill.

SearchIndexingBufferedSenderDeleteDocumentsOptions

Opções para SearchIndexingBufferedSenderDeleteDocuments.

SearchIndexingBufferedSenderFlushDocumentsOptions

Opções para SearchIndexingBufferedSenderFlushDocuments.

SearchIndexingBufferedSenderMergeDocumentsOptions

Opções para SearchIndexingBufferedSenderMergeDocuments.

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

Opções para SearchIndexingBufferedSenderMergeOrUploadDocuments.

SearchIndexingBufferedSenderUploadDocumentsOptions

Opções para SearchIndexingBufferedSenderUploadDocuments.

SearchIterator

Um iterador para resultados de pesquisa de uma consulta paticular. Fará solicitações conforme necessário durante a iteração. Use .byPage() para fazer uma solicitação ao servidor por iteração.

SearchMode

Especifica se algum ou todos os termos de pesquisa devem ser correspondidos para contar o documento como uma correspondência.

SearchOptions

Opções para confirmar uma solicitação de pesquisa completa.

SearchPick

Escolha profundamente os campos de T usando caminhos de $select OData de pesquisa de IA válidos.

SearchRequestOptions

Parâmetros para filtragem, classificação, faceta, paginação e outros comportamentos de consulta de pesquisa.

SearchRequestQueryTypeOptions
SearchResult

Contém um documento encontrado por uma consulta de pesquisa, além de metadados associados.

SelectFields

Produz uma união de caminhos de OData de pesquisa de IA válidos $select para T usando uma passagem pós-ordem da árvore de campo enraizada em T.

SemanticErrorMode
SemanticErrorReason
SemanticSearchResultsType

Tipo de resposta parcial que foi retornada para uma solicitação de classificação semântica.
KnowSemanticSearchResultsType pode ser usado de forma intercambiável com SemanticSearchResultsType, esse enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos compatíveis com o serviço

baseResults: Resultados sem qualquer enriquecimento semântico ou reclassificação.
rerankedResults: Os resultados foram reclassificados com o modelo de reranker e incluirão legendas semânticas. Eles não incluirão respostas, destaques de respostas ou destaques de legendas.

SentimentSkillLanguage

Os códigos de idioma com suporte para texto de entrada por SentimentSkill.
KnownSentimentSkillLanguage pode ser usado de forma intercambiável com SentimentSkillLanguage, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos compatíveis com o serviço

da: dinamarquês
NL: Holandês
en: inglês
fi: finlandês
fr: Francês
de: alemão
el: Grego
it: italiano
Não: Norueguês (Bokmaal)
pl: polonês
pt-PT: Português (Portugal)
ru: Russo
es: Espanhol
sv: Sueco
tr: turco

Similarity

Alias para SimilarityAlgorithmUnion

SimilarityAlgorithm

Contém os casos possíveis para Similaridade.

SnowballTokenFilterLanguage

O idioma a ser usado para um filtro de token do Snowball.

SplitSkillLanguage
StemmerTokenFilterLanguage

O idioma a ser usado para um filtro de token de lematizador.

StopwordsList

Identifica uma lista predefinida de palavras irrelevantes específicas do idioma.

SuggestNarrowedModel
SuggestOptions

Opções para recuperar sugestões com base no searchText.

SuggestResult

Um resultado que contém um documento encontrado por uma consulta de sugestão, além de metadados associados.

TextSplitMode
TextTranslationSkillLanguage
TokenCharacterKind

Representa classes de caracteres nas quais um filtro de token pode operar.

TokenFilter

Contém os casos possíveis para TokenFilter.

TokenFilterName

Define os nomes de todos os filtros de token suportados pelo mecanismo de pesquisa.
<xref:KnownTokenFilterName> pode ser usado de forma intercambiável com TokenFilterName, essa enumeração contém os valores conhecidos aos quais o serviço dá suporte.

Valores conhecidos compatíveis com o serviço

arabic_normalization: um filtro de token que aplica o normalizador árabe para normalizar a orthografia. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html
apóstrofo: remove todos os caracteres após um apóstrofo (incluindo o apóstrofo em si). Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html
asciifolding: converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 caracteres ASCII (o bloco Unicode "Latino Básico") em seus equivalentes ASCII, se esses equivalentes existirem. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
cjk_bigram: forma bigrams de termos CJK gerados a partir do tokenizador padrão. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html
cjk_width: normaliza as diferenças de largura do CJK. Dobra variantes ASCII de largura total no equivalente latim básico, e variantes Katakana de meia largura no Kana equivalente. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html
clássico: remove possessivos em inglês e pontos de acrônimos. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html
common_grams: construa bigrams para termos frequentes durante a indexação. Termos únicos ainda são indexados também, com bigrams sobrepostos. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html
edgeNGram_v2: gera n-gramas dos tamanhos fornecidos a partir da frente ou da parte traseira de um token de entrada. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html
elisão: remove elisões. Por exemplo, "l'avion" (o plano) será convertido em "avion" (plano). Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
german_normalization: normaliza os caracteres alemães de acordo com a heurística do algoritmo de bola de neve alemão2. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html
hindi_normalization: normaliza o texto em hindi para remover algumas diferenças nas variações ortográficas. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html
indic_normalization: normaliza a representação Unicode do texto em idiomas indianos. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html
keyword_repeat: emite cada token de entrada duas vezes, uma como palavra-chave e uma vez como palavra-chave. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html
kstem: um filtro kstem de alto desempenho para inglês. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html
comprimento: remove palavras muito longas ou muito curtas. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html
limite: limita o número de tokens durante a indexação. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html
minúsculas: normaliza o texto do token para maiúsculas e minúsculas. Consulte https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html
nGram_v2: gera n-gramas dos tamanhos determinados. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html
persian_normalization: aplica a normalização para persa. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html
fonético: crie tokens para correspondências fonéticas. Consulte https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html
porter_stem: usa o algoritmo de lematização porter para transformar o fluxo de token. Consulte http://tartarus.org/~martin/PorterStemmer
reverso: inverte a cadeia de caracteres de token. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
scandinavian_normalization: normaliza o uso dos caracteres escandinavos intercambiáveis. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html
scandinavian_folding: Dobra caracteres escandinavos Ã¥ã... äæÃ"Æ-a> e öÖà ̧à ̃-o>. Também discrimina o uso de vogais duplas aa, ae, ao, oe e oo, deixando apenas a primeira. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html
shingle: cria combinações de tokens como um único token. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html
de bola de neve: um filtro que contém palavras usando um lematizador gerado por Bola de Neve. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html
sorani_normalization: normaliza a representação Unicode do texto Sorani. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html
de lematizador: filtro de lematização específico da linguagem. Consulte https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters
palavras irrelevantes: remove palavras irrelevantes de um fluxo de token. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html
cortar: corta o espaço em branco à esquerda e à direita dos tokens. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html
truncar: Trunca os termos para um comprimento específico. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html
exclusivo: filtra tokens com o mesmo texto do token anterior. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html
maiúsculas: normaliza o texto do token para maiúsculas e minúsculas. Consulte https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html
word_delimiter: divide palavras em sub palavras e executa transformações opcionais em grupos de sub palavras.

UnionToIntersection
UploadDocumentsOptions

Opções para a operação de upload de documentos.

VectorEncodingFormat

O formato de codificação para interpretar o conteúdo do campo vetorial.
KnownVectorEncodingFormat pode ser usado de forma intercambiável com VectorEncodingFormat, essa enumeração contém os valores conhecidos aos quais o serviço dá suporte.

Valores conhecidos compatíveis com o serviço

packedBit: formato de codificação que representa bits empacotados em um tipo de dados mais amplo.

VectorFilterMode
VectorQuery

Os parâmetros de consulta para consultas de pesquisa vetor e híbrida.

VectorQueryKind
VectorSearchAlgorithmConfiguration

Contém opções de configuração específicas para o algoritmo usado durante a indexação e/ou consulta.

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric
VectorSearchCompression

Contém opções de configuração específicas para o método de compactação usado durante a indexação ou consulta.

VectorSearchCompressionKind

O método de compactação usado para indexação e consulta.
KnownVectorSearchCompressionKind pode ser usado de forma intercambiável com VectorSearchCompressionKind, essa enumeração contém os valores conhecidos aos quais o serviço dá suporte.

Valores conhecidos compatíveis com o serviço

scalarQuantization: Quantization Escalar, um tipo de método de compactação. Na quantização escalar, os valores de vetores originais são compactados para um tipo mais estreito discretizando e representando cada componente de um vetor usando um conjunto reduzido de valores quantizados, reduzindo assim o tamanho geral dos dados.
binaryQuantization: Quantization Binário, um tipo de método de compactação. Na quantização binária, os valores de vetores originais são compactados para o tipo binário mais estreito discretizando e representando cada componente de um vetor usando valores binários, reduzindo assim o tamanho geral dos dados.

VectorSearchCompressionRescoreStorageMethod

O método de armazenamento para os vetores originais de precisão total usados para operações de repontuação e índice interno.
KnownVectorSearchCompressionRescoreStorageMethod pode ser usado de forma intercambiável com VectorSearchCompressionRescoreStorageMethod, essa enumeração contém os valores conhecidos aos quais o serviço dá suporte.

Valores conhecidos compatíveis com o serviço

preserveOriginals: Esta opção preserva os vetores originais de precisão total. Escolha essa opção para obter a máxima flexibilidade e a mais alta qualidade dos resultados da pesquisa compactada. Isso consome mais armazenamento, mas permite a recorção e a sobrecarga.
discardOriginals: essa opção descarta os vetores originais de precisão total. Escolha esta opção para obter a economia máxima de armazenamento. Como essa opção não permite a recorção e o excesso de sobrecarga, ela geralmente causará reduções ligeiras a moderadas na qualidade.

VectorSearchCompressionTarget

O tipo de dados quantizados de valores vetoriais compactados.
KnownVectorSearchCompressionTarget pode ser usado de forma intercambiável com VectorSearchCompressionTarget, essa enumeração contém os valores conhecidos aos quais o serviço dá suporte.

Valores conhecidos compatíveis com o serviço

int8: inteiro assinado de 8 bits.

VectorSearchVectorizer

Contém opções de configuração sobre como vetorizar consultas de vetor de texto.

VectorSearchVectorizerKind

O método de vetorização a ser usado durante o tempo de consulta.
KnownVectorSearchVectorizerKind pode ser usado de forma intercambiável com VectorSearchVectorizerKind, essa enumeração contém os valores conhecidos aos quais o serviço dá suporte.

Valores conhecidos compatíveis com o serviço

azureOpenAI: gerar inserções usando um recurso do Azure OpenAI no momento da consulta.
customWebApi: gerar inserções usando um ponto de extremidade da Web personalizado no momento da consulta.
aiServicesVision: gere inserções para uma entrada de imagem ou texto no momento da consulta usando a API de Vetorização de Visão dos Serviços de IA do Azure.
aml: gere inserções usando um ponto de extremidade do Azure Machine Learning implantado por meio do Catálogo de Modelos do Fábrica de IA do Azure no momento da consulta.

VisualFeature
WebApiSkills

Enumerações

KnownAIFoundryModelCatalogName

O nome do modelo de embedding do Fábrica de IA do Azure Catalog que será chamado.

KnownAnalyzerNames

Define valores para AnalyzerName. Consulte https://learn.microsoft.com/rest/api/searchservice/Language-support

KnownAzureOpenAIModelName

O nome do modelo do Azure Open AI que será chamado.

KnownBlobIndexerDataToExtract

Especifica os dados a serem extraídos do armazenamento de blobs do Azure e informa ao indexador quais dados extrair do conteúdo da imagem quando "imageAction" é definido como um valor diferente de "none". Isso se aplica ao conteúdo de imagem inserido em um .PDF ou outro aplicativo, ou a arquivos de imagem, como .jpg e .png, em blobs do Azure.

KnownBlobIndexerImageAction

Determina como processar imagens inseridas e arquivos de imagem no armazenamento de blobs do Azure. Definir a configuração "imageAction" como qualquer valor diferente de "none" requer que um conjunto de habilidades também seja anexado a esse indexador.

KnownBlobIndexerPDFTextRotationAlgorithm

Determina o algoritmo para extração de texto de arquivos PDF no armazenamento de blobs do Azure.

KnownBlobIndexerParsingMode

Representa o modo de análise para indexação de uma fonte de dados de blob do Azure.

KnownCharFilterNames

Define valores para CharFilterName.

KnownChatCompletionExtraParametersBehavior

Especifica como os 'extraParameters' devem ser tratados pelo Fábrica de IA do Azure. O padrão é 'error'.

KnownChatCompletionResponseFormatType

Especifica como o LLM deve formatar a resposta.

KnownContentUnderstandingSkillChunkingUnit

Controla a cardinalidade da unidade da parte. O padrão é 'caracteres'

KnownContentUnderstandingSkillExtractionOptions

Controla a cardinalidade do conteúdo extraído do documento pela habilidade.

KnownCustomEntityLookupSkillLanguage

Os códigos de idioma com suporte para texto de entrada por CustomEntityLookupSkill.

KnownDocumentIntelligenceLayoutSkillChunkingUnit

Controla a cardinalidade da unidade da parte. O padrão é 'caracteres'

KnownDocumentIntelligenceLayoutSkillExtractionOptions

Controla a cardinalidade do conteúdo extraído do documento pela habilidade.

KnownDocumentIntelligenceLayoutSkillMarkdownHeaderDepth

A profundidade dos cabeçalhos na saída de markdown. O padrão é h6.

KnownDocumentIntelligenceLayoutSkillOutputFormat

Controla a cardinalidade do formato de saída. O padrão é 'markdown'.

KnownDocumentIntelligenceLayoutSkillOutputMode

Controla a cardinalidade da saída produzida pela habilidade. O padrão é 'oneToMany'.

KnownEntityCategory

Uma cadeia de caracteres que indica quais categorias de entidade retornar.

KnownEntityRecognitionSkillLanguage

Os códigos de idioma com suporte para texto de entrada por EntityRecognitionSkill.

KnownImageAnalysisSkillLanguage

Os códigos de idioma com suporte para entrada por ImageAnalysisSkill.

KnownImageDetail

Uma cadeia de caracteres que indica quais detalhes específicos do domínio devem ser retornados.

KnownIndexProjectionMode

Define o comportamento das projeções de índice em relação ao restante do indexador.

KnownIndexerExecutionEnvironment

Especifica o ambiente no qual o indexador deve ser executado.

KnownIndexerResyncOption

Opções com vários tipos de dados de permissão para indexar.

KnownKeyPhraseExtractionSkillLanguage

Os códigos de idioma com suporte para texto de entrada por KeyPhraseExtractionSkill.

KnownKnowledgeBaseModelKind

O modelo de IA a ser usado para planejamento de consulta.

KnownKnowledgeSourceKind

O tipo de fonte de conhecimento.

KnownLexicalAnalyzerName

Define os nomes de todos os analisadores de texto suportados pelo mecanismo de pesquisa.

KnownLexicalNormalizerName

Define os nomes de todos os normalizadores de texto suportados pelo mecanismo de pesquisa.

KnownMarkdownHeaderDepth

Especifica a profundidade máxima do cabeçalho que será considerada ao agrupar o conteúdo de markdown. O padrão é h6.

KnownMarkdownParsingSubmode

Especifica o submodo que determinará se um arquivo markdown será analisado em exatamente um documento de pesquisa ou em vários documentos de pesquisa. O padrão é oneToMany.

KnownOcrLineEnding

Define a sequência de caracteres a ser usada entre as linhas de texto reconhecidas pela habilidade de OCR. O valor padrão é "espaço".

KnownOcrSkillLanguage

Os códigos de idioma suportados para entrada pelo OcrSkill.

KnownPIIDetectionSkillMaskingMode

Uma cadeia de caracteres que indica qual maskingMode usar para mascarar as informações pessoais detectadas no texto de entrada.

KnownQueryDebugMode

Habilita uma ferramenta de depuração que pode ser usada para explorar ainda mais os resultados da pesquisa. Você pode habilitar vários modos de depuração simultaneamente, separando-os com um | caractere, por exemplo: semantic|queryRewrites.

KnownRankingOrder

Representa a pontuação a ser usada para a ordem de classificação dos documentos.

KnownRegexFlags

Define uma flag de expressão regular que pode ser usada no analisador de padrões e no tokenizador de padrão.

KnownSearchAudience

Valores conhecidos para o Público de Pesquisa

KnownSearchFieldDataType

Define o tipo de dados de um campo em um índice de pesquisa.

KnownSearchIndexerDataSourceType

Define o tipo de uma fonte de dados.

KnownSemanticErrorMode

Permite ao usuário escolher se uma chamada semântica deve falhar completamente ou devolver resultados parciais.

KnownSemanticErrorReason

Motivo pelo qual uma resposta parcial foi retornada para uma solicitação de classificação semântica.

KnownSemanticSearchResultsType

Tipo de resposta parcial que foi retornada para uma solicitação de classificação semântica.

KnownSentimentSkillLanguage

Os códigos de idioma com suporte para texto de entrada por SentimentSkill.

KnownSplitSkillLanguage

Os códigos de idioma com suporte para texto de entrada por SplitSkill.

KnownTextSplitMode

Um valor que indica qual modo de divisão executar.

KnownTextTranslationSkillLanguage

Os códigos de idioma com suporte para texto de entrada por TextTranslationSkill.

KnownTokenFilterNames

Define valores para TokenFilterName.

KnownTokenizerNames

Define valores para TokenizerName.

KnownVectorEncodingFormat

O formato de codificação para interpretar o conteúdo do campo vetorial.

KnownVectorFilterMode

Determina se os filtros são aplicados antes ou depois da execução da pesquisa vetorial.

KnownVectorQueryKind

O tipo de consulta vetorial que está sendo executada.

KnownVectorSearchAlgorithmKind

O algoritmo usado para indexação e consulta.

KnownVectorSearchAlgorithmMetric

A métrica de similaridade a ser usada para comparações vetoriais. É recomendável escolher a mesma métrica de similaridade na qual o modelo de inserção foi treinado.

KnownVectorSearchCompressionKind

O método de compactação usado para indexação e consulta.

KnownVectorSearchCompressionRescoreStorageMethod

O método de armazenamento para os vetores originais de precisão total usados para operações de repontuação e índice interno.

KnownVectorSearchCompressionTarget

O tipo de dados quantizados de valores vetoriais compactados.

KnownVectorSearchVectorizerKind

O método de vetorização a ser usado durante o tempo de consulta.

KnownVisualFeature

As cadeias de caracteres que indicam quais tipos de recursos visuais retornar.

Funções

createSynonymMapFromFile(string, string)

Método auxiliar para criar um objeto SynonymMap. Este é um método somente NodeJS.

odata(TemplateStringsArray, unknown[])

Escapa de uma expressão de filtro odata para evitar erros com literais de cadeia de caracteres entre aspas. Uso de exemplo:

import { odata } from "@azure/search-documents";

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Para obter mais informações sobre a sintaxe com suporte, consulte: https://learn.microsoft.com/azure/search/search-query-odata-filter

Variáveis

DEFAULT_BATCH_SIZE

Tamanho padrão do lote

DEFAULT_FLUSH_WINDOW

Intervalo padrão de flush da janela

DEFAULT_RETRY_COUNT

Número padrão de vezes para tentar novamente.

Detalhes da função

createSynonymMapFromFile(string, string)

Método auxiliar para criar um objeto SynonymMap. Este é um método somente NodeJS.

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

Parâmetros

name

string

Nome do SynonymMap.

filePath

string

Caminho do arquivo que contém os sinônimos (semperados por novas linhas)

Retornos

Promise<SynonymMap>

Objeto SynonymMap

odata(TemplateStringsArray, unknown[])

Escapa de uma expressão de filtro odata para evitar erros com literais de cadeia de caracteres entre aspas. Uso de exemplo:

import { odata } from "@azure/search-documents";

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Para obter mais informações sobre a sintaxe com suporte, consulte: https://learn.microsoft.com/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

Parâmetros

strings

TemplateStringsArray

Matriz de cadeias de caracteres para a expressão

values

unknown[]

Matriz de valores para a expressão

Retornos

string

Detalhes da variável

DEFAULT_BATCH_SIZE

Tamanho padrão do lote

DEFAULT_BATCH_SIZE: number

Tipo

number

DEFAULT_FLUSH_WINDOW

Intervalo padrão de flush da janela

DEFAULT_FLUSH_WINDOW: number

Tipo

number

DEFAULT_RETRY_COUNT

Número padrão de vezes para tentar novamente.

DEFAULT_RETRY_COUNT: number

Tipo

number