@azure/search-documents package
Classes
| AzureKeyCredential |
Uma credencial baseada em chave estática que oferece suporte à atualização do valor da chave subjacente. |
| GeographyPoint |
Representa um ponto geográfico em coordenadas globais. |
| IndexDocumentsBatch |
Classe usada para executar operações em lote com vários documentos para o índice. |
| KnowledgeRetrievalClient |
Classe usada para realizar operações contra uma base de conhecimento. |
| SearchClient |
Classe usada para executar operações em um índice de pesquisa, incluindo consultar documentos no índice, bem como adicioná-los, atualizá-los e removê-los. |
| SearchIndexClient |
Classe para executar operações para gerenciar (criar, atualizar, listar/excluir) índices, & sinônimos de mapas. |
| SearchIndexerClient |
Classe para executar operações para gerenciar (criar, atualizar, listar/excluir) indexadores, fontes de dados & conjuntos de habilidades. |
| SearchIndexingBufferedSender |
Classe usada para executar operações em buffer em um índice de pesquisa, incluindo adição, atualização e remoção delas. |
Interfaces
| AIServices |
Parâmetros para Serviços de IA. |
| AIServicesAccountIdentity |
A conta multi-região de um recurso de serviço de IA do Azure que está associado a um conjunto de competências. |
| AIServicesAccountKey |
A chave de conta de um recurso de serviço de IA do Azure que está associado a um conjunto de competências, para ser usado com o subdomínio do recurso. |
| AnalyzeRequest |
Especifica alguns componentes de texto e análise usados para dividir esse texto em tokens. |
| AnalyzeResult |
O resultado do teste de um analisador em texto. |
| AnalyzedTokenInfo |
Informações sobre um token retornado por um analisador. |
| AsciiFoldingTokenFilter |
Converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 caracteres ASCII (o bloco Unicode "Basic Latin") em seus equivalentes ASCII, se tais equivalentes existirem. Este filtro de token é implementado usando Apache Lucene. |
| AutocompleteItem |
O resultado das solicitações de preenchimento automático. |
| AutocompleteRequest |
Parâmetros para correspondência difusa e outros comportamentos de consulta de preenchimento automático. |
| AutocompleteResult |
O resultado da consulta de preenchimento automático. |
| AzureActiveDirectoryApplicationCredentials |
Credenciais de um aplicativo registrado criado para seu serviço de pesquisa, usado para acesso autenticado às chaves de criptografia armazenadas no Cofre de Chaves do Azure. |
| AzureBlobKnowledgeSource |
Configuração para a fonte de conhecimento do Armazenamento de Blobs do Azure. |
| AzureBlobKnowledgeSourceParameters |
Parâmetros para a fonte de conhecimento do Armazenamento de Blobs do Azure. |
| AzureBlobKnowledgeSourceParams |
Especifica parâmetros de tempo de execução para uma fonte de conhecimento azure blob |
| AzureMachineLearningVectorizer |
Especifica um endpoint Azure Machine Learning implementado através do Azure AI Foundry Model Catalog para gerar a incorporação vetorial de uma cadeia de consulta. |
| AzureOpenAIEmbeddingSkill |
Permite gerar uma incorporação vetorial para uma determinada entrada de texto usando o recurso Azure OpenAI. |
| AzureOpenAIParameters |
Especifica os parâmetros para se conectar ao recurso OpenAI do Azure. |
| AzureOpenAIVectorizer |
Contém os parâmetros específicos para usar um serviço Azure Open AI para vetorização no momento da consulta. |
| BM25Similarity |
Função de classificação baseada no algoritmo de similaridade Okapi BM25. BM25 é um algoritmo do tipo TF-IDF que inclui normalização de comprimento (controlada pelo parâmetro 'b'), bem como saturação de frequência de termo (controlada pelo parâmetro 'k1'). |
| BaseAzureMachineLearningVectorizerParameters |
Especifica as propriedades comuns entre todos os tipos de autenticação do vetorizador AML. |
| BaseCharFilter |
Tipo de base para filtros de caracteres. |
| BaseCognitiveServicesAccount |
Tipo base para descrever qualquer recurso de serviço de IA do Azure anexado a um conjunto de habilidades. |
| BaseDataChangeDetectionPolicy |
Tipo de base para políticas de deteção de alterações de dados. |
| BaseDataDeletionDetectionPolicy |
Tipo de base para políticas de deteção de exclusão de dados. |
| BaseKnowledgeBaseActivityRecord |
Tipo de base para registos de atividade. Acompanha detalhes de execução, timing e erros nas operações da base de conhecimento. |
| BaseKnowledgeBaseMessageContent |
Especifica o tipo de conteúdo da mensagem. |
| BaseKnowledgeBaseModel |
Especifica os parâmetros de conexão para o modelo a ser usado para o planejamento de consultas. |
| BaseKnowledgeBaseReference |
Tipo de base para referências. |
| BaseKnowledgeRetrievalReasoningEffort |
Tipo base para esforço de raciocínio. |
| BaseKnowledgeSource |
Representa uma definição de fonte de conhecimento. |
| BaseKnowledgeSourceParams |
Tipo base para parâmetros de runtime da fonte de conhecimento. |
| BaseKnowledgeSourceVectorizer |
Especifica o método de vetorização a ser usado para o modelo de imersão de fontes de conhecimento. |
| BaseLexicalAnalyzer |
Tipo de base para analisadores. |
| BaseLexicalNormalizer |
Tipo de base para normalizadores. |
| BaseLexicalTokenizer |
Tipo de base para tokenizadores. |
| BaseScoringFunction |
Tipo base para funções que podem modificar pontuações de documentos durante a classificação. |
| BaseSearchIndexerDataIdentity |
Tipo de base abstrata para identidades de dados. |
| BaseSearchIndexerSkill |
Tipo de base para competências. |
| BaseSearchRequestOptions |
Parâmetros para filtragem, classificação, facetagem, paginação e outros comportamentos de consulta de pesquisa. |
| BaseSimilarityAlgorithm |
Tipo de base para algoritmos de semelhança. Algoritmos de semelhança são usados para calcular pontuações que vinculam consultas a documentos. Quanto maior a pontuação, mais relevante é o documento para aquela consulta específica. Essas pontuações são usadas para classificar os resultados da pesquisa. |
| BaseTokenFilter |
Tipo base para filtros de token. |
| BaseVectorQuery |
Os parâmetros de consulta para consultas de pesquisa vetoriais e híbridas. |
| BaseVectorSearchAlgorithmConfiguration |
Contém opções de configuração específicas para o algoritmo usado durante a indexação e/ou consulta. |
| BaseVectorSearchCompression |
Contém opções de configuração específicas para o método de compactação usado durante a indexação ou consulta. |
| BaseVectorSearchVectorizer |
Contém detalhes específicos para um método de vetorização a ser usado durante o tempo de consulta. |
| BinaryQuantizationCompression |
Contém opções de configuração específicas para o método de compactação de quantização binária usado durante a indexação e consulta. |
| ChatCompletionResponseFormat |
Determina como a resposta do modelo de linguagem deve ser serializada. O padrão é 'texto'. |
| ChatCompletionResponseFormatJsonSchemaProperties |
Propriedades para o formato de resposta de esquema JSON. |
| ChatCompletionSchema |
Objeto que define o esquema personalizado que o modelo usará para estruturar sua saída. |
| ChatCompletionSkill |
Uma competência que chama um modelo de linguagem através do endpoint Chat Completions do Azure AI Foundry. |
| CjkBigramTokenFilter |
Forma bigramas de termos CJK que são gerados a partir do tokenizador padrão. Este filtro de token é implementado usando Apache Lucene. |
| ClassicSimilarity |
Algoritmo de similaridade legado que usa a implementação Lucene TFIDFSimilarity do TF-IDF. Esta variação de TF-IDF introduz a normalização estática do comprimento do documento, bem como fatores de coordenação que penalizam documentos que correspondem apenas parcialmente às consultas pesquisadas. |
| ClassicTokenizer |
Tokenizador baseado em gramática que é adequado para processar a maioria dos documentos em língua europeia. Este tokenizador é implementado usando Apache Lucene. |
| CognitiveServicesAccountKey |
A chave de conta de várias regiões de um recurso de serviço de IA do Azure anexado a um conjunto de habilidades. |
| CommonGramTokenFilter |
Construa bigramas para termos frequentes durante a indexação. Os termos isolados também continuam indexados, com bigramas sobrepostos. Este filtro de token é implementado usando Apache Lucene. |
| CommonModelParameters |
Parâmetros de modelo de linguagem comum para Conclusão de Chat. Se omitidos, os valores padrão são usados. |
| CompletedSynchronizationState |
Representa o estado concluído da última sincronização. |
| ComplexField |
Representa um campo em uma definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo. |
| ConditionalSkill |
Uma habilidade que permite que cenários que exigem uma operação booleana determinem os dados a serem atribuídos a uma saída. |
| ContentUnderstandingSkill |
Uma competência que aproveita o Azure AI Content Understanding para processar e extrair insights estruturados de documentos, permitindo conteúdos enriquecidos e pesquisáveis para uma indexação e recuperação melhorada de documentos. |
| ContentUnderstandingSkillChunkingProperties |
Controla a cardinalidade para fragmentar o conteúdo. |
| CorsOptions |
Define opções para controlar o CORS (Cross-Origin Resource Sharing) para um índice. |
| CreateKnowledgeBaseOptions | |
| CreateKnowledgeSourceOptions | |
| CreateOrUpdateAliasOptions |
Opções para criar ou atualizar a operação de alias. |
| CreateOrUpdateIndexOptions |
Opções para a operação de criação/atualização do índice. |
| CreateOrUpdateKnowledgeBaseOptions | |
| CreateOrUpdateKnowledgeSourceOptions | |
| CreateOrUpdateSkillsetOptions |
Opções para criar/atualizar a operação do conjunto de habilidades. |
| CreateOrUpdateSynonymMapOptions |
Opções para criar/atualizar operação de mapa de sinônimos. |
| CreateorUpdateDataSourceConnectionOptions |
Opções para a operação de criação/atualização da fonte de dados. |
| CreateorUpdateIndexerOptions |
Opções para a operação do indexador de criação/atualização. |
| CustomAnalyzer |
Permite que você assuma o controle sobre o processo de conversão de texto em tokens indexáveis/pesquisáveis. É uma configuração definida pelo usuário que consiste em um único tokenizador predefinido e um ou mais filtros. O tokenizador é responsável por dividir o texto em tokens, e os filtros para modificar tokens emitidos pelo tokenizador. |
| CustomEntity |
Um objeto que contém informações sobre as correspondências encontradas e metadados relacionados. |
| CustomEntityAlias |
Um objeto complexo que pode ser usado para especificar grafias alternativas ou sinônimos para o nome da entidade raiz. |
| CustomEntityLookupSkill |
Uma habilidade procura texto a partir de uma lista personalizada e definida pelo usuário de palavras e frases. |
| CustomLexicalNormalizer |
Permite configurar a normalização para campos filtráveis, classificáveis e facetable, que, por padrão, operam com correspondência estrita. Esta é uma configuração definida pelo usuário que consiste em pelo menos um ou mais filtros, que modificam o token armazenado. |
| DefaultCognitiveServicesAccount |
Um objeto vazio que representa o recurso de serviço de IA padrão do Azure para um conjunto de habilidades. |
| DeleteAliasOptions |
Opções para a operação de alias de exclusão. |
| DeleteDataSourceConnectionOptions |
Opções para a operação de exclusão da fonte de dados. |
| DeleteIndexOptions |
Opções para operação de índice de exclusão. |
| DeleteIndexerOptions |
Opções para a operação do indexador de exclusão. |
| DeleteKnowledgeBaseOptions | |
| DeleteKnowledgeSourceOptions | |
| DeleteSkillsetOptions |
Opções para excluir skillset operaion. |
| DeleteSynonymMapOptions |
Opções para excluir operação de mapa de sinônimos. |
| DictionaryDecompounderTokenFilter |
Decompõe palavras compostas encontradas em muitas línguas germânicas. Este filtro de token é implementado usando Apache Lucene. |
| DistanceScoringFunction |
Define uma função que aumenta as pontuações com base na distância de uma localização geográfica. |
| DistanceScoringParameters |
Fornece valores de parâmetros para uma função de pontuação de distância. |
| DocumentDebugInfo |
Contém informações de depuração que podem ser usadas para explorar ainda mais os resultados da pesquisa. |
| DocumentExtractionSkill |
Uma habilidade que extrai conteúdo de um arquivo dentro do pipeline de enriquecimento. |
| DocumentIntelligenceLayoutSkill |
Uma habilidade que extrai conteúdo e informações de layout (como markdown), por meio dos Serviços de IA do Azure, de arquivos dentro do pipeline de enriquecimento. |
| DocumentIntelligenceLayoutSkillChunkingProperties |
Controla a cardinalidade para fragmentar o conteúdo. |
| EdgeNGramTokenFilter |
Gera n-gramas do(s) tamanho(s) determinado(s) a partir da frente ou do verso de um token de entrada. Este filtro de token é implementado usando Apache Lucene. |
| EdgeNGramTokenizer |
Tokeniza a entrada de uma borda em n-gramas do(s) tamanho(s) determinado(s). Este tokenizador é implementado usando Apache Lucene. |
| ElisionTokenFilter |
Remove elisões. Por exemplo, "l'avion" (o avião) será convertido em "avion" (avião). Este filtro de token é implementado usando Apache Lucene. |
| EntityLinkingSkill |
Usando a API de Análise de Texto, extrai entidades vinculadas do texto. |
| EntityRecognitionSkill |
Reconhecimento de entidades de análise de texto. |
| EntityRecognitionSkillV3 |
Usando a API de Análise de Texto, extrai entidades de diferentes tipos do texto. |
| ExhaustiveKnnParameters |
Contém os parâmetros específicos para o algoritmo KNN exaustivo. |
| ExtractiveQueryAnswer |
Extrai os candidatos de resposta do conteúdo dos documentos devolvidos em resposta a uma consulta expressa como uma pergunta em linguagem natural. |
| ExtractiveQueryCaption |
Extrai legendas dos documentos correspondentes que contêm passagens relevantes para a consulta de pesquisa. |
| FacetResult |
Um único bucket de um resultado de consulta de faceta. Relata o número de documentos com um valor de campo dentro de um intervalo específico ou com um determinado valor ou intervalo. |
| FieldMapping |
Define um mapeamento entre um campo em uma fonte de dados e um campo de destino em um índice. |
| FieldMappingFunction |
Representa uma função que transforma um valor de uma fonte de dados antes da indexação. |
| FreshnessScoringFunction |
Define uma função que aumenta as pontuações com base no valor de um campo de data e hora. |
| FreshnessScoringParameters |
Fornece valores de parâmetro para uma função de pontuação de frescor. |
| GenerativeQueryRewrites |
Gere termos de consulta alternativos para aumentar a recuperação de uma solicitação de pesquisa. |
| GetDocumentOptions |
Opções para recuperar um único documento. |
| GetKnowledgeBaseOptions | |
| GetKnowledgeSourceOptions | |
| GetKnowledgeSourceStatusOptions | |
| HighWaterMarkChangeDetectionPolicy |
Define uma política de deteção de alteração de dados que captura as alterações com base no valor de uma coluna de marca d'água alta. |
| HnswParameters |
Contém os parâmetros específicos do algoritmo hnsw. |
| ImageAnalysisSkill |
Uma habilidade que analisa arquivos de imagem. Ele extrai um rico conjunto de recursos visuais com base no conteúdo da imagem. |
| IndexDocumentsClient |
Cliente de documentos de índice |
| IndexDocumentsOptions |
Opções para a operação de lote de índice de modificação. |
| IndexDocumentsResult |
Resposta contendo o status das operações para todos os documentos na solicitação de indexação. |
| IndexedOneLakeKnowledgeSource |
Configuração para a fonte de conhecimento do OneLake. |
| IndexedOneLakeKnowledgeSourceParameters |
Parâmetros para a fonte de conhecimento OneLake. |
| IndexedOneLakeKnowledgeSourceParams |
Especifica parâmetros de tempo de execução para uma fonte de conhecimento OneLake indexada |
| IndexerExecutionResult |
Representa o resultado de uma execução de indexador individual. |
| IndexingParameters |
Representa parâmetros para execução do indexador. |
| IndexingParametersConfiguration |
Um dicionário de propriedades de configuração específicas do indexador. Cada nome é o nome de uma propriedade específica. Cada valor deve ser de um tipo primitivo. |
| IndexingResult |
Status de uma operação de indexação para um único documento. |
| IndexingSchedule |
Representa uma agenda para a execução do indexador. |
| InputFieldMappingEntry |
Mapeamento de campo de entrada para uma habilidade. |
| KeepTokenFilter |
Um filtro de token que mantém apenas tokens com texto contido em uma lista especificada de palavras. Este filtro de token é implementado usando Apache Lucene. |
| KeyAuthAzureMachineLearningVectorizerParameters |
Especifica as propriedades para se conectar a um vetorizador AML com uma chave de autenticação. |
| KeyPhraseExtractionSkill |
Uma habilidade que usa análise de texto para extração de frases-chave. |
| KeywordMarkerTokenFilter |
Marca termos como palavras-chave. Este filtro de token é implementado usando Apache Lucene. |
| KeywordTokenizer |
Emite toda a entrada como um único token. Este tokenizador é implementado usando Apache Lucene. |
| KnowledgeBase | |
| KnowledgeBaseAgenticReasoningActivityRecord |
Representa um registro de atividade de raciocínio agentico. |
| KnowledgeBaseAzureBlobReference |
Representa uma referência de documento do Armazenamento de Blobs do Azure. |
| KnowledgeBaseAzureOpenAIModel |
Especifica o recurso OpenAI do Azure usado para fazer o planejamento de consultas. |
| KnowledgeBaseErrorAdditionalInfo |
O erro de gerenciamento de recursos informações adicionais. |
| KnowledgeBaseErrorDetail |
Os detalhes do erro. |
| KnowledgeBaseIndexedOneLakeReference |
Representa uma referência indexada de documento OneLake. |
| KnowledgeBaseMessage |
O objeto de estilo de mensagem em linguagem natural. |
| KnowledgeBaseMessageImageContent |
Tipo de mensagem de imagem. |
| KnowledgeBaseMessageImageContentImage |
Conteúdo da imagem. |
| KnowledgeBaseMessageTextContent |
Tipo de mensagem de texto. |
| KnowledgeBaseModelWebSummarizationActivityRecord |
Representa um registo de atividade de sumarização web de LLM. |
| KnowledgeBaseRetrievalRequest |
O contrato de entrada para a solicitação de recuperação. |
| KnowledgeBaseRetrievalResponse |
O contrato de saída para a resposta de recuperação. |
| KnowledgeBaseSearchIndexReference |
Representa uma referência de documento da Pesquisa do Azure. |
| KnowledgeBaseWebReference |
Representa uma referência de documento web. |
| KnowledgeRetrievalClientOptions |
Opções de cliente usadas para configurar solicitações de API de Pesquisa Cognitiva. |
| KnowledgeRetrievalIntent |
Uma consulta destinada a ser executada sem planeamento de consultas de modelo. |
| KnowledgeRetrievalMinimalReasoningEffort |
Execute a recuperação de conhecimento com o mínimo esforço de raciocínio. |
| KnowledgeRetrievalSemanticIntent |
Uma intenção de consulta semântica. |
| KnowledgeSourceAzureOpenAIVectorizer |
Especifica o recurso do Azure OpenAI usado para vetorizar uma cadeia de caracteres de consulta. |
| KnowledgeSourceIngestionParameters |
Consolida todas as configurações gerais de ingestão para fontes de conhecimento. |
| KnowledgeSourceReference |
Referência a uma fonte de conhecimento. |
| KnowledgeSourceStatistics |
Informações estatísticas sobre o histórico de sincronização da fonte de conhecimento. |
| KnowledgeSourceStatus |
Representa o status e o histórico de sincronização de uma fonte de conhecimento. |
| KnowledgeSourceSynchronizationError |
Representa um erro de indexação ao nível do documento encontrado durante uma execução de sincronização de fonte de conhecimento. |
| LanguageDetectionSkill |
Uma habilidade que deteta o idioma do texto de entrada e relata um único código de idioma para cada documento enviado na solicitação. O código da linguagem é emparelhado com uma pontuação que indica a confiança da análise. |
| LengthTokenFilter |
Remove palavras muito longas ou curtas. Este filtro de token é implementado usando Apache Lucene. |
| LimitTokenFilter |
Limita o número de tokens durante a indexação. Este filtro de token é implementado usando Apache Lucene. |
| ListKnowledgeBasesOptions | |
| ListKnowledgeSourcesOptions | |
| ListSearchResultsPageSettings |
Argumentos para recuperar a próxima página de resultados da pesquisa. |
| LuceneStandardAnalyzer |
Analisador Apache Lucene padrão; Composto pelo tokenizador padrão, filtro minúsculo e filtro stop. |
| LuceneStandardTokenizer |
Quebra o texto seguindo as regras de segmentação de texto Unicode. Este tokenizador é implementado usando Apache Lucene. |
| MagnitudeScoringFunction |
Define uma função que aumenta as pontuações com base na magnitude de um campo numérico. |
| MagnitudeScoringParameters |
Fornece valores de parâmetros para uma função de pontuação de magnitude. |
| MappingCharFilter |
Um filtro de caracteres que aplica mapeamentos definidos com a opção mapeamentos. A correspondência é gananciosa (a correspondência de padrão mais longa em um determinado ponto vence). A substituição pode ser a cadeia de caracteres vazia. Este filtro de caracteres é implementado usando Apache Lucene. |
| MergeSkill |
Uma habilidade para mesclar duas ou mais cadeias de caracteres em uma única cadeia de caracteres unificada, com um delimitador opcional definido pelo usuário separando cada parte do componente. |
| MicrosoftLanguageStemmingTokenizer |
Divide o texto usando regras específicas do idioma e reduz as palavras às suas formas base. |
| MicrosoftLanguageTokenizer |
Divide o texto usando regras específicas do idioma. |
| NGramTokenFilter |
Gera n-gramas do(s) tamanho(s) fornecido(s). Este filtro de token é implementado usando Apache Lucene. |
| NGramTokenizer |
Tokeniza a entrada em n-gramas do(s) tamanho(s) fornecido(s). Este tokenizador é implementado usando Apache Lucene. |
| NativeBlobSoftDeleteDeletionDetectionPolicy |
Define uma política de deteção de exclusão de dados utilizando o recurso nativo de exclusão suave do Armazenamento de Blob do Azure para deteção de exclusão. |
| NoAuthAzureMachineLearningVectorizerParameters |
Especifica as propriedades para se conectar a um vetorizador AML sem autenticação. |
| OcrSkill |
Uma habilidade que extrai texto de arquivos de imagem. |
| OutputFieldMappingEntry |
Mapeamento de campo de saída para uma habilidade. |
| PIIDetectionSkill |
Usando a API de Análise de Texto, extrai informações pessoais de um texto de entrada e oferece a opção de mascará-lo. |
| PageSettings |
Opções para o método byPage |
| PagedAsyncIterableIterator |
Uma interface que permite iteração assíncrona iterável até a conclusão e por página. |
| PathHierarchyTokenizer |
Tokenizador para hierarquias semelhantes a caminhos. Este tokenizador é implementado usando Apache Lucene. |
| PatternAnalyzer |
Separa o texto de forma flexível em termos através de um padrão de expressão regular. Este analisador é implementado usando Apache Lucene. |
| PatternCaptureTokenFilter |
Usa regexes Java para emitir vários tokens - um para cada grupo de captura em um ou mais padrões. Este filtro de token é implementado usando Apache Lucene. |
| PatternReplaceCharFilter |
Um filtro de caracteres que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres para preservar e um padrão de substituição para identificar caracteres a serem substituídos. Por exemplo, dado o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Este filtro de caracteres é implementado usando Apache Lucene. |
| PatternReplaceTokenFilter |
Um filtro de caracteres que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres para preservar e um padrão de substituição para identificar caracteres a serem substituídos. Por exemplo, dado o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Este filtro de token é implementado usando Apache Lucene. |
| PatternTokenizer |
Tokenizador que usa a correspondência de padrões regex para construir tokens distintos. Este tokenizador é implementado usando Apache Lucene. |
| PhoneticTokenFilter |
Crie tokens para correspondências fonéticas. Este filtro de token é implementado usando Apache Lucene. |
| QueryAnswerResult |
Uma resposta é uma passagem de texto extraída do conteúdo dos documentos mais relevantes que correspondem à consulta. As respostas são extraídas dos principais resultados da pesquisa. Os candidatos às respostas são pontuados e as melhores respostas são selecionadas. |
| QueryCaptionResult |
As legendas são as passagens mais representativas do documento em relação à consulta de pesquisa.
São frequentemente utilizados como resumo de documentos. As legendas só são retornadas para consultas do tipo |
| QueryResultDocumentSemanticField |
Descrição dos campos que foram enviados para o processo de enriquecimento semântico, bem como como foram utilizados |
| QueryResultDocumentSubscores |
A divisão de subpontuações entre os componentes de consulta de texto e vetor da consulta de pesquisa para este documento. Cada consulta vetorial é mostrada como um objeto separado na mesma ordem em que foram recebidas. |
| RescoringOptions |
Contém as opções para pontuação. |
| ResourceCounter |
Representa o uso e a cota de um recurso. |
| RetrieveOptions | |
| ScalarQuantizationCompression |
Contém opções de configuração específicas para o método de compressão de quantização escalar usado durante a indexação e consulta. |
| ScalarQuantizationParameters |
Contém os parâmetros específicos da Quantização Escalar. |
| ScoringProfile |
Define parâmetros para um índice de pesquisa que influenciam a pontuação em consultas de pesquisa. |
| SearchAlias |
Representa um alias de índice, que descreve um mapeamento do nome do alias para um índice. O nome do alias pode ser usado no lugar do nome do índice para operações suportadas. |
| SearchClientOptions |
Opções de cliente usadas para configurar solicitações de API de pesquisa de IA. |
| SearchDocumentsPageResult |
Resposta que contém resultados de página de pesquisa de um índice. |
| SearchDocumentsResult |
Resposta que contém resultados de pesquisa de um índice. |
| SearchDocumentsResultBase |
Resposta que contém resultados de pesquisa de um índice. |
| SearchIndex |
Representa uma definição de índice de pesquisa, que descreve os campos e o comportamento de pesquisa de um índice. |
| SearchIndexClientOptions |
Opções de cliente usadas para configurar solicitações de API de pesquisa de IA. |
| SearchIndexFieldReference |
Referência de campo para um índice de pesquisa. |
| SearchIndexKnowledgeSource |
Fonte de conhecimento direcionada a um índice de pesquisa. |
| SearchIndexKnowledgeSourceParameters |
Parâmetros para a fonte de conhecimento do índice de pesquisa. |
| SearchIndexKnowledgeSourceParams |
Especifica parâmetros de tempo de execução para uma fonte de conhecimento de índice de pesquisa |
| SearchIndexStatistics |
Estatísticas para um determinado índice. As estatísticas são recolhidas periodicamente e não é garantido que estejam sempre up-todata. |
| SearchIndexer |
Representa um indexador. |
| SearchIndexerClientOptions |
Opções de cliente usadas para configurar solicitações de API de pesquisa de IA. |
| SearchIndexerDataContainer |
Representa informações sobre a entidade (como a tabela SQL do Azure ou a coleção CosmosDB) que será indexada. |
| SearchIndexerDataNoneIdentity |
Limpa a propriedade identity de uma fonte de dados. |
| SearchIndexerDataSourceConnection |
Representa uma definição de fonte de dados, que pode ser usada para configurar um indexador. |
| SearchIndexerDataUserAssignedIdentity |
Especifica a identidade a ser usada por uma fonte de dados. |
| SearchIndexerError |
Representa um erro de indexação no nível de item ou documento. |
| SearchIndexerIndexProjection |
Definição de projeções adicionais para índices de pesquisa secundários. |
| SearchIndexerIndexProjectionParameters |
Um dicionário de propriedades de configuração específicas de projeção de índice. Cada nome é o nome de uma propriedade específica. Cada valor deve ser de um tipo primitivo. |
| SearchIndexerIndexProjectionSelector |
Descrição dos dados a armazenar no índice de pesquisa designado. |
| SearchIndexerKnowledgeStore |
Definição de projeções adicionais para azure blob, tabela ou arquivos, de dados enriquecidos. |
| SearchIndexerKnowledgeStoreBlobProjectionSelector |
Classe abstrata para compartilhar propriedades entre seletores concretos. |
| SearchIndexerKnowledgeStoreFileProjectionSelector |
Definição de projeção para quais dados armazenar nos Arquivos do Azure. |
| SearchIndexerKnowledgeStoreObjectProjectionSelector |
Definição de projeção para quais dados armazenar no Blob do Azure. |
| SearchIndexerKnowledgeStoreParameters |
Um dicionário de propriedades de configuração específicas do repositório de conhecimento. Cada nome é o nome de uma propriedade específica. Cada valor deve ser de um tipo primitivo. |
| SearchIndexerKnowledgeStoreProjection |
Objeto de contêiner para vários seletores de projeção. |
| SearchIndexerKnowledgeStoreProjectionSelector |
Classe abstrata para compartilhar propriedades entre seletores concretos. |
| SearchIndexerKnowledgeStoreTableProjectionSelector |
Descrição dos dados a armazenar nas Tabelas do Azure. |
| SearchIndexerLimits |
Representa os limites que podem ser aplicados a um indexador. |
| SearchIndexerSkillset |
Uma lista de competências. |
| SearchIndexerStatus |
Representa o status atual e o histórico de execução de um indexador. |
| SearchIndexerWarning |
Representa um aviso no nível do item. |
| SearchIndexingBufferedSenderOptions |
Opções para SearchIndexingBufferedSender. |
| SearchResourceEncryptionKey |
Uma chave de criptografia gerenciada pelo cliente no Cofre de Chaves do Azure. As chaves que você cria e gerencia podem ser usadas para criptografar ou descriptografar dados em repouso no Pesquisa de IA do Azure, como índices e mapas de sinônimos. |
| SearchServiceStatistics |
Resposta de uma solicitação de estatísticas de serviço get. Se for bem-sucedido, inclui contadores e limites de nível de serviço. |
| SemanticConfiguration |
Define uma configuração específica a ser usada no contexto de recursos semânticos. |
| SemanticDebugInfo |
Opções de depuração para consultas de pesquisa semântica. |
| SemanticField |
Um campo que é usado como parte da configuração semântica. |
| SemanticPrioritizedFields |
Descreve os campos de título, conteúdo e palavras-chave a serem usados para classificação semântica, legendas, destaques e respostas. |
| SemanticSearch |
Define parâmetros para um índice de pesquisa que influenciam os recursos semânticos. |
| SemanticSearchOptions |
Define opções para consultas de pesquisa semântica |
| SentimentSkill |
Análise de sentimento positivo-negativo de análise de texto, pontuada como um valor de ponto flutuante em um intervalo de zero a 1. |
| SentimentSkillV3 |
Usando a API de Análise de Texto, avalia texto não estruturado e, para cada registro, fornece rótulos de sentimento (como "negativo", "neutro" e "positivo") com base na pontuação de confiança mais alta encontrada pelo serviço em nível de frase e documento. |
| ServiceCounters |
Representa contadores de recursos e cotas de nível de serviço. |
| ServiceLimits |
Representa vários limites de nível de serviço. |
| ShaperSkill |
Uma habilidade para remodelar os resultados. Ele cria um tipo complexo para suportar campos compostos (também conhecidos como campos de várias partes). |
| ShingleTokenFilter |
Cria combinações de tokens como um único token. Este filtro de token é implementado usando Apache Lucene. |
| SimpleField |
Representa um campo em uma definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo. |
| SingleVectorFieldResult |
Um único resultado de campo vetorial. Both |
| SnowballTokenFilter |
Um filtro que deriva palavras usando um lematizador gerado por Bola-de-Neve. Este filtro de token é implementado usando Apache Lucene. |
| SoftDeleteColumnDeletionDetectionPolicy |
Define uma política de deteção de exclusão de dados que implementa uma estratégia de exclusão suave. Determina se um item deve ser excluído com base no valor de uma coluna designada de 'exclusão suave'. |
| SplitSkill |
Uma habilidade para dividir uma cadeia de caracteres em pedaços de texto. |
| SqlIntegratedChangeTrackingPolicy |
Define uma política de deteção de alterações de dados que captura alterações usando o recurso Controle Integrado de Alterações do Banco de Dados SQL do Azure. |
| StemmerOverrideTokenFilter |
Fornece a capacidade de substituir outros filtros de derivação com derivação personalizada baseada em dicionário. Quaisquer termos dicionários serão marcados como palavras-chave para que não sejam engessados com lematizadores ao longo da cadeia. Deve ser colocado antes de quaisquer filtros de derivação. Este filtro de token é implementado usando Apache Lucene. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html |
| StemmerTokenFilter |
Filtro de derivação específico da linguagem. Este filtro de token é implementado usando Apache Lucene. Veja https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters |
| StopAnalyzer |
Divide o texto em não-letras; Aplica os filtros de token minúsculo e stopword. Este analisador é implementado usando Apache Lucene. |
| StopwordsTokenFilter |
Remove palavras de parada de um fluxo de token. Este filtro de token é implementado usando Apache Lucene. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html |
| SuggestDocumentsResult |
Resposta contendo resultados de consulta de sugestão de um índice. |
| SuggestRequest |
Parâmetros para filtragem, classificação, correspondência difusa e outros comportamentos de consulta de sugestões. |
| Suggester |
Define como a API Sugerir deve ser aplicada a um grupo de campos no índice. |
| SynchronizationState |
Representa o estado atual de uma sincronização contínua que abrange várias execuções de indexador. |
| SynonymMap |
Representa uma definição de mapa de sinônimo. |
| SynonymTokenFilter |
Corresponde a sinônimos de uma ou várias palavras em um fluxo de token. Este filtro de token é implementado usando Apache Lucene. |
| TagScoringFunction |
Define uma função que aumenta pontuações de documentos com valores de cadeia de caracteres correspondentes a uma determinada lista de tags. |
| TagScoringParameters |
Fornece valores de parâmetro para uma função de pontuação de tag. |
| TextResult |
A pontuação BM25 ou Classic para a parte de texto da consulta. |
| TextTranslationSkill |
Uma habilidade para traduzir texto de um idioma para outro. |
| TextWeights |
Define pesos em campos de índice para os quais as correspondências devem aumentar a pontuação em consultas de pesquisa. |
| TokenAuthAzureMachineLearningVectorizerParameters |
Especifica as propriedades para se conectar a um vetorizador AML com uma identidade gerenciada. |
| TruncateTokenFilter |
Trunca os termos até um comprimento específico. Este filtro de token é implementado usando Apache Lucene. |
| UaxUrlEmailTokenizer |
Tokeniza urls e e-mails como um token. Este tokenizador é implementado usando Apache Lucene. |
| UniqueTokenFilter |
Filtra tokens com o mesmo texto do token anterior. Este filtro de token é implementado usando Apache Lucene. |
| VectorSearch |
Contém opções de configuração relacionadas à pesquisa vetorial. |
| VectorSearchOptions |
Define opções para consultas de pesquisa vetorial |
| VectorSearchProfile |
Define uma combinação de configurações a serem usadas com a pesquisa vetorial. |
| VectorizableImageBinaryQuery |
Os parâmetros de consulta a serem usados para pesquisa vetorial quando um binário codificado de base 64 de uma imagem que precisa ser vetorizada é fornecido. |
| VectorizableImageUrlQuery |
Os parâmetros de consulta a serem usados para pesquisa vetorial quando uma url que representa um valor de imagem que precisa ser vetorizado é fornecida. |
| VectorizableTextQuery |
Os parâmetros de consulta a serem usados para pesquisa vetorial quando um valor de texto que precisa ser vetorizado é fornecido. |
| VectorizedQuery |
Os parâmetros de consulta a serem usados para pesquisa vetorial quando um valor vetorial bruto é fornecido. |
| VectorsDebugInfo |
"Contém informação de depuração específica para pesquisa vetorial e híbrida.") |
| WebApiParameters |
Especifica as propriedades para conexão a um vetorizador definido pelo usuário. |
| WebApiSkill |
Uma habilidade que pode chamar um ponto de extremidade de API da Web, permitindo que você estenda um conjunto de habilidades fazendo com que ele chame seu código personalizado. |
| WebApiVectorizer |
Especifica um vetorizador definido pelo usuário para gerar a incorporação vetorial de uma cadeia de caracteres de consulta. A integração de um vetorizador externo é obtida usando a interface personalizada da API Web de um conjunto de habilidades. |
| WebKnowledgeSource |
Fonte de conhecimento direcionada para resultados da Web. |
| WebKnowledgeSourceDomain |
Configuração para domínio de origem de conhecimento web. |
| WebKnowledgeSourceDomains |
Configuração de domínio permitir/bloquear para a fonte de conhecimento web. |
| WebKnowledgeSourceParameters |
Parâmetros para a fonte de conhecimento web. |
| WebKnowledgeSourceParams |
Especifica parâmetros de tempo de execução para uma fonte de conhecimento da Web |
| WordDelimiterTokenFilter |
Divide palavras em subpalavras e executa transformações opcionais em grupos de subpalavras. Este filtro de token é implementado usando Apache Lucene. |
Aliases de Tipo
| AIFoundryModelCatalogName |
O nome do modelo de embedding do
Azure AI Foundry Catalog que será chamado. Valores conhecidos suportados pelo serviço
OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32: OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32 |
| AliasIterator |
Um iterador para listar os aliases existentes no serviço de Pesquisa. Isso fará solicitações conforme necessário durante a iteração. Use .byPage() para fazer uma solicitação ao servidor por iteração. |
| AnalyzeTextOptions |
Opções para analisar operação de texto. |
| AutocompleteMode |
Especifica o modo de Preenchimento Automático. O padrão é 'oneTerm'. Use 'twoTerms' para obter shingles e 'oneTermWithContext' para usar o contexto atual na produção de termos de preenchimento automático. |
| AutocompleteOptions |
Opções para recuperar texto de conclusão para um searchText parcial. |
| AzureMachineLearningVectorizerParameters |
Especifica as propriedades para conexão a um vetorizador AML. |
| AzureOpenAIModelName |
O nome do modelo de IA aberta do Azure que será chamado. Valores conhecidos suportados pelo serviço
text-embedding-ada-002: modelo TextEmbeddingAda002. |
| BaseKnowledgeRetrievalIntent |
Alias para KnowledgeRetrievalIntentUnion |
| BlobIndexerDataToExtract | |
| BlobIndexerImageAction | |
| BlobIndexerPDFTextRotationAlgorithm | |
| BlobIndexerParsingMode | |
| CharFilter |
Contém os casos possíveis para CharFilter. |
| CharFilterName |
Define os nomes de todos os filtros de caracteres suportados pelo mecanismo de pesquisa. Valores conhecidos suportados pelo serviçohtml_strip: Um filtro de caracteres que tenta remover construções HTML. Veja https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
| ChatCompletionExtraParametersBehavior |
Especifica como os 'extraParâmetros' devem ser tratados pelo
Azure AI Foundry. O padrão é 'error'. Valores conhecidos suportados pelo serviço
passThrough: Passa quaisquer parâmetros extras diretamente para o modelo. |
| ChatCompletionResponseFormatType |
Especifica como o LLM deve formatar a resposta. Valores conhecidos suportados pelo serviço
texto: Formato de resposta em texto simples. |
| CjkBigramTokenFilterScripts |
Scripts que podem ser ignorados por CjkBigramTokenFilter. |
| CognitiveServicesAccount |
Contém os possíveis casos para CognitiveServicesAccount. |
| ComplexDataType |
Define valores para ComplexDataType. Os valores possíveis incluem: 'Edm.ComplexType', 'Collection(Edm.ComplexType)' |
| ContentUnderstandingSkillChunkingUnit |
Controla a cardinalidade da unidade de bloco. O padrão é 'personagens' Valores conhecidos suportados pelo serviçocaracteres: especifica bloco por caracteres. |
| ContentUnderstandingSkillExtractionOptions |
Controla a cardinalidade do conteúdo extraído do documento pela habilidade. Valores conhecidos suportados pelo serviço
imagens: especifique que o conteúdo da imagem deve ser extraído do documento. |
| ContinuablePage |
Uma interface que descreve uma página de resultados. |
| CountDocumentsOptions |
Opções para executar a operação de contagem no índice. |
| CreateAliasOptions |
Opções para criar operação de alias. |
| CreateDataSourceConnectionOptions |
Opções para criar operação de fonte de dados. |
| CreateIndexOptions |
Opções para criar operação de índice. |
| CreateIndexerOptions |
Opções para criar operação de indexador. |
| CreateSkillsetOptions |
Opções para criar operação de conjunto de habilidades. |
| CreateSynonymMapOptions |
Opções para criar operação de mapa de sinônimos. |
| CustomEntityLookupSkillLanguage | |
| DataChangeDetectionPolicy |
Contém os casos possíveis para DataChangeDetectionPolicy. |
| DataDeletionDetectionPolicy |
Contém os casos possíveis para DataDeletionDetectionPolicy. |
| DeleteDocumentsOptions |
Opções para a operação de exclusão de documentos. |
| DocumentIntelligenceLayoutSkillChunkingUnit |
Controla a cardinalidade da unidade de bloco. O padrão é 'personagens' Valores conhecidos suportados pelo serviçocaracteres: especifica bloco por caracteres. |
| DocumentIntelligenceLayoutSkillExtractionOptions |
Controla a cardinalidade do conteúdo extraído do documento pela habilidade. Valores conhecidos suportados pelo serviço
imagens: especifique que o conteúdo da imagem deve ser extraído do documento. |
| DocumentIntelligenceLayoutSkillMarkdownHeaderDepth |
A profundidade dos cabeçalhos na saída de markdown. O padrão é h6. Valores conhecidos suportados pelo serviço
h1: Cabeçalho nível 1. |
| DocumentIntelligenceLayoutSkillOutputFormat |
Controla a cardinalidade do formato de saída. O padrão é 'markdown'. Valores conhecidos suportados pelo serviço
text: especifique o formato da saída como texto. |
| DocumentIntelligenceLayoutSkillOutputMode |
Controla a cardinalidade da saída produzida pela habilidade. O padrão é 'oneToMany'. Valores conhecidos suportados pelo serviçooneToMany: especifique que a saída deve ser analisada como 'oneToMany'. |
| EdgeNGramTokenFilterSide |
Especifica de que lado da entrada um n-grama deve ser gerado. |
| EntityCategory |
Uma cadeia de caracteres que indica quais categorias de entidade devem ser retornadas. Valores conhecidos suportados pelo serviço
localização: Entidades que descrevem uma localização física. |
| EntityRecognitionSkillLanguage |
Os códigos de idioma suportados para texto de entrada por EntityRecognitionSkill. Valores conhecidos suportados pelo serviço
ar: árabe |
| ExcludedODataTypes | |
| ExhaustiveKnnAlgorithmConfiguration |
Contém opções de configuração específicas para o algoritmo KNN exaustivo usado durante a consulta, que executará a pesquisa de força bruta em todo o índice vetorial. |
| ExtractDocumentKey | |
| GetAliasOptions |
Opções para obter a operação de alias. |
| GetDataSourceConnectionOptions |
Opções para obter a operação da fonte de dados. |
| GetIndexOptions |
Opções para obter operação de índice. |
| GetIndexStatisticsOptions |
Opções para obter a operação de estatísticas de índice. |
| GetIndexerOptions |
Opções para obter a operação do indexador. |
| GetIndexerStatusOptions |
Opções para obter a operação de status do indexador. |
| GetServiceStatisticsOptions |
Opções para obter a operação de estatísticas de serviço. |
| GetSkillSetOptions |
Opções para obter operação skillset. |
| GetSynonymMapsOptions |
Opções para obter operação de mapas de sinônimos. |
| HnswAlgorithmConfiguration |
Contém opções de configuração específicas para o algoritmo de vizinhos aproximados mais próximos hnsw usado durante o tempo de indexação. |
| ImageAnalysisSkillLanguage | |
| ImageDetail | |
| IndexActionType |
A operação a ser executada em um documento em um lote de indexação. |
| IndexDocumentsAction |
Representa uma ação de índice que opera em um documento. |
| IndexIterator |
Um iterador para listar os índices existentes no serviço de Pesquisa. Fará solicitações conforme necessário durante a iteração. Use .byPage() para fazer uma solicitação ao servidor por iteração. |
| IndexNameIterator |
Um iterador para listar os índices existentes no serviço de Pesquisa. Fará solicitações conforme necessário durante a iteração. Use .byPage() para fazer uma solicitação ao servidor por iteração. |
| IndexProjectionMode |
Define o comportamento das projeções do índice em relação ao resto do indexador. Valores conhecidos suportados pelo serviço
skipIndexingParentDocuments: O documento de origem será ignorado da gravação no índice de destino do indexador. |
| IndexerExecutionEnvironment | |
| IndexerExecutionStatus |
Representa o status de uma execução de indexador individual. |
| IndexerResyncOption |
Opções com vários tipos de dados de permissão para indexação. Valores conhecidos suportados pelo serviçopermissões: indexador para re-ingest dados de permissões pré-selecionadas da fonte de dados para o índice. |
| IndexerStatus |
Representa o status geral do indexador. |
| KeyPhraseExtractionSkillLanguage | |
| KnowledgeBaseActivityRecord |
Alias para KnowledgeBaseActivityRecordUnion |
| KnowledgeBaseActivityRecordType |
O tipo de registo de atividade. Valores conhecidos suportados pelo serviço
searchIndex: Atividade de recuperação do índice de pesquisa. |
| KnowledgeBaseIterator |
Um iterador para listar as bases de conhecimento que existem no serviço de Pesquisa. Fará solicitações conforme necessário durante a iteração. Use .byPage() para fazer uma solicitação ao servidor por iteração. |
| KnowledgeBaseMessageContent |
Alias para KnowledgeBaseMessageContentUnion |
| KnowledgeBaseMessageContentType |
O tipo de conteúdo da mensagem. Valores conhecidos suportados pelo serviço
texto: Conteúdo por mensagem de texto. |
| KnowledgeBaseModel | |
| KnowledgeBaseModelKind |
O modelo de IA a ser usado para o planejamento de consultas. Valores conhecidos suportados pelo serviçoazureOpenAI: Utilizar modelos Azure Open AI para planeamento de consultas. |
| KnowledgeBaseReference |
Alias para KnowledgeBaseReferenceUnion |
| KnowledgeBaseReferenceType |
O tipo de referência. Valores conhecidos suportados pelo serviço
searchIndex: Pesquisa índice de referência do documento. |
| KnowledgeRetrievalIntentType |
O tipo de configuração da base de dados de conhecimento a ser usada. Valores conhecidos suportados pelo serviçoSemântica: Uma intenção de consulta semântica em linguagem natural. |
| KnowledgeRetrievalReasoningEffortKind |
A quantidade de esforço a utilizar durante a recuperação. Valores conhecidos suportados pelo serviçomínimo: Não realiza seleções de fonte, planeamento de consultas ou pesquisa iterativa. |
| KnowledgeRetrievalReasoningEffortUnion |
Alias para RecuperaçãoRaciocínioEsforçoUnião |
| KnowledgeSource | |
| KnowledgeSourceContentExtractionMode |
Modo de extração de conteúdo opcional. O padrão é 'mínimo'. Valores conhecidos suportados pelo serviço
mínimo: Extrai apenas metadados essenciais, adiando a maior parte do processamento de conteúdo. |
| KnowledgeSourceIterator |
Um iterador para listar as fontes de conhecimento que existem no serviço de Pesquisa. Fará solicitações conforme necessário durante a iteração. Use .byPage() para fazer uma solicitação ao servidor por iteração. |
| KnowledgeSourceKind |
O tipo de fonte de conhecimento. Valores conhecidos suportados pelo serviço
searchIndex: uma fonte de conhecimento que lê dados de um índice de pesquisa. |
| KnowledgeSourceParams |
Alias para KnowledgeSourceParamsUnion |
| KnowledgeSourceSynchronizationStatus |
O status de sincronização atual da fonte de conhecimento. Valores conhecidos suportados pelo serviço
criação: A fonte de conhecimento está a ser provisionada. |
| KnowledgeSourceVectorizer | |
| LexicalAnalyzer |
Contém os casos possíveis para o Analyzer. |
| LexicalAnalyzerName |
Define os nomes de todos os analisadores de texto suportados pelo mecanismo de pesquisa. Valores conhecidos suportados pelo serviço
ar.microsoft: Microsoft analyzer para árabe. |
| LexicalNormalizer |
Contém os possíveis casos para LexicalNormalizer. |
| LexicalNormalizerName |
Define os nomes de todos os normalizadores de texto suportados pelo mecanismo de pesquisa. Valores conhecidos suportados pelo serviço
asciifolding : Converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 caracteres ASCII (o bloco Unicode "Basic Latin") em seus equivalentes ASCII, se tais equivalentes existirem. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html |
| LexicalTokenizer |
Contém os casos possíveis para Tokenizer. |
| LexicalTokenizerName |
Define os nomes de todos os tokenizadores suportados pelo mecanismo de pesquisa. Valores conhecidos suportados pelo serviço
clássico : tokenizador baseado em gramática que é adequado para processar a maioria dos documentos em língua europeia. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
| ListAliasesOptions |
Opções para operação de aliases de lista. |
| ListDataSourceConnectionsOptions |
Opções para uma operação de fontes de dados de lista. |
| ListIndexersOptions |
Opções para uma operação de indexadores de lista. |
| ListIndexesOptions |
Opções para uma operação de índices de lista. |
| ListSkillsetsOptions |
Opções para uma operação de conjunto de habilidades de lista. |
| ListSynonymMapsOptions |
Opções para uma operação de lista synonymMaps. |
| MarkdownHeaderDepth |
Especifica a profundidade máxima do cabeçalho que será considerada ao agrupar o conteúdo de markdown. A predefinição é Valores conhecidos suportados pelo serviço
h1: Indica que cabeçalhos até um nível de h1 serão considerados ao agrupar o conteúdo de markdown. |
| MarkdownParsingSubmode |
Especifica o submodo que determinará se um arquivo de marcação será analisado em exatamente um documento de pesquisa ou em vários documentos de pesquisa. A predefinição é Valores conhecidos suportados pelo serviço
oneToMany: indica que cada seção do arquivo de marcação (até uma profundidade especificada) será analisada em documentos de pesquisa individuais. Isso pode resultar em um único arquivo de marcação produzindo vários documentos de pesquisa. Este é o submodo padrão. |
| MergeDocumentsOptions |
Opções para a operação de mesclagem de documentos. |
| MergeOrUploadDocumentsOptions |
Opções para a operação de mesclagem ou upload de documentos. |
| MicrosoftStemmingTokenizerLanguage |
Lista as linguagens suportadas pelo tokenizador de stemming de linguagem da Microsoft. |
| MicrosoftTokenizerLanguage |
Lista as linguagens suportadas pelo tokenizador de linguagem da Microsoft. |
| NarrowedModel |
Restringe o tipo de modelo para incluir apenas os campos selecionados |
| OcrLineEnding |
Define a sequência de caracteres a ser usada entre as linhas de texto reconhecidas pela habilidade OCR. O valor padrão é "space". Valores conhecidos suportados pelo serviço
espaço: As linhas são separadas por um único caractere de espaço. |
| OcrSkillLanguage | |
| PIIDetectionSkillMaskingMode | |
| PhoneticEncoder |
Identifica o tipo de codificador fonético a ser usado com um PhoneticTokenFilter. |
| QueryAnswer |
Um valor que especifica se as respostas devem ser retornadas como parte da resposta da pesquisa.
Este parâmetro só é válido se o tipo de consulta for 'semântico'. Se definido como |
| QueryCaption |
Um valor que especifica se as legendas devem ser retornadas como parte da resposta da pesquisa. Este parâmetro só é válido se o tipo de consulta for 'semântico'. Se definida, a consulta retorna legendas extraídas de passagens importantes nos documentos mais bem classificados. Quando Legendas é 'extrativa', o realce é ativado por padrão. O padrão é 'nenhum'. |
| QueryDebugMode |
Permite uma ferramenta de depuração que pode ser usada para explorar ainda mais os resultados da pesquisa. Você pode ativar vários modos de depuração simultaneamente, separando-os com um | caractere, por exemplo: semantic|queryRewrites. Valores conhecidos suportados pelo serviço
disabled: Nenhuma informação de depuração de consulta será retornada. |
| QueryRewrites |
Define opções para regravações de consulta. |
| QueryType |
Especifica a sintaxe da consulta de pesquisa. O padrão é 'simples'. Use 'completo' se sua consulta usar a sintaxe de consulta Lucene e 'semântica' se a sintaxe de consulta não for necessária. Valores conhecidos suportados pelo serviço
simples: Usa a sintaxe de consulta simples para pesquisas. O texto de pesquisa é interpretado usando uma linguagem de consulta simples que permite símbolos como +, * e "". As consultas são avaliadas em todos os campos pesquisáveis por padrão, a menos que o parâmetro searchFields seja especificado. |
| RankingOrder |
Representa a pontuação a ser usada para a ordem de classificação dos documentos. Valores conhecidos suportados pelo serviço
BoostedRerankerScore: define a ordem de classificação como BoostedRerankerScore |
| RegexFlags | |
| ResetIndexerOptions |
Opções para redefinir a operação do indexador. |
| RunIndexerOptions |
Opções para executar a operação do indexador. |
| ScoringFunction |
Contém os casos possíveis para ScoringFunction. |
| ScoringFunctionAggregation |
Define a função de agregação usada para combinar os resultados de todas as funções de pontuação em um perfil de pontuação. |
| ScoringFunctionInterpolation |
Define a função usada para interpolar o aumento da pontuação em uma variedade de documentos. |
| ScoringStatistics |
Um valor que especifica se queremos calcular estatísticas de pontuação (como frequência de documentos) globalmente para uma pontuação mais consistente ou localmente para uma latência mais baixa. O padrão é 'local'. Use 'global' para agregar estatísticas de pontuação globalmente antes de pontuar. O uso de estatísticas de pontuação global pode aumentar a latência das consultas de pesquisa. |
| SearchField |
Representa um campo em uma definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo. |
| SearchFieldArray |
Se |
| SearchFieldDataType |
Define valores para SearchFieldDataType. Valores conhecidos suportados pelo serviço:Edm.String: Indica que um campo contém uma cadeia de caracteres. Edm.Int32: Indica que um campo contém um inteiro assinado de 32 bits. Edm.Int64: Indica que um campo contém um inteiro assinado de 64 bits. Edm.Double: Indica que um campo contém um número de ponto flutuante de precisão dupla IEEE. Edm.Boolean: Indica que um campo contém um valor booleano (true ou false). Edm.DateTimeOffset: Indica que um campo contém um valor de data/hora, incluindo informações de fuso horário. Edm.GeographyPoint: Indica que um campo contém uma geolocalização em termos de longitude e latitude. Edm.ComplexType: Indica que um campo contém um ou mais objetos complexos que, por sua vez, têm subcampos de outros tipos. Edm.Single: Indica que um campo contém um número de ponto flutuante de precisão única. Isso só é válido quando usado como parte de um tipo de coleção, ou seja, Collection(Edm.Single). Edm.Half: Indica que um campo contém um número de ponto flutuante de meia precisão. Isso só é válido quando usado como parte de um tipo de coleção, ou seja, Coleção (Edm.Half). Edm.Int16: Indica que um campo contém um inteiro assinado de 16 bits. Isso só é válido quando usado como parte de um tipo de coleção, ou seja, Collection(Edm.Int16). Edm.SByte: Indica que um campo contém um inteiro assinado de 8 bits. Isso só é válido quando usado como parte de um tipo de coleção, ou seja, Coleção (Edm.SByte). Edm.Byte: Indica que um campo contém um inteiro não assinado de 8 bits. Isso só é válido quando usado como parte de um tipo de coleção, ou seja, Collection(Edm.Byte). |
| SearchIndexAlias |
Objeto Alias de pesquisa. |
| SearchIndexerDataIdentity |
Contém os casos possíveis para SearchIndexerDataIdentity. |
| SearchIndexerDataSourceType | |
| SearchIndexerSkill |
Contém os casos possíveis para Habilidade. |
| SearchIndexingBufferedSenderDeleteDocumentsOptions |
Opções para SearchIndexingBufferedSenderDeleteDocuments. |
| SearchIndexingBufferedSenderFlushDocumentsOptions |
Opções para SearchIndexingBufferedSenderFlushDocuments. |
| SearchIndexingBufferedSenderMergeDocumentsOptions |
Opções para SearchIndexingBufferedSenderMergeDocuments. |
| SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
Opções para SearchIndexingBufferedSenderMergeOrUploadDocuments. |
| SearchIndexingBufferedSenderUploadDocumentsOptions |
Opções para SearchIndexingBufferedSenderUploadDocuments. |
| SearchIterator |
Um iterador para resultados de pesquisa de uma consulta paticular. Fará solicitações conforme necessário durante a iteração. Use .byPage() para fazer uma solicitação ao servidor por iteração. |
| SearchMode |
Especifica se algum ou todos os termos de pesquisa devem ser correspondidos para contar o documento como uma correspondência. |
| SearchOptions |
Opções para confirmar uma solicitação de pesquisa completa. |
| SearchPick |
Escolha profundamente campos de T usando caminhos de $select OData de pesquisa de IA válidos. |
| SearchRequestOptions |
Parâmetros para filtragem, classificação, facetagem, paginação e outros comportamentos de consulta de pesquisa. |
| SearchRequestQueryTypeOptions | |
| SearchResult |
Contém um documento encontrado por uma consulta de pesquisa, além de metadados associados. |
| SelectFields |
Produz uma união de caminhos válidos de pesquisa de IA OData $select para T usando uma travessia pós-ordem da árvore de campo enraizada em T. |
| SemanticErrorMode | |
| SemanticErrorReason | |
| SemanticSearchResultsType |
Tipo de resposta parcial que foi retornada para uma solicitação de classificação semântica. Valores conhecidos suportados pelo serviço
baseResults: Resultados sem qualquer enriquecimento semântico ou reclassificação. |
| SentimentSkillLanguage |
Os códigos de idioma suportados para texto de entrada por SentimentSkill. Valores conhecidos suportados pelo serviço
da: dinamarquês |
| Similarity |
Alias para SimilarityAlgorithmUnion |
| SimilarityAlgorithm |
Contém os possíveis casos de Similaridade. |
| SnowballTokenFilterLanguage |
O idioma a ser usado para um filtro de token do Snowball. |
| SplitSkillLanguage | |
| StemmerTokenFilterLanguage |
A linguagem a ser usada para um filtro de token de lematizador. |
| StopwordsList |
Identifica uma lista predefinida de palavras paradas específicas do idioma. |
| SuggestNarrowedModel | |
| SuggestOptions |
Opções para recuperar sugestões com base no searchText. |
| SuggestResult |
Um resultado que contém um documento encontrado por uma consulta de sugestão, além de metadados associados. |
| TextSplitMode | |
| TextTranslationSkillLanguage | |
| TokenCharacterKind |
Representa classes de caracteres nas quais um filtro de token pode operar. |
| TokenFilter |
Contém os casos possíveis para TokenFilter. |
| TokenFilterName |
Define os nomes de todos os filtros de token suportados pelo mecanismo de pesquisa. Valores conhecidos suportados pelo serviço
arabic_normalization: Um filtro simbólico que aplica o normalizador árabe para normalizar a ortografia. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html |
| UnionToIntersection | |
| UploadDocumentsOptions |
Opções para a operação de upload de documentos. |
| VectorEncodingFormat |
O formato de codificação para interpretar o conteúdo do campo vetorial. Valores conhecidos suportados pelo serviçopackedBit: Formato de codificação que representa bits compactados em um tipo de dados mais amplo. |
| VectorFilterMode | |
| VectorQuery |
Os parâmetros de consulta para consultas de pesquisa vetoriais e híbridas. |
| VectorQueryKind | |
| VectorSearchAlgorithmConfiguration |
Contém opções de configuração específicas para o algoritmo usado durante a indexação e/ou consulta. |
| VectorSearchAlgorithmKind | |
| VectorSearchAlgorithmMetric | |
| VectorSearchCompression |
Contém opções de configuração específicas para o método de compactação usado durante a indexação ou consulta. |
| VectorSearchCompressionKind |
O método de compactação usado para indexação e consulta. Valores conhecidos suportados pelo serviço
scalarQuantization: Quantização escalar, um tipo de método de compressão. Na quantização escalar, os valores dos vetores originais são compactados para um tipo mais estreito, discretizando e representando cada componente de um vetor usando um conjunto reduzido de valores quantizados, reduzindo assim o tamanho geral dos dados. |
| VectorSearchCompressionRescoreStorageMethod |
O método de armazenamento para os vetores originais de precisão total usados para operações de repontuação e índice interno. Valores conhecidos suportados pelo serviço
preserveOriginals: Esta opção preserva os vetores originais de precisão total. Escolha esta opção para obter a máxima flexibilidade e a mais alta qualidade de resultados de pesquisa compactados. Isso consome mais armazenamento, mas permite a remarcação e a sobreamostragem. |
| VectorSearchCompressionTarget |
O tipo de dados quantizados de valores vetoriais compactados. Valores conhecidos suportados pelo serviçoint8: inteiro assinado de 8 bits. |
| VectorSearchVectorizer |
Contém opções de configuração sobre como vetorizar consultas vetoriais de texto. |
| VectorSearchVectorizerKind |
O método de vetorização a ser usado durante o tempo de consulta. Valores conhecidos suportados pelo serviço
azureOpenAI: gere incorporações usando um recurso do Azure OpenAI no momento da consulta. |
| VisualFeature | |
| WebApiSkills | |
Enumerações
| KnownAIFoundryModelCatalogName |
O nome do modelo de embedding do Azure AI Foundry Catalog que será chamado. |
| KnownAnalyzerNames |
Define valores para AnalyzerName. Veja https://learn.microsoft.com/rest/api/searchservice/Language-support |
| KnownAzureOpenAIModelName |
O nome do modelo de IA aberta do Azure que será chamado. |
| KnownBlobIndexerDataToExtract |
Especifica os dados a serem extraídos do armazenamento de blob do Azure e informa ao indexador quais dados extrair do conteúdo da imagem quando "imageAction" é definido como um valor diferente de "none". Isso se aplica ao conteúdo de imagem incorporado em um .PDF ou outro aplicativo, ou a arquivos de imagem, como .jpg e .png, em blobs do Azure. |
| KnownBlobIndexerImageAction |
Determina como processar imagens incorporadas e arquivos de imagem no armazenamento de blobs do Azure. Definir a configuração "imageAction" para qualquer valor diferente de "none" requer que um conjunto de habilidades também seja anexado a esse indexador. |
| KnownBlobIndexerPDFTextRotationAlgorithm |
Determina o algoritmo para extração de texto de arquivos PDF no armazenamento de blobs do Azure. |
| KnownBlobIndexerParsingMode |
Representa o modo de análise para indexação de uma fonte de dados de blob do Azure. |
| KnownCharFilterNames |
Define valores para CharFilterName. |
| KnownChatCompletionExtraParametersBehavior |
Especifica como os 'extraParâmetros' devem ser tratados pelo Azure AI Foundry. O padrão é 'error'. |
| KnownChatCompletionResponseFormatType |
Especifica como o LLM deve formatar a resposta. |
| KnownContentUnderstandingSkillChunkingUnit |
Controla a cardinalidade da unidade de bloco. O padrão é 'caracteres' |
| KnownContentUnderstandingSkillExtractionOptions |
Controla a cardinalidade do conteúdo extraído do documento pela habilidade. |
| KnownCustomEntityLookupSkillLanguage |
Os códigos de idioma suportados para texto de entrada por CustomEntityLookupSkill. |
| KnownDocumentIntelligenceLayoutSkillChunkingUnit |
Controla a cardinalidade da unidade de bloco. O padrão é 'caracteres' |
| KnownDocumentIntelligenceLayoutSkillExtractionOptions |
Controla a cardinalidade do conteúdo extraído do documento pela habilidade. |
| KnownDocumentIntelligenceLayoutSkillMarkdownHeaderDepth |
A profundidade dos cabeçalhos na saída de markdown. O padrão é h6. |
| KnownDocumentIntelligenceLayoutSkillOutputFormat |
Controla a cardinalidade do formato de saída. O padrão é 'markdown'. |
| KnownDocumentIntelligenceLayoutSkillOutputMode |
Controla a cardinalidade da saída produzida pela habilidade. O padrão é 'oneToMany'. |
| KnownEntityCategory |
Uma cadeia de caracteres que indica quais categorias de entidade devem ser retornadas. |
| KnownEntityRecognitionSkillLanguage |
Os códigos de idioma suportados para texto de entrada por EntityRecognitionSkill. |
| KnownImageAnalysisSkillLanguage |
Os códigos de idioma suportados para entrada por ImageAnalysisSkill. |
| KnownImageDetail |
Uma cadeia de caracteres que indica quais detalhes específicos do domínio devem ser retornados. |
| KnownIndexProjectionMode |
Define o comportamento das projeções do índice em relação ao resto do indexador. |
| KnownIndexerExecutionEnvironment |
Especifica o ambiente no qual o indexador deve ser executado. |
| KnownIndexerResyncOption |
Opções com vários tipos de dados de permissão para indexação. |
| KnownKeyPhraseExtractionSkillLanguage |
Os códigos de idioma suportados para texto de entrada por KeyPhraseExtractionSkill. |
| KnownKnowledgeBaseModelKind |
O modelo de IA a ser usado para o planejamento de consultas. |
| KnownKnowledgeSourceKind |
O tipo de fonte de conhecimento. |
| KnownLexicalAnalyzerName |
Define os nomes de todos os analisadores de texto suportados pelo mecanismo de pesquisa. |
| KnownLexicalNormalizerName |
Define os nomes de todos os normalizadores de texto suportados pelo mecanismo de pesquisa. |
| KnownMarkdownHeaderDepth |
Especifica a profundidade máxima do cabeçalho que será considerada ao agrupar o conteúdo de markdown. A predefinição é |
| KnownMarkdownParsingSubmode |
Especifica o submodo que determinará se um arquivo de marcação será analisado em exatamente um documento de pesquisa ou em vários documentos de pesquisa. A predefinição é |
| KnownOcrLineEnding |
Define a sequência de caracteres a ser usada entre as linhas de texto reconhecidas pela habilidade OCR. O valor padrão é "space". |
| KnownOcrSkillLanguage |
Os códigos de idioma suportados para entrada pelo OcrSkill. |
| KnownPIIDetectionSkillMaskingMode |
Uma cadeia de caracteres que indica qual maskingMode usar para mascarar as informações pessoais detetadas no texto de entrada. |
| KnownQueryDebugMode |
Permite uma ferramenta de depuração que pode ser usada para explorar ainda mais os resultados da pesquisa. Você pode ativar vários modos de depuração simultaneamente, separando-os com um | caractere, por exemplo: semantic|queryRewrites. |
| KnownRankingOrder |
Representa a pontuação a ser usada para a ordem de classificação dos documentos. |
| KnownRegexFlags |
Define um flag de expressão regular que pode ser usado no analisador de padrões e no tokenizador de padrões. |
| KnownSearchAudience |
Valores conhecidos para o Público de Pesquisa |
| KnownSearchFieldDataType |
Define o tipo de dados de um campo em um índice de pesquisa. |
| KnownSearchIndexerDataSourceType |
Define o tipo de uma fonte de dados. |
| KnownSemanticErrorMode |
Permite ao utilizador escolher se uma chamada semântica falha completamente ou devolver resultados parciais. |
| KnownSemanticErrorReason |
Motivo pelo qual uma resposta parcial foi retornada para uma solicitação de classificação semântica. |
| KnownSemanticSearchResultsType |
Tipo de resposta parcial que foi retornada para uma solicitação de classificação semântica. |
| KnownSentimentSkillLanguage |
Os códigos de idioma suportados para texto de entrada por SentimentSkill. |
| KnownSplitSkillLanguage |
Os códigos de idioma suportados para texto de entrada por SplitSkill. |
| KnownTextSplitMode |
Um valor que indica qual modo de divisão executar. |
| KnownTextTranslationSkillLanguage |
Os códigos de idioma suportados para texto de entrada por TextTranslationSkill. |
| KnownTokenFilterNames |
Define valores para TokenFilterName. |
| KnownTokenizerNames |
Define valores para TokenizerName. |
| KnownVectorEncodingFormat |
O formato de codificação para interpretar o conteúdo do campo vetorial. |
| KnownVectorFilterMode |
Determina se os filtros são ou não aplicados antes ou depois da pesquisa vetorial ser executada. |
| KnownVectorQueryKind |
O tipo de consulta vetorial que está sendo executada. |
| KnownVectorSearchAlgorithmKind |
O algoritmo usado para indexação e consulta. |
| KnownVectorSearchAlgorithmMetric |
A métrica de semelhança a ser usada para comparações vetoriais. Recomenda-se escolher a mesma métrica de semelhança em que o modelo de incorporação foi treinado. |
| KnownVectorSearchCompressionKind |
O método de compactação usado para indexação e consulta. |
| KnownVectorSearchCompressionRescoreStorageMethod |
O método de armazenamento para os vetores originais de precisão total usados para operações de repontuação e índice interno. |
| KnownVectorSearchCompressionTarget |
O tipo de dados quantizados de valores vetoriais compactados. |
| KnownVectorSearchVectorizerKind |
O método de vetorização a ser usado durante o tempo de consulta. |
| KnownVisualFeature |
As cadeias de caracteres que indicam quais tipos de recursos visuais devem ser retornados. |
Funções
| create |
Método auxiliar para criar um objeto SynonymMap. Este é um método somente NodeJS. |
| odata(Template |
Escapa de uma expressão de filtro odata para evitar erros com literais de cadeia de caracteres entre aspas. Exemplo de uso:
Para obter mais informações sobre a sintaxe suportada, consulte: https://learn.microsoft.com/azure/search/search-query-odata-filter |
Variáveis
| DEFAULT_BATCH_SIZE | Tamanho padrão do lote |
| DEFAULT_FLUSH_WINDOW | Intervalo padrão de flush da janela |
| DEFAULT_RETRY_COUNT | Número padrão de vezes para tentar novamente. |
Detalhes de Função
createSynonymMapFromFile(string, string)
Método auxiliar para criar um objeto SynonymMap. Este é um método somente NodeJS.
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
Parâmetros
- name
-
string
Nome do SynonymMap.
- filePath
-
string
Caminho do ficheiro que contém os Sinónimos (separados por novas linhas)
Devoluções
Promise<SynonymMap>
Objeto SynonymMap
odata(TemplateStringsArray, unknown[])
Escapa de uma expressão de filtro odata para evitar erros com literais de cadeia de caracteres entre aspas. Exemplo de uso:
import { odata } from "@azure/search-documents";
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
Para obter mais informações sobre a sintaxe suportada, consulte: https://learn.microsoft.com/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
Parâmetros
- strings
-
TemplateStringsArray
Matriz de cadeias de caracteres para a expressão
- values
-
unknown[]
Matriz de valores para a expressão
Devoluções
string
Detalhes das variáveis
DEFAULT_BATCH_SIZE
Tamanho padrão do lote
DEFAULT_BATCH_SIZE: number
Tipo
number
DEFAULT_FLUSH_WINDOW
Intervalo padrão de flush da janela
DEFAULT_FLUSH_WINDOW: number
Tipo
number
DEFAULT_RETRY_COUNT
Número padrão de vezes para tentar novamente.
DEFAULT_RETRY_COUNT: number
Tipo
number