@azure/search-documents package

Clases

AzureKeyCredential

Credencial basada en clave estática que admite la actualización del valor de clave subyacente.

GeographyPoint

Representa un punto geográfico en coordenadas globales.

IndexDocumentsBatch

Clase que se usa para realizar operaciones por lotes con varios documentos en el índice.

KnowledgeRetrievalClient

Clase utilizada para realizar operaciones contra una base de conocimiento.

SearchClient

Clase que se usa para realizar operaciones en un índice de búsqueda, incluida la consulta de documentos en el índice, así como agregarlos, actualizarlos y quitarlos.

SearchIndexClient

Clase para realizar operaciones para administrar índices (crear, actualizar, enumerar y eliminar), & mapas de sinónimos.

SearchIndexerClient

Clase para realizar operaciones para administrar indexadores (crear, actualizar, enumerar y eliminar), orígenes de datos & conjuntos de aptitudes.

SearchIndexingBufferedSender

Clase que se usa para realizar operaciones almacenadas en búfer en un índice de búsqueda, incluida la adición, actualización y eliminación de ellos.

Interfaces

AIServices

Parámetros para los servicios de IA.

AIServicesAccountIdentity

La cuenta multirregión de un recurso de servicios de IA de Azure que está vinculado a un conjunto de habilidades.

AIServicesAccountKey

La clave de cuenta de un recurso de servicio de IA de Azure que está vinculado a un conjunto de habilidades, para usarse con el subdominio del recurso.

AnalyzeRequest

Especifica algunos componentes de texto y análisis que se usan para dividir ese texto en tokens.

AnalyzeResult

Resultado de probar un analizador en el texto.

AnalyzedTokenInfo

Información sobre un token devuelto por un analizador.

AsciiFoldingTokenFilter

Convierte caracteres alfabéticos, numéricos y simbólicos Unicode que no están en los primeros 127 caracteres ASCII (el bloque Unicode "Básico latino") en sus equivalentes ASCII, si existen dichos equivalentes. Este filtro de token se implementa mediante Apache Lucene.

AutocompleteItem

Resultado de las solicitudes autocompletar.

AutocompleteRequest

Parámetros para la coincidencia aproximada y otros comportamientos de consulta de autocompletar.

AutocompleteResult

Resultado de la consulta Autocompletar.

AzureActiveDirectoryApplicationCredentials

Credenciales de una aplicación registrada creada para el servicio de búsqueda, que se usa para el acceso autenticado a las claves de cifrado almacenadas en Azure Key Vault.

AzureBlobKnowledgeSource

Configuración para el origen de conocimiento de Azure Blob Storage.

AzureBlobKnowledgeSourceParameters

Parámetros para el origen de conocimiento de Azure Blob Storage.

AzureBlobKnowledgeSourceParams

Especifica parámetros en tiempo de ejecución para un origen de conocimiento de blobs de Azure

AzureMachineLearningVectorizer

Especifica un endpoint de Azure Machine Learning desplegado a través del Fundición de IA de Azure Model Catalog para generar la incrustación vectorial de una cadena de consulta.

AzureOpenAIEmbeddingSkill

Permite generar una inserción de vectores para una entrada de texto determinada mediante el recurso de Azure OpenAI.

AzureOpenAIParameters

Especifica los parámetros para conectarse al recurso de Azure OpenAI.

AzureOpenAIVectorizer

Contiene los parámetros específicos del uso de un servicio Azure Open AI para la vectorización en el momento de la consulta.

BM25Similarity

Función de clasificación basada en el algoritmo de similitud okapi BM25. BM25 es un algoritmo similar a TF-IDF que incluye la normalización de longitud (controlada por el parámetro 'b'), así como la saturación de frecuencia de términos (controlada por el parámetro 'k1').

BaseAzureMachineLearningVectorizerParameters

Especifica las propiedades comunes entre todos los tipos de autenticación vectorizador de AML.

BaseCharFilter

Tipo base para filtros de caracteres.

BaseCognitiveServicesAccount

Tipo base para describir cualquier recurso de servicio de Azure AI asociado a un conjunto de aptitudes.

BaseDataChangeDetectionPolicy

Tipo base para las directivas de detección de cambios de datos.

BaseDataDeletionDetectionPolicy

Tipo base para directivas de detección de eliminación de datos.

BaseKnowledgeBaseActivityRecord

Tipo base para registros de actividad. Rastrea detalles de ejecución, tiempos y errores para las operaciones de la base de conocimiento.

BaseKnowledgeBaseMessageContent

Especifica el tipo de contenido del mensaje.

BaseKnowledgeBaseModel

Especifica los parámetros de conexión del modelo que se usarán para la planeación de consultas.

BaseKnowledgeBaseReference

Tipo base para referencias.

BaseKnowledgeRetrievalReasoningEffort

Tipo base para el esfuerzo de razonamiento.

BaseKnowledgeSource

Representa una definición de origen de conocimiento.

BaseKnowledgeSourceParams

Tipo base para parámetros de ejecución de la fuente de conocimiento.

BaseKnowledgeSourceVectorizer

Especifica el método de vectorización que se usará para el modelo de incrustación de fuentes de conocimiento.

BaseLexicalAnalyzer

Tipo base para analizadores.

BaseLexicalNormalizer

Tipo base para normalizadores.

BaseLexicalTokenizer

Tipo base para tokenizadores.

BaseScoringFunction

Tipo base para funciones que pueden modificar las puntuaciones de documentos durante la clasificación.

BaseSearchIndexerDataIdentity

Tipo base abstracto para identidades de datos.

BaseSearchIndexerSkill

Tipo base para aptitudes.

BaseSearchRequestOptions

Parámetros para filtrar, ordenar, facetar, paginar y otros comportamientos de consulta de búsqueda.

BaseSimilarityAlgorithm

Tipo base para algoritmos de similitud. Los algoritmos de similitud se usan para calcular puntuaciones que vinculan consultas a documentos. Cuanto mayor sea la puntuación, más relevante será el documento para esa consulta específica. Esas puntuaciones se usan para clasificar los resultados de la búsqueda.

BaseTokenFilter

Tipo base para filtros de token.

BaseVectorQuery

Los parámetros de consulta para las consultas de búsqueda híbrida y vectorial.

BaseVectorSearchAlgorithmConfiguration

Contiene opciones de configuración específicas del algoritmo utilizado durante la indexación o consulta.

BaseVectorSearchCompression

Contiene opciones de configuración específicas del método de compresión utilizado durante la indexación o consulta.

BaseVectorSearchVectorizer

Contiene detalles específicos de un método de vectorización que se usará durante el tiempo de consulta.

BinaryQuantizationCompression

Contiene opciones de configuración específicas del método de compresión de cuantificación binaria que se usa durante la indexación y la consulta.

ChatCompletionResponseFormat

Determina cómo se debe serializar la respuesta del modelo de lenguaje. El valor predeterminado es 'texto'.

ChatCompletionResponseFormatJsonSchemaProperties

Propiedades para el formato de respuesta de esquema JSON.

ChatCompletionSchema

Objeto que define el esquema personalizado que usará el modelo para estructurar su salida.

ChatCompletionSkill

Una habilidad que llama a un modelo de lenguaje a través del endpoint Chat Completions de Fundición de IA de Azure.

CjkBigramTokenFilter

Forma bigrams de términos de CJK que se generan a partir del tokenizador estándar. Este filtro de token se implementa mediante Apache Lucene.

ClassicSimilarity

Algoritmo de similitud heredado que usa la implementación de TFIDFSimilarity de Lucene de TF-IDF. Esta variación de TF-IDF introduce la normalización estática de la longitud del documento, así como la coordinación de factores que penalizan los documentos que solo coinciden parcialmente con las consultas buscadas.

ClassicTokenizer

Tokenizador basado en gramática que es adecuado para procesar la mayoría de los documentos de idioma europeo. Este tokenizador se implementa mediante Apache Lucene.

CognitiveServicesAccountKey

Clave de cuenta de varias regiones de un recurso de servicio de Azure AI que está asociado a un conjunto de aptitudes.

CommonGramTokenFilter

Construya bigrams para términos que se producen con frecuencia durante la indexación. Los términos únicos todavía se indexan también, con bigrams superpuestos. Este filtro de token se implementa mediante Apache Lucene.

CommonModelParameters

Parámetros comunes del modelo de lenguaje para las finalizaciones de chat. Si se omite, se utilizan los valores predeterminados.

CompletedSynchronizationState

Representa el estado completado de la última sincronización.

ComplexField

Representa un campo en una definición de índice, que describe el nombre, el tipo de datos y el comportamiento de búsqueda de un campo.

ConditionalSkill

Aptitud que permite escenarios que requieren una operación booleana para determinar los datos que se van a asignar a una salida.

ContentUnderstandingSkill

Una habilidad que aprovecha Azure AI Content Understanding para procesar y extraer información estructurada de los documentos, permitiendo contenido enriquecido y buscable para una indexación y recuperación mejorada.

ContentUnderstandingSkillChunkingProperties

Controla la cardinalidad para fragmentar el contenido.

CorsOptions

Define las opciones para controlar el uso compartido de recursos entre orígenes (CORS) para un índice.

CreateKnowledgeBaseOptions
CreateKnowledgeSourceOptions
CreateOrUpdateAliasOptions

Opciones para crear o actualizar la operación de alias.

CreateOrUpdateIndexOptions

Opciones para la operación de creación o actualización del índice.

CreateOrUpdateKnowledgeBaseOptions
CreateOrUpdateKnowledgeSourceOptions
CreateOrUpdateSkillsetOptions

Opciones para la operación de creación o actualización del conjunto de aptitudes.

CreateOrUpdateSynonymMapOptions

Opciones para crear o actualizar la operación de mapa de sinónimos.

CreateorUpdateDataSourceConnectionOptions

Opciones para la operación de creación o actualización del origen de datos.

CreateorUpdateIndexerOptions

Opciones para la operación de creación o actualización del indexador.

CustomAnalyzer

Permite tomar el control sobre el proceso de conversión de texto en tokens indexables o que se pueden buscar. Se trata de una configuración definida por el usuario que consta de un único tokenizador predefinido y uno o varios filtros. El tokenizador es responsable de dividir texto en tokens y los filtros para modificar los tokens emitidos por el tokenizador.

CustomEntity

Objeto que contiene información sobre las coincidencias que se encontraron y metadatos relacionados.

CustomEntityAlias

Objeto complejo que se puede usar para especificar ortografías o sinónimos alternativos al nombre de la entidad raíz.

CustomEntityLookupSkill

Una aptitud busca texto de una lista personalizada definida por el usuario de palabras y frases.

CustomLexicalNormalizer

Permite configurar la normalización de los campos filtrables, ordenables y facetables, que funcionan de forma predeterminada con coincidencias estrictas. Se trata de una configuración definida por el usuario que consta de al menos uno o varios filtros, que modifican el token almacenado.

DefaultCognitiveServicesAccount

Objeto vacío que representa el recurso de servicio de Azure AI predeterminado para un conjunto de aptitudes.

DeleteAliasOptions

Opciones para la operación de eliminación de alias.

DeleteDataSourceConnectionOptions

Opciones para eliminar la operación del origen de datos.

DeleteIndexOptions

Opciones para eliminar la operación de índice.

DeleteIndexerOptions

Opciones para eliminar la operación del indexador.

DeleteKnowledgeBaseOptions
DeleteKnowledgeSourceOptions
DeleteSkillsetOptions

Opciones para eliminar la operación del conjunto de aptitudes.

DeleteSynonymMapOptions

Opciones para eliminar la operación de mapa de sinónimos.

DictionaryDecompounderTokenFilter

Descompone palabras compuestas encontradas en muchos idiomas alemanes. Este filtro de token se implementa mediante Apache Lucene.

DistanceScoringFunction

Define una función que aumenta las puntuaciones en función de la distancia desde una ubicación geográfica.

DistanceScoringParameters

Proporciona valores de parámetro a una función de puntuación de distancia.

DocumentDebugInfo

Contiene información de depuración que se puede usar para explorar aún más los resultados de la búsqueda.

DocumentExtractionSkill

Aptitud que extrae el contenido de un archivo dentro de la canalización de enriquecimiento.

DocumentIntelligenceLayoutSkill

Una aptitud que extrae información de contenido y diseño (como Markdown), a través de Azure AI Services, desde archivos dentro de la canalización de enriquecimiento.

DocumentIntelligenceLayoutSkillChunkingProperties

Controla la cardinalidad para fragmentar el contenido.

EdgeNGramTokenFilter

Genera n-gramas de los tamaños especificados a partir de la parte delantera o posterior de un token de entrada. Este filtro de token se implementa mediante Apache Lucene.

EdgeNGramTokenizer

Tokeniza la entrada de un borde en n gramos de los tamaños especificados. Este tokenizador se implementa mediante Apache Lucene.

ElisionTokenFilter

Quita las elisiones. Por ejemplo, "l'avion" (el plano) se convertirá en "avion" (plano). Este filtro de token se implementa mediante Apache Lucene.

EntityLinkingSkill

Con Text Analytics API, extrae entidades vinculadas del texto.

EntityRecognitionSkill

Reconocimiento de entidades de Text Analytics.

EntityRecognitionSkillV3

Con Text Analytics API, extrae entidades de diferentes tipos de texto.

ExhaustiveKnnParameters

Contiene los parámetros específicos del algoritmo KNN exhaustivo.

ExtractiveQueryAnswer

Extrae candidatos de respuesta del contenido de los documentos devueltos en respuesta a una consulta expresada como una pregunta en lenguaje natural.

ExtractiveQueryCaption

Extrae títulos de los documentos coincidentes que contienen pasajes relevantes para la consulta de búsqueda.

FacetResult

Un único cubo de un resultado de consulta de faceta. Informa del número de documentos con un valor de campo que se encuentra dentro de un intervalo determinado o que tiene un valor o intervalo determinado.

FieldMapping

Define una asignación entre un campo de un origen de datos y un campo de destino en un índice.

FieldMappingFunction

Representa una función que transforma un valor de un origen de datos antes de la indexación.

FreshnessScoringFunction

Define una función que aumenta las puntuaciones en función del valor de un campo de fecha y hora.

FreshnessScoringParameters

Proporciona valores de parámetro a una función de puntuación de actualización.

GenerativeQueryRewrites

Genere términos de consulta alternativos para aumentar la recuperación de una solicitud de búsqueda.

GetDocumentOptions

Opciones para recuperar un único documento.

GetKnowledgeBaseOptions
GetKnowledgeSourceOptions
GetKnowledgeSourceStatusOptions
HighWaterMarkChangeDetectionPolicy

Define una directiva de detección de cambios de datos que captura los cambios en función del valor de una columna de marca de agua alta.

HnswParameters

Contiene los parámetros específicos del algoritmo hnsw.

ImageAnalysisSkill

Una aptitud que analiza los archivos de imagen. Extrae un amplio conjunto de características visuales basadas en el contenido de la imagen.

IndexDocumentsClient

Cliente de documentos de índice

IndexDocumentsOptions

Opciones para la operación modificar el lote de índice.

IndexDocumentsResult

Respuesta que contiene el estado de las operaciones de todos los documentos de la solicitud de indexación.

IndexedOneLakeKnowledgeSource

Configuración para el origen de conocimiento de OneLake.

IndexedOneLakeKnowledgeSourceParameters

Parámetros para el origen de conocimiento de OneLake.

IndexedOneLakeKnowledgeSourceParams

Especifica parámetros de tiempo de ejecución para un origen de conocimiento de OneLake indexado

IndexerExecutionResult

Representa el resultado de una ejecución individual del indexador.

IndexingParameters

Representa parámetros para la ejecución del indexador.

IndexingParametersConfiguration

Diccionario de propiedades de configuración específicas del indexador. Cada nombre es el nombre de una propiedad específica. Cada valor debe ser de un tipo primitivo.

IndexingResult

Estado de una operación de indexación para un único documento.

IndexingSchedule

Representa una programación para la ejecución del indexador.

InputFieldMappingEntry

Asignación de campos de entrada para una aptitud.

KeepTokenFilter

Filtro de token que solo mantiene los tokens con texto contenido en una lista especificada de palabras. Este filtro de token se implementa mediante Apache Lucene.

KeyAuthAzureMachineLearningVectorizerParameters

Especifica las propiedades para conectarse a un vectorizador AML con una clave de autenticación.

KeyPhraseExtractionSkill

Aptitud que usa el análisis de texto para la extracción de frases clave.

KeywordMarkerTokenFilter

Marca los términos como palabras clave. Este filtro de token se implementa mediante Apache Lucene.

KeywordTokenizer

Emite toda la entrada como un solo token. Este tokenizador se implementa mediante Apache Lucene.

KnowledgeBase
KnowledgeBaseAgenticReasoningActivityRecord

Representa un registro de actividad de razonamiento agente.

KnowledgeBaseAzureBlobReference

Representa una referencia de documento de Azure Blob Storage.

KnowledgeBaseAzureOpenAIModel

Especifica el recurso de Azure OpenAI que se usa para realizar la planeación de consultas.

KnowledgeBaseErrorAdditionalInfo

Información adicional sobre el error de administración de recursos.

KnowledgeBaseErrorDetail

Detalles del error.

KnowledgeBaseIndexedOneLakeReference

Representa una referencia indexada de un documento OneLake.

KnowledgeBaseMessage

El objeto de estilo de mensaje de lenguaje natural.

KnowledgeBaseMessageImageContent

Tipo de mensaje de imagen.

KnowledgeBaseMessageImageContentImage

Contenido de la imagen.

KnowledgeBaseMessageTextContent

Tipo de mensaje de texto.

KnowledgeBaseModelWebSummarizationActivityRecord

Representa un registro de actividad de resumen web de LLM.

KnowledgeBaseRetrievalRequest

El contrato de entrada para la solicitud de recuperación.

KnowledgeBaseRetrievalResponse

El contrato de salida para la respuesta de recuperación.

KnowledgeBaseSearchIndexReference

Representa una referencia de documento de Búsqueda de Azure.

KnowledgeBaseWebReference

Representa una referencia de documento web.

KnowledgeRetrievalClientOptions

Opciones de cliente que se usan para configurar las solicitudes de Cognitive Search API.

KnowledgeRetrievalIntent

Una consulta destinada a ejecutarse sin planificación de consultas de modelo.

KnowledgeRetrievalMinimalReasoningEffort

Realiza la recuperación de conocimiento con un esfuerzo mínimo de razonamiento.

KnowledgeRetrievalSemanticIntent

Una intención de consulta semántica.

KnowledgeSourceAzureOpenAIVectorizer

Especifica el recurso de Azure OpenAI que se usa para vectorizar una cadena de consulta.

KnowledgeSourceIngestionParameters

Consolida todas las configuraciones generales de ingesta para los orígenes de conocimiento.

KnowledgeSourceReference

Referencia a una fuente de conocimiento.

KnowledgeSourceStatistics

Información estadística sobre el historial de sincronización de fuentes de conocimiento.

KnowledgeSourceStatus

Representa el estado y el historial de sincronización de un origen de conocimiento.

KnowledgeSourceSynchronizationError

Representa un error de indexación a nivel de documento encontrado durante una ejecución de sincronización de fuente de conocimiento.

LanguageDetectionSkill

Una aptitud que detecta el idioma del texto de entrada e informa de un código de idioma único para cada documento enviado en la solicitud. El código de idioma se empareja con una puntuación que indica la confianza del análisis.

LengthTokenFilter

Quita las palabras que son demasiado largas o demasiado cortas. Este filtro de token se implementa mediante Apache Lucene.

LimitTokenFilter

Limita el número de tokens durante la indexación. Este filtro de token se implementa mediante Apache Lucene.

ListKnowledgeBasesOptions
ListKnowledgeSourcesOptions
ListSearchResultsPageSettings

Argumentos para recuperar la página siguiente de los resultados de búsqueda.

LuceneStandardAnalyzer

Analizador estándar de Apache Lucene; Compuesto por el tokenizador estándar, el filtro en minúsculas y el filtro stop.

LuceneStandardTokenizer

Interrumpe el texto siguiendo las reglas de segmentación de texto Unicode. Este tokenizador se implementa mediante Apache Lucene.

MagnitudeScoringFunction

Define una función que aumenta las puntuaciones en función de la magnitud de un campo numérico.

MagnitudeScoringParameters

Proporciona valores de parámetro a una función de puntuación de magnitud.

MappingCharFilter

Filtro de caracteres que aplica asignaciones definidas con la opción asignaciones. La coincidencia es expansa (la coincidencia de patrones más larga en un punto dado gana). El reemplazo puede ser la cadena vacía. Este filtro de caracteres se implementa mediante Apache Lucene.

MergeSkill

Aptitud para combinar dos o más cadenas en una sola cadena unificada, con un delimitador definido por el usuario opcional que separa cada parte de componente.

MicrosoftLanguageStemmingTokenizer

Divide el texto mediante reglas específicas del idioma y reduce las palabras a sus formularios base.

MicrosoftLanguageTokenizer

Divide el texto mediante reglas específicas del idioma.

NGramTokenFilter

Genera n-gramas de los tamaños especificados. Este filtro de token se implementa mediante Apache Lucene.

NGramTokenizer

Tokeniza la entrada en n-gramas de los tamaños especificados. Este tokenizador se implementa mediante Apache Lucene.

NativeBlobSoftDeleteDeletionDetectionPolicy

Define una directiva de detección de eliminación de datos mediante la característica nativa de eliminación temporal de Azure Blob Storage para la detección de eliminación.

NoAuthAzureMachineLearningVectorizerParameters

Especifica las propiedades para conectarse a un vectorizador AML sin autenticación.

OcrSkill

Aptitud que extrae texto de los archivos de imagen.

OutputFieldMappingEntry

Asignación de campos de salida para una aptitud.

PIIDetectionSkill

Con Text Analytics API, extrae información personal de un texto de entrada y le ofrece la opción de enmascararlo.

PageSettings

Opciones para el método byPage

PagedAsyncIterableIterator

Interfaz que permite la iteración asincrónica tanto a la finalización como a la página.

PathHierarchyTokenizer

Tokenizador para jerarquías similares a la ruta de acceso. Este tokenizador se implementa mediante Apache Lucene.

PatternAnalyzer

Separa de forma flexible el texto en términos a través de un patrón de expresión regular. Este analizador se implementa mediante Apache Lucene.

PatternCaptureTokenFilter

Usa expresiones regulares de Java para emitir varios tokens: uno para cada grupo de captura en uno o varios patrones. Este filtro de token se implementa mediante Apache Lucene.

PatternReplaceCharFilter

Filtro de caracteres que reemplaza los caracteres de la cadena de entrada. Usa una expresión regular para identificar secuencias de caracteres para conservar y un patrón de reemplazo para identificar los caracteres que se van a reemplazar. Por ejemplo, dado el texto de entrada "aa bb aa bb", el patrón "(aa)\s+(bb)" y el reemplazo "$1#$2", el resultado sería "aa#bb aa#bb aa#bb". Este filtro de caracteres se implementa mediante Apache Lucene.

PatternReplaceTokenFilter

Filtro de caracteres que reemplaza los caracteres de la cadena de entrada. Usa una expresión regular para identificar secuencias de caracteres para conservar y un patrón de reemplazo para identificar los caracteres que se van a reemplazar. Por ejemplo, dado el texto de entrada "aa bb aa bb", el patrón "(aa)\s+(bb)" y el reemplazo "$1#$2", el resultado sería "aa#bb aa#bb aa#bb". Este filtro de token se implementa mediante Apache Lucene.

PatternTokenizer

Tokenizer que usa la coincidencia de patrones regex para construir tokens distintos. Este tokenizador se implementa mediante Apache Lucene.

PhoneticTokenFilter

Cree tokens para coincidencias fonéticas. Este filtro de token se implementa mediante Apache Lucene.

QueryAnswerResult

Una respuesta es un pasaje de texto extraído del contenido de los documentos más relevantes que coinciden con la consulta. Las respuestas se extraen de los resultados principales de la búsqueda. Los candidatos de respuesta se puntuan y se seleccionan las principales respuestas.

QueryCaptionResult

Los títulos son los pasajes más representativos del documento relativamente a la consulta de búsqueda. A menudo se usan como resumen de documentos. Los títulos solo se devuelven para las consultas de tipo semantic.

QueryResultDocumentSemanticField

Descripción de los campos que se enviaron al proceso de enriquecimiento semántico, así como cómo se usaron

QueryResultDocumentSubscores

Desglose de las subscores entre los componentes de consulta de texto y vector de la consulta de búsqueda de este documento. Cada consulta vectorial se muestra como un objeto independiente en el mismo orden en que se recibieron.

RescoringOptions

Contiene las opciones de recorción.

ResourceCounter

Representa el uso y la cuota de un recurso.

RetrieveOptions
ScalarQuantizationCompression

Contiene opciones de configuración específicas del método de compresión de cuantificación escalar que se usa durante la indexación y la consulta.

ScalarQuantizationParameters

Contiene los parámetros específicos de la cuantificación escalar.

ScoringProfile

Define parámetros para un índice de búsqueda que influye en la puntuación en las consultas de búsqueda.

SearchAlias

Representa un alias de índice, que describe una asignación del nombre del alias a un índice. El nombre del alias se puede usar en lugar del nombre de índice para las operaciones admitidas.

SearchClientOptions

Opciones de cliente utilizadas para configurar solicitudes de API de búsqueda de IA.

SearchDocumentsPageResult

Respuesta que contiene los resultados de la página de búsqueda de un índice.

SearchDocumentsResult

Respuesta que contiene los resultados de búsqueda de un índice.

SearchDocumentsResultBase

Respuesta que contiene los resultados de búsqueda de un índice.

SearchIndex

Representa una definición de índice de búsqueda, que describe los campos y el comportamiento de búsqueda de un índice.

SearchIndexClientOptions

Opciones de cliente utilizadas para configurar solicitudes de API de búsqueda de IA.

SearchIndexFieldReference

Referencia de campo para un índice de búsqueda.

SearchIndexKnowledgeSource

Fuente de conocimiento dirigida a un índice de búsqueda.

SearchIndexKnowledgeSourceParameters

Parámetros para el origen de conocimiento del índice de búsqueda.

SearchIndexKnowledgeSourceParams

Especifica parámetros de tiempo de ejecución para un origen de conocimiento de índice de búsqueda

SearchIndexStatistics

Estadísticas de un índice determinado. Las estadísticas se recopilan periódicamente y no se garantiza que siempre sean up-to-date.

SearchIndexer

Representa un indexador.

SearchIndexerClientOptions

Opciones de cliente utilizadas para configurar solicitudes de API de búsqueda de IA.

SearchIndexerDataContainer

Representa información sobre la entidad (como la tabla de Azure SQL o la colección cosmosDB) que se indexará.

SearchIndexerDataNoneIdentity

Borra la propiedad de identidad de un origen de datos.

SearchIndexerDataSourceConnection

Representa una definición de origen de datos, que se puede usar para configurar un indexador.

SearchIndexerDataUserAssignedIdentity

Especifica la identidad de un origen de datos que se va a usar.

SearchIndexerError

Representa un error de indexación de elemento o de nivel de documento.

SearchIndexerIndexProjection

Definición de proyecciones adicionales a índices de búsqueda secundarios.

SearchIndexerIndexProjectionParameters

Diccionario de propiedades de configuración específicas de proyección de índice. Cada nombre es el nombre de una propiedad específica. Cada valor debe ser de un tipo primitivo.

SearchIndexerIndexProjectionSelector

Descripción de los datos que se van a almacenar en el índice de búsqueda designado.

SearchIndexerKnowledgeStore

Definición de proyecciones adicionales en azure blob, tabla o archivos, de datos enriquecidos.

SearchIndexerKnowledgeStoreBlobProjectionSelector

Clase abstracta para compartir propiedades entre selectores concretos.

SearchIndexerKnowledgeStoreFileProjectionSelector

Definición de proyección para qué datos almacenar en Azure Files.

SearchIndexerKnowledgeStoreObjectProjectionSelector

Definición de proyección de los datos que se van a almacenar en Azure Blob.

SearchIndexerKnowledgeStoreParameters

Diccionario de propiedades de configuración específicas del almacén de conocimiento. Cada nombre es el nombre de una propiedad específica. Cada valor debe ser de un tipo primitivo.

SearchIndexerKnowledgeStoreProjection

Objeto contenedor para varios selectores de proyección.

SearchIndexerKnowledgeStoreProjectionSelector

Clase abstracta para compartir propiedades entre selectores concretos.

SearchIndexerKnowledgeStoreTableProjectionSelector

Descripción de los datos que se van a almacenar en tablas de Azure.

SearchIndexerLimits

Representa los límites que se pueden aplicar a un indexador.

SearchIndexerSkillset

Lista de aptitudes.

SearchIndexerStatus

Representa el estado actual y el historial de ejecución de un indexador.

SearchIndexerWarning

Representa una advertencia de nivel de elemento.

SearchIndexingBufferedSenderOptions

Opciones para SearchIndexingBufferedSender.

SearchResourceEncryptionKey

Una clave de cifrado administrada por el cliente en Azure Key Vault. Las claves que cree y administre se pueden usar para cifrar o descifrar datos en reposo en Búsqueda de Azure AI, como índices y mapas de sinónimos.

SearchServiceStatistics

Respuesta de una solicitud de obtención de estadísticas de servicio. Si se ejecuta correctamente, incluye contadores y límites de nivel de servicio.

SemanticConfiguration

Define una configuración específica que se usará en el contexto de las funcionalidades semánticas.

SemanticDebugInfo

Opciones de depuración para consultas de búsqueda semántica.

SemanticField

Campo que se usa como parte de la configuración semántica.

SemanticPrioritizedFields

Describe los campos de título, contenido y palabras clave que se usarán para la clasificación semántica, los subtítulos, los resaltados y las respuestas.

SemanticSearch

Define parámetros para un índice de búsqueda que influye en las funcionalidades semánticas.

SemanticSearchOptions

Define opciones para consultas de búsqueda semántica

SentimentSkill

Análisis de opiniones positivas y negativas del análisis de texto, puntuado como un valor de punto flotante en un intervalo de cero a 1.

SentimentSkillV3

Con Text Analytics API, evalúa texto no estructurado y, para cada registro, proporciona etiquetas de opinión (como "negativa", "neutral" y "positiva") en función de la puntuación de confianza más alta encontrada por el servicio en una oración y en el nivel de documento.

ServiceCounters

Representa contadores y cuotas de recursos de nivel de servicio.

ServiceLimits

Representa varios límites de nivel de servicio.

ShaperSkill

Aptitud para volver a dar forma a las salidas. Crea un tipo complejo para admitir campos compuestos (también conocidos como campos de varias partes).

ShingleTokenFilter

Crea combinaciones de tokens como un único token. Este filtro de token se implementa mediante Apache Lucene.

SimpleField

Representa un campo en una definición de índice, que describe el nombre, el tipo de datos y el comportamiento de búsqueda de un campo.

SingleVectorFieldResult

Resultado de un campo de vector único. Ambos

SnowballTokenFilter

Filtro que deriva las palabras mediante un lematizador generado por Snowball. Este filtro de token se implementa mediante Apache Lucene.

SoftDeleteColumnDeletionDetectionPolicy

Define una directiva de detección de eliminación de datos que implementa una estrategia de eliminación temporal. Determina si un elemento se debe eliminar en función del valor de una columna designada "eliminación temporal".

SplitSkill

Aptitud para dividir una cadena en fragmentos de texto.

SqlIntegratedChangeTrackingPolicy

Define una directiva de detección de cambios de datos que captura los cambios mediante la característica Seguimiento de cambios integrado de Azure SQL Database.

StemmerOverrideTokenFilter

Proporciona la capacidad de invalidar otros filtros de lematización con lematización personalizada basada en diccionarios. Cualquier término con lematización de diccionario se marcará como palabras clave para que no se lematice con lematizadores hacia abajo de la cadena. Debe colocarse antes de los filtros de lematización. Este filtro de token se implementa mediante Apache Lucene. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html.

StemmerTokenFilter

Filtro de lematización específico del idioma. Este filtro de token se implementa mediante Apache Lucene. Vea https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters.

StopAnalyzer

Divide el texto en letras no letras; Aplica los filtros de token en minúsculas y palabras irrelevantes. Este analizador se implementa mediante Apache Lucene.

StopwordsTokenFilter

Quita las palabras irrelevantes de una secuencia de tokens. Este filtro de token se implementa mediante Apache Lucene. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html.

SuggestDocumentsResult

Respuesta que contiene los resultados de la consulta de sugerencias de un índice.

SuggestRequest

Parámetros para filtrar, ordenar, coincidencia aproximada y otros comportamientos de consulta de sugerencias.

Suggester

Define cómo se debe aplicar la API suggest a un grupo de campos del índice.

SynchronizationState

Representa el estado actual de una sincronización en curso que abarca varias ejecuciones del indexador.

SynonymMap

Representa una definición de mapa de sinónimos.

SynonymTokenFilter

Coincide con sinónimos de una o varias palabras en una secuencia de tokens. Este filtro de token se implementa mediante Apache Lucene.

TagScoringFunction

Define una función que aumenta las puntuaciones de documentos con valores de cadena que coinciden con una lista determinada de etiquetas.

TagScoringParameters

Proporciona valores de parámetro a una función de puntuación de etiquetas.

TextResult

Puntuación bm25 o clásica para la parte de texto de la consulta.

TextTranslationSkill

Aptitud para traducir texto de un idioma a otro.

TextWeights

Define pesos en campos de índice para los que las coincidencias deben aumentar la puntuación en las consultas de búsqueda.

TokenAuthAzureMachineLearningVectorizerParameters

Especifica las propiedades para conectarse a un vectorizador AML con una identidad administrada.

TruncateTokenFilter

Trunca los términos a una longitud específica. Este filtro de token se implementa mediante Apache Lucene.

UaxUrlEmailTokenizer

Tokeniza las direcciones URL y los correos electrónicos como un token. Este tokenizador se implementa mediante Apache Lucene.

UniqueTokenFilter

Filtra los tokens con el mismo texto que el token anterior. Este filtro de token se implementa mediante Apache Lucene.

VectorSearch

Contiene opciones de configuración relacionadas con la búsqueda vectorial.

VectorSearchOptions

Define las opciones para las consultas de búsqueda vectorial.

VectorSearchProfile

Define una combinación de configuraciones que se van a usar con la búsqueda vectorial.

VectorizableImageBinaryQuery

Los parámetros de consulta que se van a usar para la búsqueda vectorial cuando se proporciona un binario codificado en base 64 de una imagen que debe vectorizarse.

VectorizableImageUrlQuery

Los parámetros de consulta que se van a usar para la búsqueda vectorial cuando se proporciona una dirección URL que representa un valor de imagen que debe vectorizarse.

VectorizableTextQuery

Los parámetros de consulta que se van a usar para la búsqueda vectorial cuando se proporciona un valor de texto que debe vectorizarse.

VectorizedQuery

Parámetros de consulta que se usarán para la búsqueda vectorial cuando se proporciona un valor de vector sin formato.

VectorsDebugInfo

"Contiene información de depuración específica para búsqueda vectorial e híbrida.")

WebApiParameters

Especifica las propiedades para conectarse a un vectorizador definido por el usuario.

WebApiSkill

Una aptitud que puede llamar a un punto de conexión de API web, lo que le permite ampliar un conjunto de aptitudes haciendo que llame al código personalizado.

WebApiVectorizer

Especifica un vectorizador definido por el usuario para generar la inserción de vectores de una cadena de consulta. La integración de un vectorizador externo se logra mediante la interfaz de API web personalizada de un conjunto de aptitudes.

WebKnowledgeSource

Fuente de conocimiento dirigida a resultados web.

WebKnowledgeSourceDomain

Configuración para el dominio de origen de conocimiento web.

WebKnowledgeSourceDomains

Configuración de dominio/bloqueo para el origen de conocimiento web.

WebKnowledgeSourceParameters

Parámetros para el origen de conocimiento web.

WebKnowledgeSourceParams

Especifica parámetros de tiempo de ejecución para un origen de conocimiento web

WordDelimiterTokenFilter

Divide palabras en subpalabras y realiza transformaciones opcionales en grupos de subwords. Este filtro de token se implementa mediante Apache Lucene.

Alias de tipos

AIFoundryModelCatalogName

El nombre del modelo de incrustación del catálogo de Fundición de IA de Azure que se llamará.
KnownAIFoundryModelCatalogName se puede usar indistintamente con AIFoundryModelCatalogName, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32: OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32
OpenAI-CLIP-Imagen-Texto-Incrustaciones-ViT-Large-Patch14-336: OpenAI-CLIP-Imagen-Texto-Embeddings-ViT-Large-Patch14-336
Facebook-DinoV2-Embebidas-Imagen-ViT-Base: Facebook-DinoV2-Embebidas-Imágenes-ViT-Base
Facebook-DinoV2-Embebidas-Imagen-ViT-Giant: Facebook-DinoV2-Embebidas-Imágenes-ViT-Giant
Cohere-embed-v3-english: Cohere-embed-v3-english
Cohere-embed-v3-multilingüe: Cohere-embed-v3-multilingüe
Cohe-embed-v4: Modelo de incrustación coherente v4 para generar incrustaciones tanto a partir de texto como de imágenes.

AliasIterator

Iterador para enumerar los alias que existen en el servicio de búsqueda. Esto realizará solicitudes según sea necesario durante la iteración. Use .byPage() para realizar una solicitud al servidor por iteración.

AnalyzeTextOptions

Opciones para analizar la operación de texto.

AutocompleteMode

Especifica el modo de Autocompletar. El valor predeterminado es 'oneTerm'. Use 'twoTerms' para obtener herpes zóster y 'oneTermWithContext' para usar el contexto actual en la producción de términos de autocompletar.

AutocompleteOptions

Opciones para recuperar el texto de finalización de un searchText parcial.

AzureMachineLearningVectorizerParameters

Especifica las propiedades para conectarse a un vectorizador AML.

AzureOpenAIModelName

Nombre del modelo de Azure Open AI al que se llamará.
KnownAzureOpenAIModelName se puede usar indistintamente con AzureOpenAIModelName, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

text-embedding-ada-002: TextEmbeddingAda002 modelo.
text-embedding-3-large: TextEmbedding3Large modelo.
text-embedding-3-small: TextEmbedding3Small modelo.
gpt-5-mini: modelo Gpt5Mini.
gpt-5-nano: modelo Gpt5Nano.
gpt-5.4-mini: modelo gpt54Mini.
gpt-5.4-nano: modelo Gpt54Nano.

BaseKnowledgeRetrievalIntent

Alias para KnowledgeRetrievalIntentUnion

BlobIndexerDataToExtract
BlobIndexerImageAction
BlobIndexerPDFTextRotationAlgorithm
BlobIndexerParsingMode
CharFilter

Contiene los posibles casos de CharFilter.

CharFilterName

Define los nombres de todos los filtros de caracteres admitidos por el motor de búsqueda.
<xref:KnownCharFilterName> se puede usar indistintamente con CharFilterName, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

html_strip: filtro de caracteres que intenta quitar construcciones HTML. Vea https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html.

ChatCompletionExtraParametersBehavior

Especifica cómo debe gestionar los 'extraParameters' en Fundición de IA de Azure. El valor predeterminado es 'error'.
KnownChatCompletionExtraParametersBehavior se puede usar indistintamente con ChatCompletionExtraParametersBehavior, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

passThrough: pasa los parámetros adicionales directamente al modelo.
drop: Elimina todos los parámetros adicionales.
error: genera un error si hay algún parámetro adicional.

ChatCompletionResponseFormatType

Especifica cómo el LLM debe dar formato a la respuesta.
KnownChatCompletionResponseFormatType se puede usar indistintamente con ChatCompletionResponseFormatType, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

texto: Formato de respuesta en texto plano.
jsonObject: Formato arbitrario de respuesta de objeto JSON.
jsonSchema: Formato de respuesta que se adhiere al esquema JSON.

CjkBigramTokenFilterScripts

Scripts que CjkBigramTokenFilter puede omitir.

CognitiveServicesAccount

Contiene los posibles casos de CognitiveServicesAccount.

ComplexDataType

Define valores para ComplexDataType. Los valores posibles son: 'Edm.ComplexType', 'Collection(Edm.ComplexType)'

ContentUnderstandingSkillChunkingUnit

Controla la cardinalidad de la unidad de fragmento. Por defecto es 'caracteres'
KnownContentUnderstandingSkillChunkingUnit puede usarse indistintamente con ContentUnderstandingSkillChunkingUnit, este enum contiene los valores conocidos que soporta el servicio.

Valores conocidos admitidos por el servicio

characters: Especifica fragmento por caracteres.

ContentUnderstandingSkillExtractionOptions

Controla la cardinalidad del contenido extraído del documento por la aptitud.
KnowContentUnderstandingSkillExtractionOptions puede usarse indistintamente con ContentUnderstandingSkillExtractionOptions, este enum contiene los valores conocidos que soporta el servicio.

Valores conocidos admitidos por el servicio

images: especifique que el contenido de la imagen debe extraerse del documento.
locationMetadata: especifique que los metadatos de ubicación deben extraerse del documento.

ContinuablePage

Interfaz que describe una página de resultados.

CountDocumentsOptions

Opciones para realizar la operación de recuento en el índice.

CreateAliasOptions

Opciones para crear la operación de alias.

CreateDataSourceConnectionOptions

Opciones para crear una operación de origen de datos.

CreateIndexOptions

Opciones para crear la operación de índice.

CreateIndexerOptions

Opciones para crear la operación del indexador.

CreateSkillsetOptions

Opciones para crear la operación del conjunto de aptitudes.

CreateSynonymMapOptions

Opciones para crear la operación de mapa de sinónimos.

CustomEntityLookupSkillLanguage
DataChangeDetectionPolicy

Contiene los posibles casos de DataChangeDetectionPolicy.

DataDeletionDetectionPolicy

Contiene los posibles casos de DataDeletionDetectionPolicy.

DeleteDocumentsOptions

Opciones para la operación de eliminación de documentos.

DocumentIntelligenceLayoutSkillChunkingUnit

Controla la cardinalidad de la unidad de fragmento. Por defecto es 'caracteres'
KnownDocumentIntelligenceLayoutSkillChunkingUnit se puede usar indistintamente con DocumentIntelligenceLayoutSkillChunkingUnit, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

characters: Especifica fragmento por caracteres.

DocumentIntelligenceLayoutSkillExtractionOptions

Controla la cardinalidad del contenido extraído del documento por la aptitud.
KnownDocumentIntelligenceLayoutSkillExtractionOptions se puede usar indistintamente con DocumentIntelligenceLayoutSkillExtractionOptions, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

images: especifique que el contenido de la imagen debe extraerse del documento.
locationMetadata: especifique que los metadatos de ubicación deben extraerse del documento.

DocumentIntelligenceLayoutSkillMarkdownHeaderDepth

Profundidad de encabezados en la salida de Markdown. El valor predeterminado es h6.
KnownDocumentIntelligenceLayoutSkillMarkdownHeaderDepth se puede usar indistintamente con DocumentIntelligenceLayoutSkillMarkdownHeaderDepth, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

h1: Nivel de encabezado 1.
h2: Nivel de encabezado 2.
h3: Nivel de encabezado 3.
h4: Nivel de encabezado 4.
h5: Nivel de encabezado 5.
h6: Nivel de encabezado 6.

DocumentIntelligenceLayoutSkillOutputFormat

Controla la cardinalidad del formato de salida. El valor predeterminado es 'markdown'.
KnownDocumentIntelligenceLayoutSkillOutputFormat se puede usar indistintamente con DocumentIntelligenceLayoutSkillOutputFormat, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

text: especifique el formato de la salida como texto.
markdown: especifique el formato de la salida como markdown.

DocumentIntelligenceLayoutSkillOutputMode

Controla la cardinalidad de la salida generada por la aptitud. El valor predeterminado es "oneToMany".
KnownDocumentIntelligenceLayoutSkillOutputMode se puede usar indistintamente con DocumentIntelligenceLayoutSkillOutputMode, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

oneToMany: especifique que la salida debe analizarse como 'oneToMany'.

EdgeNGramTokenFilterSide

Especifica desde qué lado de la entrada se debe generar un n-grama.

EntityCategory

Una cadena que indica qué categorías de entidad devolver.
KnowEntityCategory puede usarse indistintamente con EntityCategory, este enum contiene los valores conocidos que soporta el servicio.

Valores conocidos admitidos por el servicio

ubicación: Entidades que describen una ubicación física.
organización: Entidades que describen una organización.
persona: Entidades que describen a una persona.
cantidad: Entidades que describen una cantidad.
Fecha-hora: Entidades que describen una fecha y hora.
url: Entidades que describen una URL.
correo electrónico: Entidades que describen una dirección de correo electrónico.

EntityRecognitionSkillLanguage

Los códigos de idioma admitidos para el texto de entrada por EntityRecognitionSkill.
KnownEntityRecognitionSkillLanguage puede usarse indistintamente con EntityRecognitionSkillLanguage, este enum contiene los valores conocidos que soporta el servicio.

Valores conocidos admitidos por el servicio

ar: árabe
cs: Checo
zh-Hans: Chinese-Simplified
zh-Hant: Chinese-Traditional
da: Danés
nl: neerlandés
en: inglés
fi: finlandés
fr: francés
de: alemán
el: griego
hu: húngaro
it: italiano
ja: japonés
ko: Coreano
No: Noruego (Bokmaal)
pl: Polaco
pt-PT: Portugués (Portugal)
pt-BR: Portugués (Brasil)
ru: ruso
es: español
sv: Sueco
tr: turco

ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

Contiene opciones de configuración específicas del algoritmo KNN exhaustivo utilizado durante la consulta, que realizará la búsqueda por fuerza bruta en todo el índice vectorial.

ExtractDocumentKey
GetAliasOptions

Opciones para obtener la operación de alias.

GetDataSourceConnectionOptions

Opciones para obtener la operación de origen de datos.

GetIndexOptions

Opciones para obtener la operación de índice.

GetIndexStatisticsOptions

Opciones para obtener la operación de obtención de estadísticas de índice.

GetIndexerOptions

Opciones para obtener la operación del indexador.

GetIndexerStatusOptions

Opciones para obtener la operación de estado del indexador.

GetServiceStatisticsOptions

Opciones para obtener la operación de estadísticas de servicio.

GetSkillSetOptions

Opciones para obtener la operación del conjunto de aptitudes.

GetSynonymMapsOptions

Opciones para obtener la operación de mapas de sinónimos.

HnswAlgorithmConfiguration

Contiene opciones de configuración específicas del algoritmo de vecinos más próximo que se usan durante el tiempo de indexación.

ImageAnalysisSkillLanguage
ImageDetail
IndexActionType

Operación que se va a realizar en un documento en un lote de indexación.

IndexDocumentsAction

Representa una acción de índice que funciona en un documento.

IndexIterator

Iterador para enumerar los índices que existen en el servicio search. Realizará solicitudes según sea necesario durante la iteración. Use .byPage() para realizar una solicitud al servidor por iteración.

IndexNameIterator

Iterador para enumerar los índices que existen en el servicio search. Realizará solicitudes según sea necesario durante la iteración. Use .byPage() para realizar una solicitud al servidor por iteración.

IndexProjectionMode

Define el comportamiento de las proyecciones de índice en relación con el resto del indexador.
KnownIndexProjectionMode se puede usar indistintamente con IndexProjectionMode, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

skipIndexingParentDocuments: el documento de origen se omitirá de escribir en el índice de destino del indexador.
includeIndexingParentDocuments: el documento de origen se escribirá en el índice de destino del indexador. Este es el patrón predeterminado.

IndexerExecutionEnvironment
IndexerExecutionStatus

Representa el estado de la ejecución de un indexador individual.

IndexerResyncOption

Opciones con varios tipos de datos de permisos para indexar.
KnownIndexerResyncOption se puede usar indistintamente con IndexerResyncOption, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

permissions: indexador para volver a ingerir datos de permisos preseleccionados del origen de datos al índice.

IndexerStatus

Representa el estado general del indexador.

KeyPhraseExtractionSkillLanguage
KnowledgeBaseActivityRecord

Alias para KnowledgeBaseActivityRecordUnion

KnowledgeBaseActivityRecordType

El tipo de registro de actividad.
<xref:KnownKnowledgeBaseActivityRecordType> puede usarse indistintamente con KnowledgeBaseActivityRecordType, este enum contiene los valores conocidos que soporta el servicio.

Valores conocidos admitidos por el servicio

searchIndex: Actividad de recuperación de indexación de búsqueda.
azureBlob: Azure actividad de recuperación de Blob.
indexedOneLake: Actividad de recuperación indexada de OneLake.
web: Actividad de recuperación web.
modelWebSummarization: Actividad de resumen web de LLM.
razonamiento agentic: Actividad de razonamiento agential.

KnowledgeBaseIterator

Un iterador para listar las bases de conocimiento que existen en el servicio de búsqueda. Realizará solicitudes según sea necesario durante la iteración. Use .byPage() para realizar una solicitud al servidor por iteración.

KnowledgeBaseMessageContent

Alias para KnowledgeBaseMessageContentUnion

KnowledgeBaseMessageContentType

El tipo de contenido del mensaje.
<xref:KnownKnowledgeBaseMessageContentType> puede usarse indistintamente con KnowledgeBaseMessageContentType, este enum contiene los valores conocidos que soporta el servicio.

Valores conocidos admitidos por el servicio

texto: Contenido de mensajes de texto.
imagen: Tipo de contenido de mensaje de imagen.

KnowledgeBaseModel
KnowledgeBaseModelKind

El modelo de IA que se utilizará para la planificación de consultas.
KnowKnowledgeBaseModelKind puede usarse indistintamente con KnowledgeBaseModelKind, este enum contiene los valores conocidos que soporta el servicio.

Valores conocidos admitidos por el servicio

azureOpenAI: Utilizar modelos Azure Open AI para la planificación de consultas.

KnowledgeBaseReference

Alias para KnowledgeBaseReferenceUnion

KnowledgeBaseReferenceType

Tipo de referencia.
<xref:KnownKnowledgeBaseReferenceType> puede usarse indistintamente con KnowledgeBaseReferenceType, este enum contiene los valores conocidos que soporta el servicio.

Valores conocidos admitidos por el servicio

searchIndex: Referencia de documentos de search index.
azureBlob: Azure Referencia del documento Blob.
indexedOneLake: Referencia de documento OneLake indexada.
web: Referencia de documentos web.

KnowledgeRetrievalIntentType

El tipo de configuración de la base de conocimiento que se va a usar.
<xref:KnownKnowledgeRetrievalIntentType> puede usarse indistintamente con KnowledgeRetrievalIntentType, este enum contiene los valores conocidos que soporta el servicio.

Valores conocidos admitidos por el servicio

Semántica: Una intención de consulta semántica en lenguaje natural.

KnowledgeRetrievalReasoningEffortKind

La cantidad de esfuerzo que se debe utilizar durante la recuperación.
<xref:KnownKnowledgeRetrievalReasoningEffortKind> puede usarse indistintamente con KnowledgeRetrievalReasoningEffortKind, este enum contiene los valores conocidos que soporta el servicio.

Valores conocidos admitidos por el servicio

Minimal: No realiza selecciones de fuente, planificación de consultas ni búsqueda iterativa.

KnowledgeRetrievalReasoningEffortUnion

Alias para RecuperaciónDe ConocimientoRazonamientoEsfuerzoUnión

KnowledgeSource
KnowledgeSourceContentExtractionMode

Modo de extracción de contenido opcional. El valor predeterminado es 'mínimo'.
<xref:KnownKnowledgeSourceContentExtractionMode> puede usarse indistintamente con KnowledgeSourceContentExtractionMode, este enum contiene los valores conocidos que soporta el servicio.

Valores conocidos admitidos por el servicio

mínimo: Extrae solo metadatos esenciales mientras difiere la mayor parte del procesamiento de contenido.
estándar: Realiza la tubería completa de extracción de contenido por defecto.

KnowledgeSourceIterator

Un iterador para listar las fuentes de conocimiento que existen en el servicio de búsqueda. Realizará solicitudes según sea necesario durante la iteración. Use .byPage() para realizar una solicitud al servidor por iteración.

KnowledgeSourceKind

El tipo de fuente de conocimiento.
KnownKnowledgeSourceKind se puede usar indistintamente con KnowledgeSourceKind, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

searchIndex: una fuente de conocimiento que lee datos de un índice de búsqueda.
azureBlob: un origen de conocimiento que lee e ingiere datos de Azure Blob Storage en un índice de búsqueda.
indexedOneLake: Una fuente de conocimiento que lee datos de OneLake indexado.
web: Una fuente de conocimiento que lee datos de la web.

KnowledgeSourceParams

Alias para KnowledgeSourceParamsUnion

KnowledgeSourceSynchronizationStatus

El estado de sincronización actual del origen de conocimiento.
<xref:KnownKnowledgeSourceSynchronizationStatus> puede usarse indistintamente con KnowledgeSourceSynchronizationStatus, este enum contiene los valores conocidos que soporta el servicio.

Valores conocidos admitidos por el servicio

creación: La fuente de conocimiento se está provisionando.
activo: La fuente de conocimiento está activa y se están realizando ejecuciones de sincronización.
eliminación: La fuente de conocimiento se está eliminando y la sincronización se pausa.

KnowledgeSourceVectorizer
LexicalAnalyzer

Contiene los posibles casos para analyzer.

LexicalAnalyzerName

Define los nombres de todos los analizadores de texto compatibles con el motor de búsqueda.
KnownLexicalAnalyzerName se puede usar indistintamente con LexicalAnalyzerName, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

ar.microsoft: analizador de Microsoft para árabe.
ar.lucene: analizador de Lucene para árabe.
hy.lucene: analizador de Lucene para armenio.
bn.microsoft: Analizador de Microsoft para Bangla.
eu.lucene: analizador de Lucene para Euskera.
bg.microsoft: analizador de Microsoft para búlgaro.
bg.lucene: analizador de Lucene para búlgaro.
ca.microsoft: analizador de Microsoft para catalán.
ca.lucene: analizador de Lucene para catalán.
zh-Hans.microsoft: analizador de Microsoft para chino (simplificado).
zh-Hans.lucene: analizador de Lucene para chino (simplificado).
zh-Hant.microsoft: Analizador de Microsoft para chino (tradicional).
zh-Hant.lucene: analizador de Lucene para chino (tradicional).
hr.microsoft: analizador de Microsoft para croata.
cs.microsoft: analizador de Microsoft para Checo.
cs.lucene: analizador de Lucene para Checo.
da.microsoft: analizador de Microsoft para danés.
da.lucene: analizador de Lucene para danés.
nl.microsoft: analizador de Microsoft para neerlandés.
nl.lucene: analizador de Lucene para neerlandés.
en.microsoft: analizador de Microsoft para inglés.
en.lucene: analizador de Lucene para inglés.
et.microsoft: analizador de Microsoft para Estonia.
fi.microsoft: analizador de Microsoft para finés.
fi.lucene: analizador de Lucene para finés.
fr.microsoft: analizador de Microsoft para francés.
fr.lucene: analizador de Lucene para francés.
gl.lucene: analizador de Lucene para Gallega.
de.microsoft: analizador de Microsoft para alemán.
de.lucene: analizador de Lucene para alemán.
el.microsoft: analizador de Microsoft para griego.
el.lucene: analizador de Lucene para griego.
gu.microsoft: Analizador de Microsoft para Gujarati.
he.microsoft: Analizador de Microsoft para hebreo.
hi.microsoft: analizador de Microsoft para hindi.
hi.lucene: analizador de Lucene para hindi.
hu.microsoft: analizador de Microsoft para húngaro.
hu.lucene: analizador de Lucene para húngaro.
is.microsoft: Analizador de Microsoft para Islandés.
id.microsoft: Analizador de Microsoft para Indonesia (Bahasa).
id.lucene: analizador de Lucene para indonesia.
ga.lucene: analizador de Lucene para irlandés.
it.microsoft: analizador de Microsoft para italiano.
it.lucene: analizador de Lucene para italiano.
ja.microsoft: analizador de Microsoft para japonés.
ja.lucene: analizador de Lucene para japonés.
kn.microsoft: Analizador de Microsoft para Kannada.
ko.microsoft: analizador de Microsoft para coreano.
ko.lucene: analizador de Lucene para coreano.
lv.microsoft: analizador de Microsoft para letón.
lv.lucene: analizador de Lucene para letón.
lt.microsoft: analizador de Microsoft para Lituano.
ml.microsoft: analizador de Microsoft para Malayalam.
ms.microsoft: Analizador de Microsoft para malayo (latino).
mr.microsoft: Analizador de Microsoft para Marathi.
nb. microsoft: Analizador de Microsoft para noruego (Bokmål).
no.lucene: analizador de Lucene para noruego.
fa.lucene: analizador de Lucene para persa.
pl.microsoft: analizador de Microsoft para polaco.
pl.lucene: analizador de Lucene para polaco.
pt-BR.microsoft: Analizador de Microsoft para portugués (Brasil).
pt-BR.lucene: analizador de Lucene para portugués (Brasil).
pt-PT.microsoft: Analizador de Microsoft para portugués (Portugal).
pt-PT.lucene: analizador de Lucene para portugués (Portugal).
pa.microsoft: analizador de Microsoft para Punjabi.
ro.microsoft: analizador de Microsoft para rumano.
ro.lucene: analizador de Lucene para rumano.
ru.microsoft: analizador de Microsoft para ruso.
ru.lucene: analizador de Lucene para ruso.
sr-cyrillic.microsoft: analizador de Microsoft para serbio (cirílico).
sr-latin.microsoft: Analizador de Microsoft para serbio (latino).
sk.microsoft: analizador de Microsoft para eslovaco.
sl.microsoft: analizador de Microsoft para esloveno.
es.microsoft: Analizador de Microsoft para español.
es.lucene: analizador de Lucene para español.
sv.microsoft: analizador de Microsoft para sueco.
sv.lucene: analizador de Lucene para sueco.
ta.microsoft: Analizador de Microsoft para Tamil.
te.microsoft: Analizador de Microsoft para Telugu.
th.microsoft: analizador de Microsoft para tailandés.
th.lucene: analizador de Lucene para tailandés.
tr.microsoft: analizador de Microsoft para turco.
tr.lucene: analizador de Lucene para turco.
uk.microsoft: analizador de Microsoft para Ucrania.
your.microsoft: Analizador de Microsoft para Urdu.
vi.microsoft: analizador de Microsoft para vietnamitas.
standard.lucene: analizador estándar de Lucene.
standardasciifolding.lucene: analizador estándar de Lucene plegable ASCII. Vea https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers.
palabra clave: trata todo el contenido de un campo como un solo token. Esto es útil para datos como códigos postales, identificadores y algunos nombres de producto. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html.
patrón: separa de forma flexible el texto en términos a través de un patrón de expresión regular. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html.
simple: divide el texto en letras y los convierte en minúsculas. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html.
detener: divide el texto en letras no letras; Aplica los filtros de token en minúsculas y palabras irrelevantes. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html.
espacio en blanco: un analizador que usa el tokenizador de espacio en blanco. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html.

LexicalNormalizer

Contiene los posibles casos para LexicalNormalizer.

LexicalNormalizerName

Define los nombres de todos los normalizadores de texto admitidos por el motor de búsqueda.
KnownLexicalNormalizerName se puede usar indistintamente con LexicalNormalizerName, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

asciifolding: convierte caracteres unicode alfabéticos, numéricos y simbólicos que no están en los primeros 127 caracteres ASCII (el bloque Unicode "Básico latino") en sus equivalentes ASCII, si existen dichos equivalentes. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html.
elision: quita los elisiones. Por ejemplo, "l'avion" (el plano) se convertirá en "avion" (plano). Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html.
lowercase: Normaliza el texto del token a minúsculas. Vea https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html.
standard: Normalizador estándar, que consiste en minúsculas y asciifolding. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html.
uppercase: Normaliza el texto del token a mayúsculas. Vea https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html.

LexicalTokenizer

Contiene los posibles casos de Tokenizer.

LexicalTokenizerName

Define los nombres de todos los tokenizadores admitidos por el motor de búsqueda.
<xref:KnownLexicalTokenizerName> se puede usar indistintamente con LexicalTokenizerName, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

clásico: tokenizador basado en gramática que es adecuado para procesar la mayoría de los documentos de idioma europeo. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html.
edgeNGram: tokeniza la entrada de un borde en n gramos de los tamaños especificados. Vea https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html.
keyword_v2: emite toda la entrada como un solo token. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html.
letra: divide el texto en letras no letras. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html.
minúsculas: divide el texto en letras y los convierte en minúsculas. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html.
microsoft_language_tokenizer: divide el texto mediante reglas específicas del idioma.
microsoft_language_stemming_tokenizer: divide el texto mediante reglas específicas del idioma y reduce las palabras a sus formularios base.
nGram: tokeniza la entrada en n gramos de los tamaños especificados. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html.
path_hierarchy_v2: tokenizador para jerarquías de tipo ruta de acceso. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html.
patrón: tokenizador que usa la coincidencia de patrones regex para construir tokens distintos. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html.
standard_v2: analizador estándar de Lucene; Compuesto por el tokenizador estándar, el filtro en minúsculas y el filtro stop. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html.
uax_url_email: tokeniza las direcciones URL y los correos electrónicos como un token. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html.
espacio en blanco: divide el texto en un espacio en blanco. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html.

ListAliasesOptions

Opciones para la operación de alias de lista.

ListDataSourceConnectionsOptions

Opciones para una operación de orígenes de datos de lista.

ListIndexersOptions

Opciones para una operación de indexadores de lista.

ListIndexesOptions

Opciones para una operación de índices de lista.

ListSkillsetsOptions

Opciones para una operación de conjuntos de aptitudes de lista.

ListSynonymMapsOptions

Opciones para una operación synonymMaps de lista.

MarkdownHeaderDepth

Especifica la profundidad máxima del encabezado que se tendrá en cuenta al agrupar el contenido de Markdown. El valor predeterminado es h6.
KnownMarkdownHeaderDepth se puede usar indistintamente con MarkdownHeaderDepth, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

h1: Indica que se tendrán en cuenta los encabezados hasta un nivel de h1 al agrupar el contenido de Markdown.
h2: Indica que se tendrán en cuenta los encabezados hasta un nivel de h2 al agrupar el contenido de Markdown.
h3: Indica que se tendrán en cuenta los encabezados de hasta un nivel de h3 al agrupar el contenido de Markdown.
h4: Indica que se tendrán en cuenta los encabezados hasta un nivel de h4 al agrupar el contenido de Markdown.
h5: Indica que se tendrán en cuenta los encabezados de hasta un nivel de h5 al agrupar el contenido de Markdown.
h6: Indica que se tendrán en cuenta los encabezados hasta un nivel de h6 al agrupar el contenido de Markdown. Este es el valor predeterminado.

MarkdownParsingSubmode

Especifica el submodo que determinará si un archivo Markdown se analizará exactamente en un documento de búsqueda o en varios documentos de búsqueda. El valor predeterminado es oneToMany.
KnownMarkdownParsingSubmode se puede usar indistintamente con MarkdownParsingSubmode, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

oneToMany: Indica que cada sección del archivo markdown (hasta una profundidad especificada) se analizará en documentos de búsqueda individuales. Esto puede dar lugar a que un único archivo markdown genere varios documentos de búsqueda. Este es el modo secundario predeterminado.
oneToOne: Indica que cada archivo de Markdown se analizará en un único documento de búsqueda.

MergeDocumentsOptions

Opciones para la operación de combinación de documentos.

MergeOrUploadDocumentsOptions

Opciones para la operación de combinación o carga de documentos.

MicrosoftStemmingTokenizerLanguage

Enumera los lenguajes soportados por el tokenizador de stemming de lenguaje de Microsoft.

MicrosoftTokenizerLanguage

Enumera los idiomas soportados por el tokenizador de lenguajes de Microsoft.

NarrowedModel

Limita el tipo de modelo para incluir solo los campos seleccionados.

OcrLineEnding

Define la secuencia de caracteres que se va a usar entre las líneas de texto reconocidas por la aptitud OCR. El valor predeterminado es "space".
KnownOcrLineEnding se puede usar indistintamente con OcrLineEnding, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

espacio: las líneas están separadas por un solo carácter de espacio.
carroReturn: las líneas están separadas por un carácter de retorno de carro ("\r').
lineFeed: las líneas están separadas por un carácter de fuente de línea única ("\n').
carroReturnLineFeed: las líneas están separadas por un retorno de carro y un carácter de avance de línea ("\r\n").

OcrSkillLanguage
PIIDetectionSkillMaskingMode
PhoneticEncoder

Identifica el tipo de codificador fonético que se va a usar con PhoneticTokenFilter.

QueryAnswer

Valor que especifica si las respuestas se deben devolver como parte de la respuesta de búsqueda. Este parámetro solo es válido si el tipo de consulta es "semántico". Si se establece en extractive, la consulta devuelve respuestas extraídas de los pasajes clave de los documentos clasificados más altos.

QueryCaption

Valor que especifica si se deben devolver títulos como parte de la respuesta de búsqueda. Este parámetro solo es válido si el tipo de consulta es "semántico". Si se establece, la consulta devuelve títulos extraídos de los pasajes clave de los documentos clasificados más altos. Cuando captions es "extractive", el resaltado está habilitado de forma predeterminada. El valor predeterminado es "none".

QueryDebugMode

Habilita una herramienta de depuración que se puede usar para explorar más a fondo los resultados de la búsqueda. Puede habilitar varios modos de depuración simultáneamente separándolos con un | carácter, por ejemplo: semantic|queryRewrites.
KnownQueryDebugMode se puede usar indistintamente con QueryDebugMode, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

disabled: no se devolverá ninguna información de depuración de consultas.
semántica: permite al usuario explorar más a fondo sus resultados reclasificados.
vector: Permite al usuario explorar más a fondo los resultados de sus consultas híbridas y vectoriales.
queryRewrites: Permite al usuario explorar la lista de reescrituras de consultas generadas para su solicitud de búsqueda.
innerHits: Permite al usuario recuperar información de puntuación sobre vectores coincidentes dentro de una colección de tipos complejos.
all: activa todas las opciones de depuración.

QueryRewrites

Define opciones para reescrituras de consultas.

QueryType

Especifica la sintaxis de la consulta de búsqueda. El valor predeterminado es "simple". Use 'full' si su consulta usa la sintaxis de consulta de Lucene y 'semántica' si no se necesita la sintaxis de consulta.
<xref:KnownQueryType> puede usarse indistintamente con QueryType, este enum contiene los valores conocidos que soporta el servicio.

Valores conocidos admitidos por el servicio

simple: Utiliza la sintaxis de consulta simple para las búsquedas. El texto de búsqueda se interpreta utilizando un lenguaje de consulta simple que permite símbolos como +, * y "". Las consultas se evalúan en todos los campos que se pueden buscar de forma predeterminada, a menos que se especifique el parámetro searchFields.
completo: Utiliza la sintaxis completa de la consulta Lucene para las búsquedas. El texto de búsqueda se interpreta utilizando el lenguaje de consulta Lucene que permite búsquedas ponderadas y específicas de campo, así como otras funciones avanzadas.
Semántica: Más adecuada para consultas expresadas en lenguaje natural que para palabras clave. Mejora la precisión de los resultados de búsqueda al volver a clasificar los principales resultados de búsqueda mediante un modelo de clasificación entrenado en el corpus web.

RankingOrder

Representa la puntuación que se usará para el criterio de ordenación de los documentos.
KnownRankingOrder se puede usar indistintamente con RankingOrder, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

BoostedRerankerScore: Establece el criterio de ordenación como BoostedRerankerScore
RerankerScore: Establece el criterio de ordenación como ReRankerScore

RegexFlags
ResetIndexerOptions

Opciones para restablecer la operación del indexador.

RunIndexerOptions

Opciones para ejecutar la operación del indexador.

ScoringFunction

Contiene los posibles casos de ScoringFunction.

ScoringFunctionAggregation

Define la función de agregación utilizada para combinar los resultados de todas las funciones de puntuación de un perfil de puntuación.

ScoringFunctionInterpolation

Define la función utilizada para interpolar el aumento de puntuación en un rango de documentos.

ScoringStatistics

Valor que especifica si queremos calcular las estadísticas de puntuación (como la frecuencia del documento) globalmente para obtener una puntuación más coherente o localmente, para una menor latencia. El valor predeterminado es 'local'. Utilice "global" para agregar estadísticas de puntuación globalmente antes de puntuar. El uso de estadísticas de puntuación global puede aumentar la latencia de las consultas de búsqueda.

SearchField

Representa un campo en una definición de índice, que describe el nombre, el tipo de datos y el comportamiento de búsqueda de un campo.

SearchFieldArray

Si TModel es un objeto sin tipo, una matriz de cadenas sin tipo; de lo contrario, los campos delimitados por barras diagonales de TModel.

SearchFieldDataType

Define valores para SearchFieldDataType.

Valores conocidos admitidos por el servicio:

Edm.String: indica que un campo contiene una cadena.

Edm.Int32: indica que un campo contiene un entero de 32 bits con signo.

Edm.Int64: indica que un campo contiene un entero de 64 bits con signo.

Edm.Double: indica que un campo contiene un número de punto flotante de precisión doble IEEE.

Edm.Boolean : indica que un campo contiene un valor booleano (true o false).

Edm.DateTimeOffset: indica que un campo contiene un valor de fecha y hora, incluida la información de zona horaria.

Edm.GeographyPoint: indica que un campo contiene una ubicación geográfica en términos de longitud y latitud.

Edm.ComplexType: indica que un campo contiene uno o varios objetos complejos que, a su vez, tienen subcampos de otros tipos.

Edm.Single: indica que un campo contiene un número de punto flotante de precisión única. Esto solo es válido cuando se usa como parte de un tipo de colección, es decir, Collection(Edm.Single).

Edm.Half: indica que un campo contiene un número de punto flotante de precisión media. Esto solo es válido cuando se usa como parte de un tipo de colección, es decir, Collection(Edm.Half).

Edm.Int16: indica que un campo contiene un entero de 16 bits con signo. Esto solo es válido cuando se usa como parte de un tipo de colección, es decir, Collection(Edm.Int16).

Edm.SByte: indica que un campo contiene un entero de 8 bits con signo. Esto solo es válido cuando se usa como parte de un tipo de colección, es decir, Collection(Edm.SByte).

Edm.Byte: indica que un campo contiene un entero de 8 bits sin signo. Esto solo es válido cuando se usa como parte de un tipo de colección, es decir, Collection(Edm.Byte).

SearchIndexAlias

Objeto Alias de búsqueda.

SearchIndexerDataIdentity

Contiene los posibles casos para SearchIndexerDataIdentity.

SearchIndexerDataSourceType
SearchIndexerSkill

Contiene los posibles casos para Skill.

SearchIndexingBufferedSenderDeleteDocumentsOptions

Opciones para SearchIndexingBufferedSenderDeleteDocuments.

SearchIndexingBufferedSenderFlushDocumentsOptions

Opciones para SearchIndexingBufferedSenderFlushDocuments.

SearchIndexingBufferedSenderMergeDocumentsOptions

Opciones para SearchIndexingBufferedSenderMergeDocuments.

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

Opciones para SearchIndexingBufferedSenderMergeOrUploadDocuments.

SearchIndexingBufferedSenderUploadDocumentsOptions

Opciones para SearchIndexingBufferedSenderUploadDocuments.

SearchIterator

Iterador para los resultados de búsqueda de una consulta paticular. Realizará solicitudes según sea necesario durante la iteración. Use .byPage() para realizar una solicitud al servidor por iteración.

SearchMode

Especifica si alguno o todos los términos de búsqueda deben coincidir para contar el documento como una coincidencia.

SearchOptions

Opciones para confirmar una solicitud de búsqueda completa.

SearchPick

Elija profundamente los campos de T utilizando rutas de acceso válidas de AI Search OData $select.

SearchRequestOptions

Parámetros para filtrar, ordenar, facetar, paginar y otros comportamientos de consulta de búsqueda.

SearchRequestQueryTypeOptions
SearchResult

Contiene un documento encontrado por una consulta de búsqueda, además de metadatos asociados.

SelectFields

Produce una unión de rutas de acceso de $select OData de AI Search válidas para T mediante un recorrido posterior al orden del árbol de campo enraizado en T.

SemanticErrorMode
SemanticErrorReason
SemanticSearchResultsType

Tipo de respuesta parcial que se devolvió para una solicitud de clasificación semántica.
KnowSemanticSearchResultsType puede usarse indistintamente con SemanticSearchResultsType, este enum contiene los valores conocidos que soporta el servicio.

Valores conocidos admitidos por el servicio

baseResults: Resultados sin ningún enriquecimiento semántico ni reclasificación.
rerankedResults: Los resultados se han reclasificado con el modelo de reclasificación e incluirán leyendas semánticas. No incluirán respuestas, respuestas destacadas o subtítulos destacados.

SentimentSkillLanguage

Los códigos de idioma admitidos para el texto de entrada por SentimentSkill.
KnownSentimentSkillLanguage puede usarse indistintamente con SentimentSkillLanguage, este enum contiene los valores conocidos que soporta el servicio.

Valores conocidos admitidos por el servicio

da: Danés
nl: neerlandés
en: inglés
fi: finlandés
fr: francés
de: alemán
el: griego
it: italiano
No: Noruego (Bokmaal)
pl: Polaco
pt-PT: Portugués (Portugal)
ru: ruso
es: español
sv: Sueco
tr: turco

Similarity

Alias para SimilarityAlgorithmUnion

SimilarityAlgorithm

Contiene los posibles casos de similitud.

SnowballTokenFilterLanguage

El idioma que se va a utilizar para un filtro de tokens de Snowball.

SplitSkillLanguage
StemmerTokenFilterLanguage

El lenguaje que se va a usar para un filtro de token de lematización.

StopwordsList

Identifica una lista predefinida de palabras irrelevantes específicas del idioma.

SuggestNarrowedModel
SuggestOptions

Opciones para recuperar sugerencias basadas en searchText.

SuggestResult

Resultado que contiene un documento encontrado por una consulta de sugerencia, además de metadatos asociados.

TextSplitMode
TextTranslationSkillLanguage
TokenCharacterKind

Representa clases de caracteres en las que puede operar un filtro de token.

TokenFilter

Contiene los posibles casos de TokenFilter.

TokenFilterName

Define los nombres de todos los filtros de token admitidos por el motor de búsqueda.
<xref:KnownTokenFilterName> se puede usar indistintamente con TokenFilterName, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

arabic_normalization: filtro de token que aplica el normalizador árabe para normalizar la ortografía. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html.
apóstrofo: tira todos los caracteres después de un apóstrofo (incluido el apóstrofo en sí). Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html.
asciifolding: convierte caracteres unicode alfabéticos, numéricos y simbólicos que no están en los primeros 127 caracteres ASCII (el bloque Unicode "Básico latino") en sus equivalentes ASCII, si existen dichos equivalentes. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html.
cjk_bigram: forma bigrams de términos de CJK que se generan a partir del tokenizador estándar. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html.
cjk_width: normaliza las diferencias de ancho de CJK. Pliega variantes ASCII de ancho completo en el latín básico equivalente, y variantes Katakana de medio ancho en el Kana equivalente. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html.
clásico: quita los posesivos en inglés y los puntos de los acrónimos. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html.
common_grams: construya bigrams para términos que se producen con frecuencia durante la indexación. Los términos únicos todavía se indexan también, con bigrams superpuestos. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html.
edgeNGram_v2: genera n-gramas de los tamaños especificados a partir de la parte delantera o posterior de un token de entrada. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html.
elision: quita los elisiones. Por ejemplo, "l'avion" (el plano) se convertirá en "avion" (plano). Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html.
german_normalization: normaliza los caracteres alemanes según la heurística del algoritmo de bola de nieve alemán2. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html.
hindi_normalization: normaliza el texto en hindi para eliminar algunas diferencias en las variaciones ortográficas. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html.
indic_normalization: normaliza la representación Unicode del texto en idiomas indios. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html.
keyword_repeat: emite cada token entrante dos veces, una como palabra clave y una como no palabra clave. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html.
kstem: un filtro kstem de alto rendimiento para inglés. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html.
longitud: quita las palabras que son demasiado largas o demasiado cortas. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html.
límite: limita el número de tokens durante la indexación. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html.
minúsculas: normaliza el texto del token en minúsculas. Vea https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html.
nGram_v2: genera n-gramas de los tamaños especificados. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html.
persian_normalization: aplica la normalización para persas. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html.
fonética: crear tokens para coincidencias fonéticas. Vea https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html.
porter_stem: usa el algoritmo de lematización porter para transformar la secuencia de tokens. Vea http://tartarus.org/~martin/PorterStemmer.
inverso: invierte la cadena del token. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html.
scandinavian_normalization: normaliza el uso de los caracteres escandinavos intercambiables. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html.
scandinavian_folding: Folds Caracteres escandinavos Ã¥ã... äæÃ"Æ->a y öÖà ̧à ̃-o>. También discrimina el uso de vocales dobles aa, ae, ao, oe y oo, dejando solo el primero. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html.
de shingle: crea combinaciones de tokens como un solo token. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html.
bola de nieve: un filtro que deriva las palabras mediante un lematizador generado por Snowball. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html.
sorani_normalization: normaliza la representación Unicode del texto Sorani. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html.
lematizador: filtro de lematización específico del idioma. Vea https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters.
palabras irrelevantes: quita las palabras irrelevantes de una secuencia de tokens. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html.
recorte: recorta el espacio en blanco inicial y final de los tokens. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html.
truncar: trunca los términos a una longitud específica. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html.
único: filtra los tokens con el mismo texto que el token anterior. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html.
mayúsculas: normaliza el texto del token en mayúsculas. Vea https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html.
word_delimiter: divide palabras en subpalabras y realiza transformaciones opcionales en los grupos de subwords.

UnionToIntersection
UploadDocumentsOptions

Opciones para la operación de carga de documentos.

VectorEncodingFormat

El formato de codificación para interpretar el contenido de los campos vectoriales.
KnownVectorEncodingFormat se puede usar indistintamente con VectorEncodingFormat, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

packedBit: formato de codificación que representa bits empaquetados en un tipo de datos más amplio.

VectorFilterMode
VectorQuery

Los parámetros de consulta para las consultas de búsqueda híbrida y vectorial.

VectorQueryKind
VectorSearchAlgorithmConfiguration

Contiene opciones de configuración específicas del algoritmo utilizado durante la indexación o consulta.

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric
VectorSearchCompression

Contiene opciones de configuración específicas del método de compresión utilizado durante la indexación o consulta.

VectorSearchCompressionKind

El método de compresión utilizado para la indexación y la consulta.
KnownVectorSearchCompressionKind se puede usar indistintamente con VectorSearchCompressionKind, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

scalarQuantization: Cuantificación escalar, un tipo de método de compresión. En la cuantificación escalar, los valores de vectores originales se comprimen en un tipo más estrecho al discretizar y representar cada componente de un vector mediante un conjunto reducido de valores cuantificados, lo que reduce el tamaño general de los datos.
binaryQuantization: Cuantificación binaria, un tipo de método de compresión. En la cuantificación binaria, los valores de vectores originales se comprimen al tipo binario más estrecho al discretizar y representar cada componente de un vector mediante valores binarios, lo que reduce el tamaño general de los datos.

VectorSearchCompressionRescoreStorageMethod

Método de almacenamiento de los vectores de precisión total originales utilizados para las operaciones de repuntuación e índice interno.
KnownVectorSearchCompressionRescoreStorageMethod se puede usar indistintamente con VectorSearchCompressionRescoreStorageMethod, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

preserveOriginals: esta opción conserva los vectores originales de precisión completa. Elija esta opción para obtener la máxima flexibilidad y la mayor calidad de los resultados de búsqueda comprimidos. Esto consume más almacenamiento, pero permite recorrizar y sobremuestreo.
discardOriginals: esta opción descarta los vectores originales de precisión total. Elija esta opción para ahorrar almacenamiento máximo. Dado que esta opción no permite recorrizar y sobremuestreo, a menudo provocará pequeñas o moderadas reducciones en la calidad.

VectorSearchCompressionTarget

Tipo de datos cuantificados de valores vectoriales comprimidos.
KnownVectorSearchCompressionTarget se puede usar indistintamente con VectorSearchCompressionTarget, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

int8: entero con signo de 8 bits.

VectorSearchVectorizer

Contiene opciones de configuración sobre cómo vectorizar consultas vectoriales de texto.

VectorSearchVectorizerKind

El método de vectorización que se utilizará durante el tiempo de consulta.
knownVectorSearchVectorizerKind se puede usar indistintamente con VectorSearchVectorizerKind, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

azureOpenAI: genere incrustaciones mediante un recurso de Azure OpenAI en el momento de la consulta.
customWebApi: genere incrustaciones mediante un punto de conexión web personalizado en el momento de la consulta.
aiServicesVision: genere incrustaciones para una entrada de imagen o texto en el momento de la consulta mediante la API de vectorización de visión de Azure AI Services.
aml: genere inserciones mediante un punto de conexión de Azure Machine Learning implementado a través del catálogo de modelos de Fundición de IA de Azure en el momento de la consulta.

VisualFeature
WebApiSkills

Enumeraciones

KnownAIFoundryModelCatalogName

El nombre del modelo de incrustación del catálogo de Fundición de IA de Azure que se llamará.

KnownAnalyzerNames

Define valores para AnalyzerName. Vea https://learn.microsoft.com/rest/api/searchservice/Language-support.

KnownAzureOpenAIModelName

Nombre del modelo de Azure Open AI al que se llamará.

KnownBlobIndexerDataToExtract

Especifica los datos que se van a extraer de Azure Blob Storage e indica al indexador qué datos extraer del contenido de la imagen cuando "imageAction" se establece en un valor distinto de "none". Esto se aplica al contenido de imagen incrustado en una .PDF u otra aplicación, o a archivos de imagen como .jpg y .png, en blobs de Azure.

KnownBlobIndexerImageAction

Determina cómo procesar imágenes incrustadas y archivos de imagen en Azure Blob Storage. Establecer la configuración "imageAction" en cualquier valor distinto de "none" requiere que también se asocie un conjunto de aptitudes a ese indexador.

KnownBlobIndexerPDFTextRotationAlgorithm

Determina el algoritmo para la extracción de texto de archivos PDF en Azure Blob Storage.

KnownBlobIndexerParsingMode

Representa el modo de análisis para la indexación desde un origen de datos de blob de Azure.

KnownCharFilterNames

Define valores para CharFilterName.

KnownChatCompletionExtraParametersBehavior

Especifica cómo debe gestionar los 'extraParameters' en Fundición de IA de Azure. El valor predeterminado es 'error'.

KnownChatCompletionResponseFormatType

Especifica cómo el LLM debe dar formato a la respuesta.

KnownContentUnderstandingSkillChunkingUnit

Controla la cardinalidad de la unidad de fragmento. El valor predeterminado es 'personajes'

KnownContentUnderstandingSkillExtractionOptions

Controla la cardinalidad del contenido extraído del documento por la aptitud.

KnownCustomEntityLookupSkillLanguage

Los códigos de idioma admitidos para el texto de entrada por CustomEntityLookupSkill.

KnownDocumentIntelligenceLayoutSkillChunkingUnit

Controla la cardinalidad de la unidad de fragmento. El valor predeterminado es 'personajes'

KnownDocumentIntelligenceLayoutSkillExtractionOptions

Controla la cardinalidad del contenido extraído del documento por la aptitud.

KnownDocumentIntelligenceLayoutSkillMarkdownHeaderDepth

Profundidad de encabezados en la salida de Markdown. El valor predeterminado es h6.

KnownDocumentIntelligenceLayoutSkillOutputFormat

Controla la cardinalidad del formato de salida. El valor predeterminado es 'markdown'.

KnownDocumentIntelligenceLayoutSkillOutputMode

Controla la cardinalidad de la salida generada por la aptitud. El valor predeterminado es "oneToMany".

KnownEntityCategory

Una cadena que indica qué categorías de entidad devolver.

KnownEntityRecognitionSkillLanguage

Los códigos de idioma admitidos para el texto de entrada por EntityRecognitionSkill.

KnownImageAnalysisSkillLanguage

Los códigos de idioma admitidos para la entrada de ImageAnalysisSkill.

KnownImageDetail

Cadena que indica qué detalles específicos del dominio se van a devolver.

KnownIndexProjectionMode

Define el comportamiento de las proyecciones de índice en relación con el resto del indexador.

KnownIndexerExecutionEnvironment

Especifica el entorno en el que se debe ejecutar el indexador.

KnownIndexerResyncOption

Opciones con varios tipos de datos de permisos para indexar.

KnownKeyPhraseExtractionSkillLanguage

Los códigos de idioma admitidos para el texto de entrada por KeyPhraseExtractionSkill.

KnownKnowledgeBaseModelKind

El modelo de IA que se utilizará para la planificación de consultas.

KnownKnowledgeSourceKind

El tipo de fuente de conocimiento.

KnownLexicalAnalyzerName

Define los nombres de todos los analizadores de texto compatibles con el motor de búsqueda.

KnownLexicalNormalizerName

Define los nombres de todos los normalizadores de texto admitidos por el motor de búsqueda.

KnownMarkdownHeaderDepth

Especifica la profundidad máxima del encabezado que se tendrá en cuenta al agrupar el contenido de Markdown. El valor predeterminado es h6.

KnownMarkdownParsingSubmode

Especifica el submodo que determinará si un archivo Markdown se analizará exactamente en un documento de búsqueda o en varios documentos de búsqueda. El valor predeterminado es oneToMany.

KnownOcrLineEnding

Define la secuencia de caracteres que se va a usar entre las líneas de texto reconocidas por la aptitud OCR. El valor predeterminado es "space".

KnownOcrSkillLanguage

Los códigos de idioma admitidos para la entrada de OcrSkill.

KnownPIIDetectionSkillMaskingMode

Una cadena que indica qué maskingMode usar para enmascarar la información personal detectada en el texto de entrada.

KnownQueryDebugMode

Habilita una herramienta de depuración que se puede usar para explorar más a fondo los resultados de la búsqueda. Puede habilitar varios modos de depuración simultáneamente separándolos con un | carácter, por ejemplo: semantic|queryRewrites.

KnownRankingOrder

Representa la puntuación que se usará para el criterio de ordenación de los documentos.

KnownRegexFlags

Define una bandera de expresión regular que puede usarse en el analizador de patrones y en el tokenizador de patrones.

KnownSearchAudience

Valores conocidos para la audiencia de búsqueda

KnownSearchFieldDataType

Define el tipo de datos de un campo en un índice de búsqueda.

KnownSearchIndexerDataSourceType

Define el tipo de origen de datos.

KnownSemanticErrorMode

Permite al usuario elegir si una llamada semántica falla completamente o devolver resultados parciales.

KnownSemanticErrorReason

Razón por la que se devolvió una respuesta parcial para una solicitud de clasificación semántica.

KnownSemanticSearchResultsType

Tipo de respuesta parcial que se devolvió para una solicitud de clasificación semántica.

KnownSentimentSkillLanguage

Los códigos de idioma admitidos para el texto de entrada por SentimentSkill.

KnownSplitSkillLanguage

Los códigos de idioma admitidos para el texto de entrada por SplitSkill.

KnownTextSplitMode

Valor que indica qué modo de división se va a realizar.

KnownTextTranslationSkillLanguage

Los códigos de idioma admitidos para el texto de entrada por TextTranslationSkill.

KnownTokenFilterNames

Define valores para TokenFilterName.

KnownTokenizerNames

Define valores para TokenizerName.

KnownVectorEncodingFormat

El formato de codificación para interpretar el contenido de los campos vectoriales.

KnownVectorFilterMode

Determina si los filtros se aplican o no antes o después de realizar la búsqueda vectorial.

KnownVectorQueryKind

El tipo de consulta vectorial que se está realizando.

KnownVectorSearchAlgorithmKind

El algoritmo utilizado para la indexación y la consulta.

KnownVectorSearchAlgorithmMetric

La métrica de similitud que se utilizará para las comparaciones vectoriales. Se recomienda elegir la misma métrica de similitud con la que se entrenó el modelo de incrustación.

KnownVectorSearchCompressionKind

El método de compresión utilizado para la indexación y la consulta.

KnownVectorSearchCompressionRescoreStorageMethod

Método de almacenamiento de los vectores de precisión total originales utilizados para las operaciones de repuntuación e índice interno.

KnownVectorSearchCompressionTarget

Tipo de datos cuantificados de valores vectoriales comprimidos.

KnownVectorSearchVectorizerKind

El método de vectorización que se utilizará durante el tiempo de consulta.

KnownVisualFeature

Las cadenas que indican qué tipos de características visuales se van a devolver.

Funciones

createSynonymMapFromFile(string, string)

Método auxiliar para crear un objeto SynonymMap. Se trata de un método solo NodeJS.

odata(TemplateStringsArray, unknown[])

Escape de una expresión de filtro de odata para evitar errores con literales de cadena entre comillas. Uso de ejemplo:

import { odata } from "@azure/search-documents";

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Para obtener más información sobre la sintaxis admitida, consulte: https://learn.microsoft.com/azure/search/search-query-odata-filter

Variables

DEFAULT_BATCH_SIZE

Tamaño predeterminado del lote

DEFAULT_FLUSH_WINDOW

Intervalo de descarga por defecto de la ventana

DEFAULT_RETRY_COUNT

Número predeterminado de veces para intentarlo de nuevo.

Detalles de la función

createSynonymMapFromFile(string, string)

Método auxiliar para crear un objeto SynonymMap. Se trata de un método solo NodeJS.

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

Parámetros

name

string

Nombre del objeto SynonymMap.

filePath

string

Ruta de acceso del archivo que contiene los sinónimos (separados por nuevas líneas)

Devoluciones

Promise<SynonymMap>

SynonymMap (objeto)

odata(TemplateStringsArray, unknown[])

Escape de una expresión de filtro de odata para evitar errores con literales de cadena entre comillas. Uso de ejemplo:

import { odata } from "@azure/search-documents";

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Para obtener más información sobre la sintaxis admitida, consulte: https://learn.microsoft.com/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

Parámetros

strings

TemplateStringsArray

Matriz de cadenas para la expresión

values

unknown[]

Matriz de valores para la expresión

Devoluciones

string

Detalles de variables

DEFAULT_BATCH_SIZE

Tamaño predeterminado del lote

DEFAULT_BATCH_SIZE: number

Tipo

number

DEFAULT_FLUSH_WINDOW

Intervalo de descarga por defecto de la ventana

DEFAULT_FLUSH_WINDOW: number

Tipo

number

DEFAULT_RETRY_COUNT

Número predeterminado de veces para intentarlo de nuevo.

DEFAULT_RETRY_COUNT: number

Tipo

number