Explorar todos los modelos de IA Para el desarrollo de IA conversacional

Sumérgete en el mundo de los modelos de IA de ChatBotKit. Aquí ew muestra una amplia gama de sofisticadas tecnologías de IA, cada una diseñada para atender diferentes aspectos de la IA conversacional y el desarrollo de chatbot.

  • o1-next

    o1-preview is OpenAI's new reasoning model for complex tasks that require broad general knowledge. The model has 128K context and an October 2023 knowledge cutoff.
    { "provider": "openai", "family": "o1", "features": [ "chat" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 3.3333 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
    beta
  • o1-classic

    o1-preview is OpenAI's new reasoning model for complex tasks that require broad general knowledge. The model has 128K context and an October 2023 knowledge cutoff.
    { "provider": "openai", "family": "o1", "features": [ "chat" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 3.3333 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
    beta
  • o1

    o1-preview is OpenAI's new reasoning model for complex tasks that require broad general knowledge. The model has 128K context and an October 2023 knowledge cutoff.
    { "provider": "openai", "family": "o1", "features": [ "chat" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 3.3333 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
    beta
  • o1-mini-next

    o1-mini is a fast, cost-efficient reasoning model tailored to coding, math, and science use cases. The model has 128K context and an October 2023 knowledge cutoff.
    { "provider": "openai", "family": "o1", "features": [ "chat" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 0.6667 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
    beta
  • o1-mini-classic

    o1-mini is a fast, cost-efficient reasoning model tailored to coding, math, and science use cases. The model has 128K context and an October 2023 knowledge cutoff.
    { "provider": "openai", "family": "o1", "features": [ "chat" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 0.6667 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
    beta
  • o1-mini

    o1-mini is a fast, cost-efficient reasoning model tailored to coding, math, and science use cases. The model has 128K context and an October 2023 knowledge cutoff.
    { "provider": "openai", "family": "o1", "features": [ "chat" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 0.6667 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
    beta
  • gpt-4o-mini-next

    GPT-4o mini is OpenAI's most cost-efficient small model that's smarter and cheaper than GPT-3.5 Turbo, and has vision capabilities. The model has 128K context and an October 2023 knowledge cutoff.
    { "provider": "openai", "family": "gpt-4o", "features": [ "chat", "functions", "vision" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 0.0333 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
  • gpt-4o-mini-classic

    GPT-4o mini is OpenAI's most cost-efficient small model that's smarter and cheaper than GPT-3.5 Turbo, and has vision capabilities. The model has 128K context and an October 2023 knowledge cutoff.
    { "provider": "openai", "family": "gpt-4o", "features": [ "chat", "functions", "vision" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 0.0333 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
  • gpt-4o-mini

    GPT-4o mini is OpenAI's most cost-efficient small model that's smarter and cheaper than GPT-3.5 Turbo, and has vision capabilities. The model has 128K context and an October 2023 knowledge cutoff.
    { "provider": "openai", "family": "gpt-4o", "features": [ "chat", "functions", "vision" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 0.0333 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
  • gpt-4o-siguiente

    GPT-4o es más rápido y barato que GPT-4 Turbo, con mayores capacidades de visión. El modelo tiene un contexto de 128K y una fecha límite de conocimiento de octubre de 2023.
    { "provider": "openai", "family": "gpt-4o", "features": [ "chat", "functions", "vision" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 0.5556 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
  • gpt-4o-clásico

    GPT-4o es más rápido y barato que GPT-4 Turbo, con mayores capacidades de visión. El modelo tiene un contexto de 128K y una fecha límite de conocimiento de octubre de 2023.
    { "provider": "openai", "family": "gpt-4o", "features": [ "chat", "functions", "vision" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 0.8333 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
  • gpt-4o

    GPT-4o es más rápido y barato que GPT-4 Turbo, con mayores capacidades de visión. El modelo tiene un contexto de 128K y una fecha límite de conocimiento de octubre de 2023.
    { "provider": "openai", "family": "gpt-4o", "features": [ "chat", "functions", "vision" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 0.8333 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
  • gpt-4-turbo-siguiente

    GPT-4 Turbo se ofrece en un contexto de 128K con un límite de conocimientos de abril de 2023 y soporte básico para la visión.
    { "provider": "openai", "family": "gpt-4-turbo", "features": [ "chat", "functions", "vision" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 1.6667 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
  • gpt-4-turbo-clásico

    GPT-4 Turbo se ofrece en un contexto de 128K con un límite de conocimientos de abril de 2023 y soporte básico para la visión.
    { "provider": "openai", "family": "gpt-4-turbo", "features": [ "chat", "functions" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 1.6667 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
  • gpt-4-turbo

    GPT-4 Turbo se ofrece en un contexto de 128K con un límite de conocimientos de abril de 2023 y soporte básico para la visión.
    { "provider": "openai", "family": "gpt-4-turbo", "features": [ "chat", "functions", "vision" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 1.6667 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
  • gpt-4-siguiente

    El modelo GPT-4 se construyó con amplios conocimientos generales y experiencia en el dominio.
    { "provider": "openai", "family": "gpt-4", "features": [ "chat", "functions" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 8192, "maxInputTokens": 6144, "maxOutputTokens": 2048, "pricing": { "tokenRatio": 3.3333 }, "interactionMaxMessages": 100, "temperature": 0.7, "frequencyPenalty": 0, "presencePenalty": 0 }
  • gpt-4-clásico

    El modelo GPT-4 se construyó con amplios conocimientos generales y experiencia en el dominio.
    { "provider": "openai", "family": "gpt-4", "features": [ "chat", "functions" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 8192, "maxInputTokens": 6144, "maxOutputTokens": 2048, "pricing": { "tokenRatio": 3.3333 }, "interactionMaxMessages": 100, "temperature": 0.7, "frequencyPenalty": 0, "presencePenalty": 0 }
  • gpt-4

    El modelo GPT-4 se construyó con amplios conocimientos generales y experiencia en el dominio.
    { "provider": "openai", "family": "gpt-4", "features": [ "chat", "functions" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 8192, "maxInputTokens": 6144, "maxOutputTokens": 2048, "pricing": { "tokenRatio": 3.3333 }, "interactionMaxMessages": 100, "temperature": 0.7, "frequencyPenalty": 0, "presencePenalty": 0 }
  • gpt-3.5-turbo-siguiente

    GPT-3.5 Turbo es un modelo rápido y económico para tareas más sencillas.
    { "provider": "openai", "family": "gpt-3.5-turbo", "features": [ "chat", "functions" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 16384, "maxInputTokens": 12288, "maxOutputTokens": 4096, "pricing": { "tokenRatio": 0.0833 }, "interactionMaxMessages": 100, "temperature": 0.7, "frequencyPenalty": 0, "presencePenalty": 0 }
  • gpt-3.5-turbo-clásico

    GPT-3.5 Turbo es un modelo rápido y económico para tareas más sencillas.
    { "provider": "openai", "family": "gpt-3.5-turbo", "features": [ "chat", "functions" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 4096, "maxInputTokens": 3072, "maxOutputTokens": 1024, "pricing": { "tokenRatio": 0.2222 }, "interactionMaxMessages": 100, "temperature": 0.7, "frequencyPenalty": 0, "presencePenalty": 0 }
  • gpt-3.5-turbo

    GPT-3.5 Turbo es un modelo rápido y económico para tareas más sencillas.
    { "provider": "openai", "family": "gpt-3.5-turbo", "features": [ "chat", "functions" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 16384, "maxInputTokens": 12288, "maxOutputTokens": 4096, "pricing": { "tokenRatio": 0.0833 }, "interactionMaxMessages": 100, "temperature": 0.7, "frequencyPenalty": 0, "presencePenalty": 0 }
  • gpt-3.5-turbo-instrucción

    GPT-3.5 Turbo es un modelo rápido y económico para tareas más sencillas.
    { "provider": "openai", "family": "gpt-3.5-turbo", "features": [], "region": "us", "availableRegions": [ "us" ], "maxTokens": 4096, "maxInputTokens": 3072, "maxOutputTokens": 1024, "pricing": { "tokenRatio": 0.1111 }, "interactionMaxMessages": 100, "temperature": 0.7, "frequencyPenalty": 0, "presencePenalty": 0 }
  • mistral-large-latest

    Razonamiento de alto nivel para tareas de gran complejidad. El modelo más potente de la familia Mistral AI.
    { "provider": "mistral", "family": "large", "features": [ "chat", "functions" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 32000, "maxInputTokens": 24000, "maxOutputTokens": 8000, "pricing": { "tokenRatio": 0.6667 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
    beta
  • mistral-pequeño-último

    Razonamiento rentable para cargas de trabajo de baja latencia.
    { "provider": "mistral", "family": "large", "features": [ "chat", "functions" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 32000, "maxInputTokens": 24000, "maxOutputTokens": 8000, "pricing": { "tokenRatio": 0.1667 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
    beta
  • claude-v3-opus

    El modelo de IA más potente de Anthropic, con un rendimiento de alto nivel en tareas muy complejas. Es capaz de desenvolverse en escenarios abiertos e imprevistos con notable fluidez y una comprensión similar a la humana.
    { "provider": "bedrock", "family": "claude", "features": [ "chat" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 200000, "maxInputTokens": 150000, "maxOutputTokens": 50000, "pricing": { "tokenRatio": 4.1667 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
    beta
  • claude-v3-sonnet

    Claude 3 Sonnet logra el equilibrio ideal entre inteligencia y velocidad, especialmente para cargas de trabajo empresariales. Ofrece la máxima utilidad y está diseñado para ser fiable en despliegues de IA a gran escala.
    { "provider": "bedrock", "family": "claude", "features": [ "chat" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 200000, "maxInputTokens": 150000, "maxOutputTokens": 50000, "pricing": { "tokenRatio": 0.8333 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
    beta
  • claude-v3-haiku

    Anthropic's fastest, most compact model for near-instant responsiveness. It answers simple queries and requests with speed.
    { "provider": "bedrock", "family": "claude", "features": [ "chat" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 200000, "maxInputTokens": 150000, "maxOutputTokens": 50000, "pricing": { "tokenRatio": 0.0694 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
    beta
  • claude-v3

    Claude 3 Sonnet logra el equilibrio ideal entre inteligencia y velocidad, especialmente para cargas de trabajo empresariales. Ofrece la máxima utilidad y está diseñado para ser fiable en despliegues de IA a gran escala.
    { "provider": "bedrock", "family": "claude", "features": [ "chat" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 200000, "maxInputTokens": 150000, "maxOutputTokens": 50000, "pricing": { "tokenRatio": 0.8333 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
    beta
  • claude-v2.1

    Claude 2.1 es un gran modelo lingüístico (LLM) de Anthropic con una ventana de contexto de 200.000 tokens, índices de alucinación reducidos y una precisión mejorada en documentos largos.
    { "provider": "bedrock", "family": "claude", "features": [], "region": "us", "availableRegions": [ "us" ], "maxTokens": 200000, "maxInputTokens": 150000, "maxOutputTokens": 50000, "pricing": { "tokenRatio": 1.3333 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
    beta
  • claude-v2

    Claude 2.0 es un LLM líder de Anthropic que permite una amplia gama de tareas, desde el diálogo sofisticado y la generación creativa de contenidos hasta la instrucción detallada.
    { "provider": "bedrock", "family": "claude", "features": [], "region": "us", "availableRegions": [ "us" ], "maxTokens": 100000, "maxInputTokens": 75000, "maxOutputTokens": 25000, "pricing": { "tokenRatio": 1.3333 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
    beta
  • claude-instant-v1

    Claude Instant es el LLM más rápido y económico de Anthropic.
    { "provider": "bedrock", "family": "claude", "features": [], "region": "us", "availableRegions": [ "us" ], "maxTokens": 100000, "maxInputTokens": 75000, "maxOutputTokens": 25000, "pricing": { "tokenRatio": 0.1333 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
    beta
  • personalizado

    Cualquier modelo personalizado creado por el usuario.
    { "provider": "chatbotkit", "family": "chatbotkit", "features": [], "region": "us", "availableRegions": [ "us" ], "maxTokens": 4096, "maxInputTokens": 3072, "maxOutputTokens": 1024, "pricing": { "tokenRatio": 0.0278 }, "interactionMaxMessages": 100, "temperature": 0, "frequencyPenalty": 0, "presencePenalty": 0 }
  • text-qaa-004

    This model belongs to the GPT-4o family of ChatBotKit models. It is designed for question and answer applications. The model has a token limit of 128000 and provides a balance between cost and quality. It is a custom model based on the gpt model architecture.
    { "provider": "chatbotkit", "family": "gpt-4o", "features": [ "chat", "functions", "vision" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 0.8333 }, "interactionMaxMessages": 4, "temperature": 0.2, "frequencyPenalty": 0, "presencePenalty": 0 }
  • texto-qaa-003

    Este modelo pertenece a la familia GPT-4 Turbo de modelos ChatBotKit. Está diseñado para aplicaciones de preguntas y respuestas. El modelo tiene un límite de tokens de 128000 y proporciona un equilibrio entre coste y calidad. Es un modelo personalizado basado en la arquitectura del modelo gpt.
    { "provider": "chatbotkit", "family": "gpt-4-turbo", "features": [ "chat", "functions", "vision" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 1.6667 }, "interactionMaxMessages": 4, "temperature": 0.2, "frequencyPenalty": 0, "presencePenalty": 0 }
  • texto-qaa-002

    Este modelo pertenece a la familia GPT-4 de modelos ChatBotKit. Está diseñado para aplicaciones de preguntas y respuestas. El modelo tiene un límite de tokens de 8 * ONE_K y proporciona un equilibrio entre coste y calidad. Es un modelo personalizado basado en la arquitectura del modelo gpt.
    { "provider": "chatbotkit", "family": "gpt-4", "features": [ "chat", "functions" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 8192, "maxInputTokens": 6144, "maxOutputTokens": 2048, "pricing": { "tokenRatio": 3.3333 }, "interactionMaxMessages": 4, "temperature": 0.2, "frequencyPenalty": 0, "presencePenalty": 0 }
  • texto-qaa-001

    Este modelo pertenece a la familia Turbo de modelos ChatBotKit. Está diseñado para aplicaciones de preguntas y respuestas. El modelo tiene un límite de tokens de 4000 y proporciona un equilibrio entre coste y calidad. Es un modelo personalizado basado en la arquitectura del modelo gpt.
    { "provider": "chatbotkit", "family": "gpt-3.5-turbo", "features": [ "chat", "functions" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 4096, "maxInputTokens": 3072, "maxOutputTokens": 1024, "pricing": { "tokenRatio": 0.0833 }, "interactionMaxMessages": 4, "forceFunction": "query", "temperature": 0.2, "frequencyPenalty": 0, "presencePenalty": 0 }
  • text-algo-004

    his model belongs to the GPT-4o family of ChatBotKit models.
    { "provider": "chatbotkit", "family": "gpt-4o", "features": [ "chat", "functions", "vision" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 0.8333 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
  • texto-algo-003

    ste modelo pertenece a la familia GPT-4 de modelos ChatBotKit.
    { "provider": "chatbotkit", "family": "gpt-4", "features": [ "chat", "functions" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 8192, "maxInputTokens": 6144, "maxOutputTokens": 2048, "pricing": { "tokenRatio": 3.3333 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
  • texto-algo-002

    Este modelo pertenece a la familia Turbo de modelos ChatBotKit.
    { "provider": "chatbotkit", "family": "gpt-3.5-turbo", "features": [ "chat", "functions" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 4096, "maxInputTokens": 3072, "maxOutputTokens": 1024, "pricing": { "tokenRatio": 0.0833 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
  • dalle3

    Este modelo se basa en la arquitectura DALL-E 3. Es un modelo de alta calidad que puede generar imágenes a partir de texto. Es sintonizable y ofrece un equilibrio entre coste y calidad.
    { "provider": "openai", "family": "dalle", "features": [], "region": "us", "availableRegions": [ "us" ] }
  • dalle2

    Este modelo se basa en la arquitectura DALL-E 2. Es un modelo de alta calidad que puede generar imágenes a partir de texto. Es sintonizable y ofrece un equilibrio entre coste y calidad.
    { "provider": "openai", "family": "dalle", "features": [], "region": "us", "availableRegions": [ "us" ] }
  • stablediffusion

    Este modelo se basa en la arquitectura de difusión estable. Es un modelo de alta calidad que puede generar imágenes a partir de texto. Es sintonizable y ofrece un equilibrio entre coste y calidad.
    { "provider": "awsbedrock", "family": "stablediffusion", "features": [], "region": "us", "availableRegions": [ "us" ] }