4 formas de experimentar el nuevo modelo de IA de Mistral
En un gran salto en el desarrollo del modelo de lenguaje grande (LLM), Mistral AI ha anunciado el lanzamiento de su último modelo, Mixtral-8x7B.
Imán:?xt=jar:btih:5546272da9065eddeb6fcd7ffddeef5b75be79a7&dn=mixtral-8x7b-32kseqlen&tr=udp%3A%2F%https://t.co/uV4WVdtpwZ%3A6969%2Fanounce&tr=http%3A%2F%https://t.co/g0m9cEUz0T%3A80%2Anuncio
liberar a6bbd9affe0c2725c1b7410d66833e24
– Inteligencia Artificial Mistral (@MistralAI) 8 de diciembre de 2023
¿Qué es Mixtral-8x7B?
Mixtral-8x7B de Mistral AI es un modelo Mix of Experts (MoE) diseñado para mejorar la forma en que las máquinas entienden y crean texto.
Piense en ello como un equipo de expertos en la materia, cada uno con habilidades en un campo diferente, que trabajan juntos para manejar diferentes tipos de información y tareas.
un informe publicado En junio, supuestamente destacó las complejidades del GPT-4 de OpenAI, destacando que utiliza un enfoque similar al del Departamento de Educación, empleando a 16 expertos, cada uno con alrededor de 111 mil millones de parámetros, y dirigiendo a dos expertos por paso hacia adelante para optimizar los costos.
Este enfoque permite que el modelo administre datos diversos y complejos de manera eficiente, lo que lo hace útil para crear contenido, entablar conversaciones o traducir idiomas.
Métricas de rendimiento Mixtral-8x7B
El nuevo modelo de IA de Mistral, Mixtral-8x7B, representa un importante paso adelante con respecto a su predecesor, Mistral-7B-v0.1.
Está diseñado para comprender y generar texto mejor, una característica esencial para cualquiera que desee utilizar la IA en tareas de escritura o comunicación.
Nuevo LLM de pesos abiertos de @MistralAI
parámetros.json:
– Hidden_dim / dim = 14336/4096 => Expandir 3.5X MLP
– n_heads / n_kv_heads = 32/8 => 4X consulta múltiple
– “moe” => Mezcla experta 8X Top 2 👀Posible código relacionado: https://t.co/yrqRtYhxKR
Extrañamente ausente: ensayado… https://t.co/8PvqdHZ1bR pic.twitter.com/xMDRj3WAVh
– Andréi Karpathy (@karpathy) 8 de diciembre de 2023
Esta última incorporación a la familia Mistral promete revolucionar el panorama de la IA con métricas de rendimiento mejoradas. abonado Por brújula abierta.
Lo que hace que el Mixtral-8x7B se destaque no es solo su mejora con respecto a la versión anterior de Mistral AI, sino la forma en que se compara con modelos como Llama2-70B y Qwen-72B.
Es como tener un asistente que puede comprender ideas complejas y expresarlas con claridad.
Uno de los principales puntos fuertes del Mixtral-8x7B es su capacidad para realizar tareas especializadas.
Por ejemplo, tuvo un desempeño excepcionalmente bueno en pruebas específicas diseñadas para evaluar modelos de IA, lo que sugiere que es bueno para comprender y generar texto general y sobresale en áreas más especializadas.
Esto la convierte en una herramienta valiosa para los profesionales del marketing y los expertos en SEO que necesitan una IA que pueda adaptarse a diferentes contenidos y requisitos técnicos.
La capacidad de Mixtral-8x7B para manejar problemas matemáticos y de programación complejos también sugiere que puede ser un aliado útil para quienes trabajan en los aspectos más técnicos del SEO, donde comprender y resolver desafíos algorítmicos es crucial.
Este nuevo modelo puede convertirse en un socio inteligente y versátil para una amplia gama de contenidos digitales y necesidades estratégicas.
Cómo probar Mixtral-8x7B: 4 demostraciones
Puede probar el nuevo modelo Mistral AI, Mixtral-8x7B, para ver cómo responde a las consultas y cómo se desempeña en comparación con otros modelos de código abierto y GPT-4 de OpenAI.
Tenga en cuenta que, como todo el contenido producido por IA, las plataformas que ejecutan este nuevo modelo pueden producir imprecisiones o resultados no deseados.
Los comentarios de los usuarios sobre nuevos modelos como este ayudarán a empresas como Mistral AI a mejorar versiones y modelos futuros.
1. Estadio de los Laboratorios Al-Heera
En confusion Laboratoriospuedes probar Mixtral-8x7B con Llama 2 de Meta AI, Mistral-7b y los nuevos LLM en línea de Perplexity.
En este ejemplo, pregunté sobre el mismo formulario y noté que se agregaron nuevas instrucciones después de la respuesta inicial para expandir el contenido generado en torno a mi consulta.
Si bien la respuesta parece correcta, comienza a repetirse.
La plantilla proporcionó una respuesta de más de 600 palabras a la pregunta «¿Qué es SEO?»
Nuevamente, aparecen instrucciones adicionales como «encabezados» para garantizar una respuesta aparentemente completa.
2. Abucheo
Poe aloja bots para programas LLM populares, incluidos GPT-4 y DALL·E 3 de OpenAI, Llama 2 y Code Llama de Meta AI, PaLM 2 de Google, Claude-instant y Claude 2 de Anthropic y StableDiffusionXL.
Estos bots cubren una amplia gama de capacidades, incluida la generación de texto, imágenes y código.
El Chat Mixtral-8x7B bot Está impulsado por Fireworks AI.
Cabe destacar los fuegos artificiales. página Especifica que es una “aplicación no oficial” diseñada específicamente para chatear.
Cuando se le preguntó acerca de los mejores vínculos de retroceso para SEO, dio una respuesta correcta.
Compara esto con Respuesta Proporcionado por Google Genial.
3. Vercel
Vercel ofrece una experimental de Mixtral-8x7B que permite a los usuarios comparar respuestas de modelos populares Anthropic, Cohere, Meta AI y OpenAI.
Ofrece una perspectiva interesante sobre cómo cada modelo interpreta y responde a las preguntas de los usuarios.
Como muchos titulares de un LLM, ocasionalmente provoca alucinaciones.
4. Repetir
Mixtral-8x7b-32 experimental Basado en replicación este Fuente del código. También se indica en el archivo README que «las heurísticas son completamente ineficaces».
En el ejemplo anterior, Mixtral-8x7B se describe a sí mismo como un juego.
Conclusión
La última versión de Mistral AI establece un nuevo estándar en IA, ofreciendo rendimiento y versatilidad mejorados. Pero como muchos MBA, puede proporcionar respuestas imprecisas e inesperadas.
A medida que la IA continúa evolucionando, modelos como el Mixtral-8x7B podrían convertirse en una parte integral de la configuración de herramientas avanzadas de IA para marketing y negocios.
Imagen de portada: T Schneider/Shutterstock