Meta ha dado un nuevo paso en el desarrollo de modelos de inteligencia artificial con la presentación de Llama 4, su última propuesta en la serie de modelos LLaMA (Large Language Model Meta AI). Esta versión marca un hito importante al incorporar capacidades multimodales, lo que significa que el modelo no solo entiende y genera texto, sino que también puede procesar imágenes de manera simultánea, ofreciendo una interacción más rica y contextualizada entre humanos y máquinas.
Llama 4 fue desarrollado como parte de una colaboración entre Meta y Microsoft, en su apuesta conjunta por avanzar en el ámbito de la IA abierta y responsable. Este modelo forma parte de una nueva generación de asistentes de IA más potentes, capaces de razonar de forma más precisa, comprender instrucciones complejas y adaptarse a diferentes idiomas y contextos culturales.
Por ahora, Meta ha lanzado la versión Llama 3.1, más refinada que su predecesora, y está preparando el lanzamiento de Llama 3.5, una versión intermedia antes de llegar a Llama 4, cuyo modelo base sigue en desarrollo. No obstante, la meta a largo plazo es clara: construir una IA general robusta con capacidades multimodales reales, es decir, modelos que no solo lean, sino que también vean y comprendan el mundo de una forma más parecida a los humanos.
El objetivo de Meta con estos modelos es integrarlos en experiencias reales de usuario a través de las aplicaciones de sus plataformas, como Instagram o WhatsApp, y también mediante Meta AI, su asistente virtual. De hecho, ya está disponible su versión beta en Estados Unidos y de forma global mediante el acceso web.
Además de los avances técnicos, Meta insiste en su compromiso con el código abierto, facilitando que investigadores y desarrolladores accedan a los modelos Llama para explorar nuevas oportunidades y aplicaciones, desde la educación hasta la creatividad o el análisis de datos complejos.
Con Llama 4 en el horizonte, la IA multimodal se perfila como una herramienta clave en la evolución de los asistentes digitales, acercándonos cada vez más a una interacción natural y versátil con las máquinas.
Fuente: Meta AI Blog




