Estados Unidos - Agencia de Noticias Ekhbary
Nous Research lanza NousCoder-14B: Modelo de Codificación de Código Abierto que Desafía a los Gigantes Propietarios
En un movimiento que subraya la rápida evolución del desarrollo de software asistido por inteligencia artificial, Nous Research, una startup de inteligencia artificial de código abierto respaldada por la firma de capital de riesgo de criptomonedas Paradigm, ha lanzado un nuevo modelo de programación competitiva llamado NousCoder-14B. La compañía afirma que este modelo, notablemente entrenado en solo cuatro días utilizando 48 de los últimos procesadores gráficos Nvidia B200, iguala o supera a varios sistemas propietarios más grandes. Este lanzamiento llega en un momento particularmente dinámico para los asistentes de codificación de IA, con la herramienta de programación agentica del rival Anthropic, Claude Code, captando una atención significativa en las redes sociales desde el Día de Año Nuevo, atrayendo testimonios entusiastas de desarrolladores de todo el mundo.
La aparición simultánea de estas herramientas avanzadas de IA resalta el ritmo acelerado de la innovación en el desarrollo de software impulsado por IA y la feroz competencia entre empresas, tanto grandes como pequeñas, para establecer el dominio en lo que se considera ampliamente una tecnología fundamental para el futuro de la creación de software. NousCoder-14B entra en un campo abarrotado, con el objetivo de proporcionar una alternativa potente, transparente y de código abierto a los sistemas cerrados, intensificando así la carrera por capturar cuota de mercado e influencia en este sector en crecimiento.
Leer también
- Pescador de 50 años Desaparecido en un Rocaje de la Isla Yokjido de Tongyeong; Guardia Costera Lanza Búsqueda Intensiva
- Shin Dong-wook del Partido del Poder Popular se Retira de la Contienda por la Alcaldía de Seúl: "No Participaré en las Primarias... Dedicado al Partido"
- Kim Jae-seop Acusa al Candidato Jeong Won-oh de Ser un 'Joven Señor Rico en Tierras', Alegando que su Familia Posee 6.800 Pyeong de Tierras Agrícolas
- El notorio asesino de niños británico Ian Huntley muere en prisión tras un ataque de otro recluso
- Xi Jinping declara "tolerancia cero" a la deslealtad y corrupción en el ejército
NousCoder-14B ha demostrado un rendimiento notable en LiveCodeBench v6, un benchmark estandarizado para problemas de programación competitiva. Según el informe técnico de Nous Research, el modelo alcanzó una tasa de precisión del 67,87 por ciento. Esta cifra representa una mejora significativa de 7,08 puntos porcentuales con respecto a su modelo base, el Qwen3-14B de Alibaba. La velocidad y eficiencia de su entrenamiento, completado en solo cuatro días, es particularmente destacable y genera discusiones sobre el potencial de ciclos de desarrollo rápidos en modelos avanzados de IA.
El momento del lanzamiento de NousCoder-14B es especialmente relevante dada la reciente expectación en torno a Claude Code. Los desarrolladores han estado compartiendo elogios generalizados por sus capacidades. Jaana Dogan, ingeniera principal de Google responsable de la API de Gemini, compartió una publicación viral en X detallando cómo Claude Code generó un complejo sistema de orquestación de agentes distribuidos —un proyecto que a su equipo le llevó un año desarrollar— a partir de una simple indicación de tres párrafos. Esta yuxtaposición es instructiva: mientras que Claude Code de Anthropic ha cautivado la imaginación con demostraciones de desarrollo de software aparentemente de extremo a extremo, Nous Research está defendiendo el potencial de las alternativas de código abierto. Apuestan a que los modelos entrenados en problemas verificables y construidos con transparencia pueden cerrar eficazmente la brecha de rendimiento, argumentando que la apertura del proceso de desarrollo es tan crucial como la potencia de cálculo bruta.
Lo que realmente distingue el lanzamiento de NousCoder-14B es su compromiso con la apertura radical. Más allá de simplemente lanzar los pesos del modelo, Nous Research ha puesto a disposición el entorno completo de aprendizaje por refuerzo, el conjunto de benchmarks y el marco de entrenamiento, todo construido sobre el framework Atropos de la compañía. Esta oferta integral permite a cualquier investigador con recursos computacionales adecuados reproducir, verificar o incluso ampliar independientemente el trabajo. Esta filosofía de colaboración abierta es crucial para avanzar en el campo, especialmente para las comunidades académicas y de código abierto que buscan investigación reproducible a un "nivel olímpico", como señaló un observador en X.
El entrenamiento de NousCoder-14B fue liderado por Joe Li, un investigador de Nous Research y ex programador competitivo. El informe técnico de Li ofrece una perspectiva personal, trazando paralelismos entre la trayectoria de mejora del modelo y su propia experiencia en Codeforces, una popular plataforma de programación competitiva. Estimando el rendimiento del modelo frente a las clasificaciones de programación competitiva humana, Li calculó que el salto de NousCoder-14B de un rango de calificación aproximado de 1600-1750 a un rango de 2100-2200 refleja el progreso que logró en casi dos años de práctica dedicada entre los 14 y 16 años. El modelo logró este avance equivalente en solo cuatro días, una hazaña que Li describió como una "experiencia surrealista" durante la ejecución final del entrenamiento.
Sin embargo, Li también destacó una distinción crítica con respecto a la eficiencia del aprendizaje. Mientras que él resolvió alrededor de 1,000 problemas durante sus dos años de práctica, el modelo requirió el procesamiento de 24,000 problemas. Esto subraya que, a pesar de los rápidos avances, los humanos siguen siendo actualmente aprendices significativamente más eficientes en términos de muestras. El propio proceso de entrenamiento, que utiliza aprendizaje por refuerzo en 24,000 problemas de programación competitiva, ofrece una visión de las sofisticadas técnicas que los investigadores utilizan para mejorar las capacidades de razonamiento de la IA. El mecanismo central se basa en "recompensas verificables", donde las soluciones de código generadas por el modelo se ejecutan contra casos de prueba, produciendo una simple señal de retroalimentación binaria (correcto/incorrecto). La ejecución de este bucle de retroalimentación a escala requiere una infraestructura sustancial.
Noticias relacionadas
- La IA como compañera en dinámicas de poder: explorando nuevas fronteras en las relaciones BDSM
- 9 animales raros captados por cámara en la ‘Amazonía de Asia’
- Futura Agricultura Espacial: Los Desechos Humanos Podrían Ser la Clave para Cultivar Alimentos en la Luna y Marte
- La Tecnología de Vanguardia de la NASA Otorga Mayor Autonomía al Rover Perseverance en Marte
- Nuevo Asistente de IA "IronCurtain" Diseñado para Evitar Comportamientos Descontrolados de Agentes
Nous Research utilizó Modal, una plataforma de computación en la nube, para la ejecución paralela de código en sandbox. Cada uno de los 24,000 problemas de entrenamiento implicaba cientos de casos de prueba en promedio, y el sistema debía verificar que el código generado produjera resultados correctos dentro de estrictos límites de tiempo (15 segundos) y memoria (4 gigabytes). El entrenamiento empleó la técnica DAPO (Dynamic Sampling Policy Optimization), que los investigadores encontraron que ofrecía un rendimiento ligeramente mejor que las alternativas en sus experimentos. Una innovación clave es el "muestreo dinámico", que implica descartar los ejemplos de entrenamiento en los que el modelo resuelve todos los intentos o falla en todos los intentos, ya que estos no proporcionan ninguna señal de gradiente útil para el aprendizaje. Además, los investigadores adoptaron la "extensión de contexto iterativa", entrenando primero el modelo con una ventana de contexto de 32,000 tokens antes de expandirla a 40,000 tokens. Durante la evaluación, la extensión del contexto a aproximadamente 80,000 tokens produjo los mejores resultados de precisión, alcanzando el 67,87 por ciento reportado.