Un jefe de OpenAI ve "exagerada" la repercusión de DeepSeek: "han llegado de manera independiente a las mismas ideas que nosotros"
La irrupción de DeepSeek y su modelo DeepSeek R1 ha generado un terremoto en la industria de la IA. Este modelo chino de código abierto no solo ha captado la atención mediática, sino que también ha provocado un impacto significativo en los mercados, afectando incluso a gigantes tecnológicos como NVIDIA (con una caída del 16,1 % en sus acciones). De modo que la pregunta que todos nos hacemos ahora es, ¿cómo responderá OpenAI a este nuevo desafío? El impacto de la llegada de DeepSeek R1 El modelo DeepSeek R1 representa una evolución tecnológica que ha sacudido las bases del sector. Este modelo razonador, desarrollado en China (pero, ante todo, desarrollado como un modelo open source), ha demostrado estar a la altura de las mejores soluciones de OpenAI, como GPT-4 y 'o1', a una fracción de su costo. A diferencia de los modelos tradicionales que generan respuestas inmediatas, los modelos razonadores emplean un mayor tiempo de computación para producir resultados más precisos y contextualizados. OpenAI lideró inicialmente este paradigma con la introducción de 'o1' , pero DeepSeek ha llevado esta idea un paso más allá. OpenAI y la importancia de la computación en la nueva era La aparición de DeepSeek plantea ahora interrogantes sobre el modelo de negocio de OpenAI y otras empresas occidentales que han invertido miles de millones en infraestructura de computación. Sin embargo, las innovaciones que aporta DeepSeek no cambian el hecho de que tener acceso a computación de alto rendimiento es un aspecto fundamental para mantenerse a la vanguardia: sencillamente, permiten sacarle mucho más provecho al hardware ya existente. En Genbeta "No creo que haya nada mágico aquí": los expertos explican cómo DeepSeek ha revolucionado partes de la IA que no se creían posibles ¿Reacción exagerada? Horas después de que su jefe Sam Altman se pronunciara por primera vez sobre DeepSeek, Mark Chen, director jefe de investigación de OpenAI, ha ampliado la postura de su compañía sobre su imprevisto nuevo rival. Según Chen, el 'paper' publicado por los desarrolladores de DeepSeek demuestra que han llegado de manera independiente a ideas clave que OpenAI también descubrió durante el proceso de desarrollo de su modelo 'o1'. Les da la enhorabuena por ello... ... pero también señala que la respuesta externa al logro de DeepSeek ha sido "algo exagerada", especialmente en lo que respecta a las narrativas sobre los costos. Según él, uno de los aspectos más interesantes de los avances en modelos de razonamiento es la posibilidad de optimizar capacidades a lo largo de dos ejes diferentes: el pre-entrenamiento y el razonamiento. Una bifurcación en el camino del desarrollo de modelos de IA Esta optimización dual permite reducir costos, pero también implica nuevos desafíos. En palabras de Chen, "tener dos ejes para escalar significa que ahora podemos dedicar una enorme cantidad de recursos computacionales a ambos". En Genbeta La inteligencia artificial contribuye a la desigualdad social: hay IA para pobres e IA, muchísimo más potente, para ricos Uno de los puntos más destacados del análisis de Chen es que los costos de implementar y escalar modelos de IA no están necesariamente vinculados al desarrollo de mayores capacidades. En su opinión, los avances en técnicas de destilación de modelos ya están permitiendo que la reducción de costos y la mejora de capacidades sean objetivos cada vez más independientes. Esto tendrá importantes implicaciones para la industria de la IA, porque mientras que algunas compañías del sector buscarán minimizar los costos para aplicaciones más accesibles y prácticas, otros no dejarán de forzar el límite de sus capacidades, incluso si eso significa mayores inversiones en computación. Chen reafirma que OpenAI continuará trabajando en ambas áreas: reducir los costos de ejecutar modelos (especialmente a mayores latencias) y, al mismo tiempo, seguir avanzando en la capacidad de los mismos. Su hilo concluye con el anuncio de que OpenAI planea lanzar nuevos modelos aún más avanzados a lo largo de "este trimestre y durante todo el año". Imagen | Marcos Merino mediante IA En Genbeta | DeepSeek ha cambiado en un día el modelo que teníamos de IA de 'cuanto más mejor': su primera víctima ha sido Nvidia - La noticia Un jefe de OpenAI ve "exagerada" la repercusión de DeepSeek: "han llegado de manera independiente a las mismas ideas que nosotros" fue publicada originalmente en Genbeta por Marcos Merino .
La irrupción de DeepSeek y su modelo DeepSeek R1 ha generado un terremoto en la industria de la IA. Este modelo chino de código abierto no solo ha captado la atención mediática, sino que también ha provocado un impacto significativo en los mercados, afectando incluso a gigantes tecnológicos como NVIDIA (con una caída del 16,1 % en sus acciones).
De modo que la pregunta que todos nos hacemos ahora es, ¿cómo responderá OpenAI a este nuevo desafío?
El impacto de la llegada de DeepSeek R1
El modelo DeepSeek R1 representa una evolución tecnológica que ha sacudido las bases del sector. Este modelo razonador, desarrollado en China (pero, ante todo, desarrollado como un modelo open source), ha demostrado estar a la altura de las mejores soluciones de OpenAI, como GPT-4 y 'o1', a una fracción de su costo.
A diferencia de los modelos tradicionales que generan respuestas inmediatas, los modelos razonadores emplean un mayor tiempo de computación para producir resultados más precisos y contextualizados. OpenAI lideró inicialmente este paradigma con la introducción de 'o1' , pero DeepSeek ha llevado esta idea un paso más allá.
OpenAI y la importancia de la computación en la nueva era
La aparición de DeepSeek plantea ahora interrogantes sobre el modelo de negocio de OpenAI y otras empresas occidentales que han invertido miles de millones en infraestructura de computación. Sin embargo, las innovaciones que aporta DeepSeek no cambian el hecho de que tener acceso a computación de alto rendimiento es un aspecto fundamental para mantenerse a la vanguardia: sencillamente, permiten sacarle mucho más provecho al hardware ya existente.
¿Reacción exagerada?
Horas después de que su jefe Sam Altman se pronunciara por primera vez sobre DeepSeek, Mark Chen, director jefe de investigación de OpenAI, ha ampliado la postura de su compañía sobre su imprevisto nuevo rival.
Según Chen, el 'paper' publicado por los desarrolladores de DeepSeek demuestra que han llegado de manera independiente a ideas clave que OpenAI también descubrió durante el proceso de desarrollo de su modelo 'o1'. Les da la enhorabuena por ello...
... pero también señala que la respuesta externa al logro de DeepSeek ha sido "algo exagerada", especialmente en lo que respecta a las narrativas sobre los costos. Según él, uno de los aspectos más interesantes de los avances en modelos de razonamiento es la posibilidad de optimizar capacidades a lo largo de dos ejes diferentes: el pre-entrenamiento y el razonamiento.
Una bifurcación en el camino del desarrollo de modelos de IA
Esta optimización dual permite reducir costos, pero también implica nuevos desafíos. En palabras de Chen, "tener dos ejes para escalar significa que ahora podemos dedicar una enorme cantidad de recursos computacionales a ambos".
Uno de los puntos más destacados del análisis de Chen es que los costos de implementar y escalar modelos de IA no están necesariamente vinculados al desarrollo de mayores capacidades. En su opinión, los avances en técnicas de destilación de modelos ya están permitiendo que la reducción de costos y la mejora de capacidades sean objetivos cada vez más independientes.
Esto tendrá importantes implicaciones para la industria de la IA, porque mientras que algunas compañías del sector buscarán minimizar los costos para aplicaciones más accesibles y prácticas, otros no dejarán de forzar el límite de sus capacidades, incluso si eso significa mayores inversiones en computación.
Chen reafirma que OpenAI continuará trabajando en ambas áreas: reducir los costos de ejecutar modelos (especialmente a mayores latencias) y, al mismo tiempo, seguir avanzando en la capacidad de los mismos. Su hilo concluye con el anuncio de que OpenAI planea lanzar nuevos modelos aún más avanzados a lo largo de "este trimestre y durante todo el año".
Imagen | Marcos Merino mediante IA
En Genbeta | DeepSeek ha cambiado en un día el modelo que teníamos de IA de 'cuanto más mejor': su primera víctima ha sido Nvidia
-
La noticia
Un jefe de OpenAI ve "exagerada" la repercusión de DeepSeek: "han llegado de manera independiente a las mismas ideas que nosotros"
fue publicada originalmente en
Genbeta
por
Marcos Merino
.