El CEO de Anthropic avisa: en 2026 la IA será tan poderosa como "10 millones de premios Nobel" (y eso plantea un terrible dilema)
El CEO de Anthropic, Dario Amodei, tiene marcado en rojo el año 2026 en su calendario, según ha explicado en una larga entrevista con el podcast China Talk. Para entonces, la brecha tecnológica entre Estados Unidos y China en Inteligencia Artificial podría cerrarse, y eso llevaría a tener que tomar una decisión crítica: avanzar con prudencia o acelerar sin miramientos. Por qué es importante. La llegada de modelos de IA equivalentes a "10 millones de premios Nobel trabajando sin descanso", según dice Amodei, planteará un dilema existencial: si China alcanza a EE.UU. en capacidad, ningún país podrá permitirse frenar el desarrollo para hacerlo más seguro. "Si las cosas están igualadas, tendremos que preocuparnos por lo que ellos construyan y al mismo tiempo por que nos dominen con la tecnología. Eso nos pone en un dilema terrible donde no hay opciones", advierte Amodei. En Xataka "Teléfono, resuélveme la vida": el agente IA de Anthropic quiere que la IA cambie nuestras vidas de verdad Entre líneas. El verdadero temor no es la competencia con China en sí misma, sino que esta derive en una carrera descontrolada que obligue a desplegar tecnología potencialmente peligrosa antes de estar preparados para manejarla con seguridad. Algunos ejemplos que señala Amodei: El desarrollo de armas biológicas: DeepSeek ya ha demostrado capacidad para generar información sobre bioarmas "que no se encuentra fácilmente en Google o en libros de texto". Aunque hoy los modelos no son "literalmente peligrosos", esto podría cambiar "más adelante este año o el próximo". La falta de restricciones: Amodei señala que el modelo de DeepSeek "tuvo el peor desempeño de cualquier modelo que hayamos probado, sin absolutamente ningún bloqueo" contra la generación de información peligrosa. El argumento contra la regulación: "Si nos frenamos, China simplemente nos adelantará". Esta mentalidad, advierte Amodei, hace imposible implementar normativas de seguridad efectivas. La capacidad militar: los modelos avanzados tendrán implicaciones "para controlar enjambres de drones o analizar información de inteligencia", señala el CEO de Anthropic como ejemplo de tecnologías que podrían desplegarse prematuramente por presión competitiva. Por cierto, Google acaba de eliminar la mención a no desarrollar armas con IA. En detalle. Amodei propone una estrategia con dos patas: Mantener una ventaja de dos años sobre China mediante los controles de exportación. Usar parte de ese margen temporal para implementar salvaguardas de seguridad. "Mi preocupación es que si Estados Unidos y China están igualados en esta tecnología, codo con codo en cada etapa, no habrá nada que impida que ambos bandos sigan empujando la tecnología hacia adelante", explica el CEO de Anthropic. Profundiza. La carrera tecnológica plantea un escenario paradójico: el éxito estadounidense en contener a China podría ser la única garantía para desarrollar una IA más segura. Pero ese mismo éxito podría acelerar una escalada que haga la tecnología más peligrosa. ¿El principal perdedor? La cooperación internacional. Aunque Amodei no descarta acuerdos con China, reconoce que "no ha habido mucho interés por parte china" en las iniciativas de seguridad propuestas por EE.UU. Solo un "peligro realmente convincente para la civilización humana" podría cambiar esta dinámica. La gran pregunta. ¿Es inevitable este dilema? Amodei sugiere que no, pero advierte que evitarlo requeriría evidencia irrefutable de que la IA supone un riesgo existencial. Por ahora, dice, "los argumentos son lo suficientemente sugerentes como para preocuparme y tomármelo en serio, pero no lo suficiente como para que dos superpotencias competidoras digan 'vale, vamos a parar'". Efectivamente, parece poco probable. En Xataka | He probado DeepSeek en la web y en mi Mac. ChatGPT, Claude y Gemini tienen un problemón Imagen destacada | TechCrunch, Wikipedia - La noticia El CEO de Anthropic avisa: en 2026 la IA será tan poderosa como "10 millones de premios Nobel" (y eso plantea un terrible dilema) fue publicada originalmente en Xataka por Javier Lacort .
El CEO de Anthropic, Dario Amodei, tiene marcado en rojo el año 2026 en su calendario, según ha explicado en una larga entrevista con el podcast China Talk.
Para entonces, la brecha tecnológica entre Estados Unidos y China en Inteligencia Artificial podría cerrarse, y eso llevaría a tener que tomar una decisión crítica: avanzar con prudencia o acelerar sin miramientos.
Por qué es importante. La llegada de modelos de IA equivalentes a "10 millones de premios Nobel trabajando sin descanso", según dice Amodei, planteará un dilema existencial: si China alcanza a EE.UU. en capacidad, ningún país podrá permitirse frenar el desarrollo para hacerlo más seguro.
"Si las cosas están igualadas, tendremos que preocuparnos por lo que ellos construyan y al mismo tiempo por que nos dominen con la tecnología. Eso nos pone en un dilema terrible donde no hay opciones", advierte Amodei.
Entre líneas. El verdadero temor no es la competencia con China en sí misma, sino que esta derive en una carrera descontrolada que obligue a desplegar tecnología potencialmente peligrosa antes de estar preparados para manejarla con seguridad.
Algunos ejemplos que señala Amodei:
- El desarrollo de armas biológicas: DeepSeek ya ha demostrado capacidad para generar información sobre bioarmas "que no se encuentra fácilmente en Google o en libros de texto". Aunque hoy los modelos no son "literalmente peligrosos", esto podría cambiar "más adelante este año o el próximo".
- La falta de restricciones: Amodei señala que el modelo de DeepSeek "tuvo el peor desempeño de cualquier modelo que hayamos probado, sin absolutamente ningún bloqueo" contra la generación de información peligrosa.
- El argumento contra la regulación: "Si nos frenamos, China simplemente nos adelantará". Esta mentalidad, advierte Amodei, hace imposible implementar normativas de seguridad efectivas.
- La capacidad militar: los modelos avanzados tendrán implicaciones "para controlar enjambres de drones o analizar información de inteligencia", señala el CEO de Anthropic como ejemplo de tecnologías que podrían desplegarse prematuramente por presión competitiva. Por cierto, Google acaba de eliminar la mención a no desarrollar armas con IA.
En detalle. Amodei propone una estrategia con dos patas:
- Mantener una ventaja de dos años sobre China mediante los controles de exportación.
- Usar parte de ese margen temporal para implementar salvaguardas de seguridad.
"Mi preocupación es que si Estados Unidos y China están igualados en esta tecnología, codo con codo en cada etapa, no habrá nada que impida que ambos bandos sigan empujando la tecnología hacia adelante", explica el CEO de Anthropic.
Profundiza. La carrera tecnológica plantea un escenario paradójico: el éxito estadounidense en contener a China podría ser la única garantía para desarrollar una IA más segura. Pero ese mismo éxito podría acelerar una escalada que haga la tecnología más peligrosa.
- ¿El principal perdedor? La cooperación internacional. Aunque Amodei no descarta acuerdos con China, reconoce que "no ha habido mucho interés por parte china" en las iniciativas de seguridad propuestas por EE.UU. Solo un "peligro realmente convincente para la civilización humana" podría cambiar esta dinámica.
- La gran pregunta. ¿Es inevitable este dilema? Amodei sugiere que no, pero advierte que evitarlo requeriría evidencia irrefutable de que la IA supone un riesgo existencial. Por ahora, dice, "los argumentos son lo suficientemente sugerentes como para preocuparme y tomármelo en serio, pero no lo suficiente como para que dos superpotencias competidoras digan 'vale, vamos a parar'".
Efectivamente, parece poco probable.
En Xataka | He probado DeepSeek en la web y en mi Mac. ChatGPT, Claude y Gemini tienen un problemón
Imagen destacada | TechCrunch, Wikipedia
-
La noticia
El CEO de Anthropic avisa: en 2026 la IA será tan poderosa como "10 millones de premios Nobel" (y eso plantea un terrible dilema)
fue publicada originalmente en
Xataka
por
Javier Lacort
.