Cómo los chinos vencieron a Trump y a OpenAI
26.01.2025
WASHINGTON (Uypress/Moon Of Alabama) - El revuelo en torno a la inteligencia artificial, el intento fallido de Estados Unidos de monopolizarla y la reciente respuesta de China son una lección de cómo innovar, pero también muestran que Estados Unidos está perdiendo la capacidad para hacerlo.
A mediados de 2023, cuando el entusiasmo por la inteligencia artificial llegó a los titulares, escribí:
La «inteligencia artificial» es (en su mayor parte) un reconocimiento de patrones glorificado.
Actualmente, existe cierta expectativa acerca de una familia de modelos de lenguaje grandes como ChatGPT. El programa lee la entrada en lenguaje natural y la procesa para obtener una salida de contenido en lenguaje natural relacionado. Esto no es nuevo. La primera entidad de computadora de Internet lingüística artificial (Alice) fue desarrollada por Joseph Weizenbaum en el MIT a principios de los años 60. Tuve charlas divertidas con ELIZA en los años 80 en una terminal de mainframe. ChatGPT es un poco más ingenioso y sus resultados iterativos, es decir, las "conversaciones" que crea, pueden sorprender a algunas personas. Pero la expectativa en torno a él es injustificada.
...
Actualmente, se estima que la exactitud factual de la salida de los mejores modelos de lenguaje grandes es del 80%. Procesan símbolos y patrones, pero no comprenden lo que representan esos símbolos o patrones. No pueden resolver problemas matemáticos y lógicos, ni siquiera los más básicos.
Existen aplicaciones específicas, como la traducción de idiomas escritos, en las que la IA o el reconocimiento de patrones ofrecen resultados sorprendentes, pero aún no se puede confiar en que cada palabra sea correcta. Los modelos pueden ser asistentes, pero siempre habrá que comprobar dos veces sus resultados.
En general, la precisión de los modelos de IA actuales es todavía demasiado baja como para permitirles tomar decisiones en cualquier situación del mundo real. Más datos o más potencia de cálculo no cambiarán eso. Si uno quiere superar sus limitaciones, necesitará encontrar algunas ideas fundamentalmente nuevas.
Pero el revuelo continuó. Un gran modelo de IA, ChatGPT, fue proporcionado por una organización sin fines de lucro, OpenAI. Pero su director ejecutivo, Sam Altman, pronto se dio cuenta de la gran cantidad de dólares que potencialmente podría ganar. Un año después de defender la estructura sin fines de lucro de OpenAI, Altman hizo una redada en la junta y convirtió la organización en una empresa privada:
OpenAI, el fabricante de ChatGPT, está trabajando en un plan para reestructurar su negocio principal y convertirlo en una corporación con fines de lucro que ya no estará controlada por su junta sin fines de lucro, dijeron a Reuters personas familiarizadas con el asunto, en una medida que hará que la empresa sea más atractiva para los inversores.
...
El presidente ejecutivo, Sam Altman, también recibirá capital por primera vez en la empresa con fines de lucro, que podría valer 150.000 millones de dólares después de la reestructuración, ya que también intenta eliminar el límite a los retornos para los inversores, agregaron las fuentes.
El modelo de lenguaje grande ChatGTP que proporcionó OpenAI era de código cerrado: una caja negra que funcionaba en la nube y con la que se podía pagar para chatear o que se podía usar para traducir, generar contenido o analizar determinados problemas.
El entrenamiento y el mantenimiento de ChatGTP requerían de una gran cantidad de potencia informática y dinero. Era un proceso algo costoso, pero no implicaba ninguna tecnología nueva. Los algoritmos que utilizaba eran bien conocidos y los datos de entrenamiento necesarios para "programarlo" estaban disponibles gratuitamente en Internet.
A pesar de todo el revuelo que se ha generado en torno a la IA, no se trata de un secreto ni de una tecnología nueva. Las barreras de entrada para cualquier competencia son bajas.
Por eso, Yves, de Naked Capitalism , señalando a Edward Zitron , preguntó: "¿Cómo sobrevive OpenAI?". No sobrevive. O tiene pocas posibilidades de hacerlo. Los debates en Estados Unidos nunca reconocieron esos hechos.
Los políticos pensaron que la IA sería el próximo gran avance que permitiría a Estados Unidos controlar el mundo. Intentaron evitar cualquier competencia potencial al liderazgo que Estados Unidos creía tener en ese campo. Nvidea, el último fabricante líder de chips de Estados Unidos, perdió miles de millones cuando se le prohibió vender a China los últimos modelos especializados en IA.
Hace dos días Trump anunció Stargate, una inversión de 500 mil millones de dólares en infraestructura de inteligencia artificial en Estados Unidos :
Tres importantes empresas tecnológicas anunciaron el martes que crearán una nueva empresa, llamada Stargate, para desarrollar infraestructura de inteligencia artificial en Estados Unidos.
El director ejecutivo de OpenAI, Sam Altman, el director ejecutivo de SoftBank, Masayoshi Son, y el presidente de Oracle, Larry Ellison, aparecieron en la Casa Blanca el martes por la tarde junto al presidente Donald Trump para anunciar la compañía, a la que Trump llamó el "proyecto de infraestructura de inteligencia artificial más grande de la historia".
Las empresas invertirán 100.000 millones de dólares en el proyecto para empezar, y tienen previsto invertir hasta 500.000 millones de dólares en Stargate en los próximos años. Se espera que el proyecto cree 100.000 puestos de trabajo en Estados Unidos, dijo Trump.
Stargate construirá "la infraestructura física y virtual para impulsar la próxima generación de IA", incluidos centros de datos en todo el país, dijo Trump. Ellison dijo que el primer proyecto de datos del grupo, de 93.000 metros cuadrados, ya está en construcción en Texas.
El mismo día, pero con mucho menos ruido, una empresa china publicó otro modelo de IA :
Presentamos nuestros modelos de razonamiento de primera generación, DeepSeek-R1-Zero y DeepSeek-R1. DeepSeek-R1-Zero, un modelo entrenado mediante aprendizaje de refuerzo (RL) a gran escala sin ajuste fino supervisado (SFT) como paso preliminar, demostró un rendimiento notable en el razonamiento. Con RL, DeepSeek-R1-Zero emergió naturalmente con numerosos comportamientos de razonamiento interesantes y poderosos.
Los nuevos modelos DeepSeek tienen mejores puntos de referencia que cualquier otro modelo disponible. Utilizan una combinación diferente de técnicas, menos datos de entrenamiento y mucho menos potencia de cálculo para lograrlo. Son baratos de usar y, a diferencia de OpenAI, son de código abierto real.
Forbes escribe :
Los controles de exportación de Estados Unidos sobre semiconductores avanzados tenían como objetivo frenar el progreso de la IA de China, pero es posible que hayan estimulado inadvertidamente la innovación. Incapaces de confiar únicamente en el hardware más reciente, empresas como DeepSeek, con sede en Hangzhou, se han visto obligadas a encontrar soluciones creativas para hacer más con menos.
...
Este mes, DeepSeek lanzó su modelo R1, utilizando técnicas avanzadas como el aprendizaje de refuerzo puro para crear un modelo que no solo está entre los más formidables del mundo, sino que es completamente de código abierto, lo que lo pone a disposición de cualquier persona en el mundo para examinarlo, modificarlo y desarrollarlo.
...
El rendimiento de DeepSeek-R1 es comparable a los mejores modelos de razonamiento de OpenAI en una variedad de tareas , incluidas las matemáticas, la codificación y el razonamiento complejo. Por ejemplo, en el punto de referencia de matemáticas AIME 2024, DeepSeek-R1 obtuvo un 79,8% en comparación con el 79,2% de OpenAI-o1. En el punto de referencia MATH-500, DeepSeek-R1 logró un 97,3% frente al 96,4% de o1. En tareas de codificación, DeepSeek-R1 alcanzó el percentil 96,3 en Codeforces, mientras que o1 alcanzó el percentil 96,6, aunque es importante tener en cuenta que los resultados de referencia pueden ser imperfectos y no deben sobreinterpretarse.
Pero lo más destacable es que DeepSeek logró esto en gran medida gracias a la innovación, en lugar de depender de los últimos chips informáticos.
La naturaleza también queda impresionada :
Un modelo de lenguaje de gran tamaño creado en China, llamado DeepSeek-R1, entusiasma a los científicos como un rival asequible y abierto a los modelos de "raciocinio" como el o1 de OpenAI.
...
"Esto es una locura y totalmente inesperado", escribió en X Elvis Saravia, investigador de IA y cofundador de la consultora de IA DAIR.AI con sede en el Reino Unido.
R1 se destaca por otra razón. DeepSeek, la start-up de Hangzhou que creó el modelo, lo ha publicado como "open-weight", lo que significa que los investigadores pueden estudiar y desarrollar el algoritmo. Publicado bajo una licencia del MIT, el modelo puede reutilizarse libremente, pero no se considera completamente de código abierto, porque sus datos de entrenamiento no se han puesto a disposición.
"La apertura de DeepSeek es bastante notable", afirma Mario Krenn, director del Laboratorio de Científicos Artificiales del Instituto Max Planck para la Ciencia de la Luz en Erlangen, Alemania. En comparación, o1 y otros modelos creados por OpenAI en San Francisco, California, incluido su último esfuerzo o3, son "esencialmente cajas negras", afirma.
Incluso los inversores de Internet a largo plazo, que lo han visto todo, están impresionados:
Marc Andreessen ???? @pmarca - 9:19 UTC · Jan 24, 2025
Deepseek R1 es uno de los avances más sorprendentes e impresionantes que he visto jamás y, como código abierto, un gran regalo para el mundo. ????
La naturaleza añade:
DeepSeek no ha publicado el coste total de entrenamiento de R1, pero está cobrando a los usuarios de su interfaz alrededor de una trigésima parte de lo que cuesta ejecutar o1 . La empresa también ha creado versiones mini "destiladas" de R1 para permitir que los investigadores con capacidad de procesamiento limitada jueguen con el modelo.
¡Esto realmente funciona!
Brian Roemmele @BrianRoemmele - 14:34 UTC · 23 de enero de 2025
Amigos, creo que lo hemos logrado.
Si las pruebas realizadas durante la noche se confirman, tendremos DeepSeek R1 de CÓDIGO ABIERTO funcionando a 200 tokens por segundo en una Raspberry Pi que NO está conectada a INTERNET. ¡
Una IA de vanguardia mejor que "OpenAI" de su propiedad, que podrá llevar en su bolsillo y usar de forma gratuita!
Pondré a su disposición la imagen de Pi tan pronto como se completen todas las pruebas. ¡
Simplemente la coloca en una Raspberry Pi y tendrá IA!
Este es solo el comienzo del poder que se genera cuando REALMENTE se abre el código fuente de un modelo de IA.
El último hardware de Raspberry Pi cuesta a partir de 50 dólares. El software es gratuito.
Esta es una llamada de muerte para OpenAI:
Arnaud Bertrand @RnaudBertrand - 14:23 UTC · 21 de enero de 2025
La mayoría de la gente probablemente no se da cuenta de lo mala noticia que es Deepseek de China para OpenAI.
Han creado un modelo que iguala e incluso supera el último modelo o1 de OpenAI en varios puntos de referencia, y cobran solo el 3% del precio.
Es básicamente como si alguien hubiera lanzado un móvil a la par del iPhone pero lo vendiera a 30 dólares en lugar de 1.000. Es así de dramático.
Es más, lo están lanzando en código abierto, por lo que incluso tienes la opción (que OpenAI no ofrece) de no usar su API en absoluto y ejecutar el modelo "gratis" tú mismo. ...
La historia de fondo de DeepSeek también es sorprendente.
En 2007, tres ingenieros chinos se propusieron crear un fondo cuantitativo (de especulación financiera) utilizando inteligencia artificial. Contrataron a gente con ganas de invertir, recién salida de la universidad. Su fondo High-Flyer tuvo cierto éxito, pero en los últimos años el gobierno chino empezó a tomar medidas enérgicas contra la ingeniería financiera, el trading cuantitativo y la especulación.
Con tiempo libre y potencia informática sin utilizar en su trastienda, los ingenieros comenzaron a construir los modelos DeepSeek. Los costes fueron mínimos. Mientras que OpenAI, Meta y Google gastaron miles de millones para construir sus IA, los costes de entrenamiento para los modelos DeepSeek publicados fueron de apenas 5 a 6 millones de dólares.
Henry Shi @henrythe9ths - 23:20 · 20 de enero de 2025
7. ¿La lección?
A veces, tener menos significa innovar más. DeepSeek demuestra que no necesitas:
- Miles de millones en financiación
- Cientos de doctorados
- Un pedigrí famoso
Solo mentes jóvenes brillantes, el coraje de pensar de manera diferente y la determinación de nunca rendirse
Otra lección es que las mentes jóvenes y brillantes no deben desperdiciarse para optimizar la especulación financiera, sino para crear cosas que se puedan usar.
DeepSeek demuestra que es imposible utilizar barreras comerciales y tecnológicas para mantener la tecnología alejada de los competidores. Con recursos decentes, se puede simplemente innovar para evitarlas.
Ni siquiera miles de millones de dólares, ruidosos comerciantes como Trump y estafadores que se autopromocionan como Sam Altman pueden competir con éxito con un grupo amplio de ingenieros bien capacitados.
Como señala un autor de Guancha (traducción automática):
En la guerra chino-estadounidense en materia de ciencia y tecnología, la ventaja única de China proviene precisamente de la prohibición estadounidense. Se puede decir que nuestra fuerte voluntad de sobrevivir fue expulsada por Washington, y maximizar nuestros recursos limitados es el secreto para abrirnos paso. En la historia, este tipo de historia no es nueva, es decir, los débiles prevalecen sobre los fuertes y los pequeños luchan contra los grandes.
La parte estadounidense caerá en un dilema al estilo de Vietnam: confiará demasiado en su propia ventaja absoluta, desperdiciando así muchos recursos y perdiéndose a sí misma en el consumo interno.
¿Cuánto tiempo le llevará a Estados Unidos volver a aprender esa lección?
UyPress - Agencia Uruguaya de Noticias