0G Labs acaba de lograr algo que ha sorprendido a la comunidad de IA: En un entorno de red normal con "solo 1Gbps" de velocidad, sí, incluso con la velocidad de tu WiFi de oficina, se ha entrenado con éxito el primer modelo LLM distribuido del mundo con 100 mil millones de parámetros. Esto podría revolucionar el panorama industrial de la IA: El entrenamiento de IA ya no será exclusivo del "club de supercomputadoras". Ahora, las pequeñas y medianas empresas, los equipos de startups e incluso los laboratorios universitarios pueden participar en el entrenamiento con sus propios dispositivos. La clave detrás de esto se llama DiLoCoX (marco de entrenamiento de baja comunicación), la idea central: a través de "tolerancia a la latencia de comunicación", "compresión de gradiente adaptativa" y "paralelismo en tuberías" transformar el entrenamiento de grandes modelos, que originalmente dependía en gran medida del ancho de banda y el hardware, en una tarea distribuida que puede funcionar en "redes normales". La velocidad de entrenamiento ha aumentado 300 veces en comparación con antes, y el costo de infraestructura se ha reducido en un 95%. Lo más importante es que este sistema de 0G es completamente descentralizado. No depende de ningún gigante único, no necesita la autorización de proveedores de nube, solo necesitas conectarte a la red, cualquier persona puede convertirse en un nodo de entrenamiento de IA. Los datos siempre se almacenan localmente, y la sincronización del modelo es completamente transparente en toda la cadena. Para lograr esta transformación, 0G Labs está colaborando con empresas, operadores y desarrolladores de todo el mundo para crear una "red de entrenamiento de IA descentralizada". La potencia de cálculo de IA depende de las reglas del juego de los gigantes centralizados, @0G_labs está reescribiendo eso. @0g_CN @Galxe #Starboard #0G #Yaps #KaitoAI @KaitoAI
Se está produciendo un cambio importante en los fundamentos de la IA, y 0G Labs lo está liderando. El último artículo de @sandy_carter en @Forbes captura el último avance de @0G_Research: 0G entrena el LLM distribuido más grande hasta ahora - más de 100B de parámetros. Sumérgete →
Mostrar original
7.73 K
79
El contenido al que estás accediendo se ofrece por terceros. A menos que se indique lo contrario, OKX no es autor de la información y no reclama ningún derecho de autor sobre los materiales. El contenido solo se proporciona con fines informativos y no representa las opiniones de OKX. No pretende ser un respaldo de ningún tipo y no debe ser considerado como un consejo de inversión o una solicitud para comprar o vender activos digitales. En la medida en que la IA generativa se utiliza para proporcionar resúmenes u otra información, dicho contenido generado por IA puede ser inexacto o incoherente. Lee el artículo enlazado para más detalles e información. OKX no es responsable del contenido alojado en sitios de terceros. Los holdings de activos digitales, incluidos stablecoins y NFT, suponen un alto nivel de riesgo y pueden fluctuar mucho. Debes considerar cuidadosamente si el trading o holding de activos digitales es adecuado para ti según tu situación financiera.