OpenLedger construye una economía de modelos de IA: la base OP Stack y la tecnología de ajuste fino ayudan a incentivar de manera sostenible

Informe de investigación profunda de OpenLedger: construir una economía de agentes impulsada por datos y modelos combinables sobre la base de OP Stack+EigenDA

I. Introducción | La transición de la capa de modelo de Crypto AI

Los datos, los modelos y la capacidad de cálculo son los tres elementos centrales de la infraestructura de IA, análogos al combustible (datos), el motor (modelo) y la energía (capacidad de cálculo), todos son indispensables. Al igual que la trayectoria de evolución de la infraestructura en la industria de IA tradicional, el campo de Crypto AI también ha pasado por etapas similares. A principios de 2024, el mercado estuvo dominado por proyectos de GPU descentralizados, que enfatizaban una lógica de crecimiento extensivo centrada en "competir en capacidad de cálculo". Sin embargo, a partir de 2025, el enfoque de la industria se ha ido desplazando gradualmente hacia las capas de modelo y datos, marcando la transición de Crypto AI de la competencia por recursos básicos a una construcción intermedia más sostenible y con valor de aplicación.

Modelo General (LLM) vs Modelo Especializado (SLM)

Los modelos de lenguaje grandes (LLM) tradicionales dependen en gran medida de conjuntos de datos masivos y arquitecturas distribuidas complejas, con un tamaño de parámetro que fácilmente alcanza entre 70B y 500B, y el costo de entrenar una vez puede llegar a varios millones de dólares. El SLM (Modelo de Lenguaje Especializado), como un paradigma de ajuste fino ligero de un modelo base reutilizable, generalmente se basa en modelos de código abierto, combinando una pequeña cantidad de datos profesionales de alta calidad y tecnologías como LoRA, para construir rápidamente modelos de expertos con conocimientos específicos del dominio, reduciendo significativamente los costos de entrenamiento y las barreras técnicas.

Es importante señalar que SLM no se integrará en los pesos de LLM, sino que colaborará con LLM a través de la llamada arquitectura de Agente, enrutamiento dinámico del sistema de plugins, la conexión en caliente del módulo LoRA y RAG (Generación Aumentada por Recuperación). Esta arquitectura mantiene la amplia cobertura de LLM y mejora el rendimiento profesional a través de módulos de ajuste fino, formando un sistema inteligente combinado de alta flexibilidad.

El valor y los límites de Crypto AI en la capa de modelo

Los proyectos de Crypto AI son esencialmente difíciles de mejorar directamente las capacidades centrales de los modelos de lenguaje grande (LLM), y la razón principal radica en

  • La barrera técnica es demasiado alta: la escala de datos, los recursos computacionales y la capacidad de ingeniería necesarios para entrenar un modelo base son extremadamente grandes, actualmente solo gigantes tecnológicos como Estados Unidos y China tienen la capacidad correspondiente.
  • Limitaciones del ecosistema de código abierto: aunque los modelos básicos más utilizados han sido de código abierto, la clave para impulsar verdaderas innovaciones en los modelos sigue estando concentrada en instituciones de investigación y sistemas de ingeniería de código cerrado, y el espacio de participación de los proyectos en cadena en la capa del modelo central es limitado.

Sin embargo, sobre los modelos básicos de código abierto, los proyectos de Crypto AI aún pueden lograr la extensión de valor a través de la afinación de modelos de lenguaje especializados (SLM) y combinando la verificabilidad y los mecanismos de incentivos de Web3. Como "capa de interfaz periférica" de la cadena de industria AI, se manifiesta en dos direcciones clave:

  • Capa de verificación confiable: a través de registros en cadena del camino de generación del modelo, la contribución de datos y el uso, se mejora la trazabilidad y la capacidad de resistencia a la manipulación de la salida de IA.
  • Mecanismo de incentivos: Con la ayuda del Token nativo, se utilizan para incentivar comportamientos como la carga de datos, la llamada de modelos y la ejecución de agentes, construyendo un ciclo positivo de entrenamiento y servicio de modelos.

Clasificación de tipos de modelos de IA y análisis de aplicabilidad en blockchain

Por lo tanto, se puede ver que los puntos de enfoque viables de los proyectos de Crypto AI de tipo modelo se concentran principalmente en la ligera afinación de pequeños SLM, el acceso y la verificación de datos en cadena de la arquitectura RAG, así como en el despliegue local y la incentivación de modelos Edge. Combinando la verificabilidad de blockchain con el mecanismo de tokens, Crypto puede proporcionar un valor único a estos escenarios de modelos de recursos medios y bajos, formando un valor diferencial en la "capa de interfaz" de AI.

Cadena de blockchain de IA basada en datos y modelos, que permite un registro claro e inmutable de la fuente de contribución de cada dato y modelo en la cadena, mejorando significativamente la credibilidad de los datos y la trazabilidad del entrenamiento del modelo. Al mismo tiempo, mediante un mecanismo de contrato inteligente, se activa automáticamente la distribución de recompensas cuando se invocan datos o modelos, convirtiendo el comportamiento de la IA en un valor tokenizado, medible y negociable, construyendo un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo mediante votación con tokens, participar en la formulación y iteración de reglas, y perfeccionar la estructura de gobernanza descentralizada.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

II. Descripción del proyecto | Visión de la cadena AI de OpenLedger

OpenLedger es uno de los pocos proyectos de blockchain AI en el mercado que se centra en los mecanismos de incentivo de datos y modelos. Fue pionero en proponer el concepto de «Payable AI», con el objetivo de construir un entorno de operación de AI justo, transparente y componible, incentivando a los contribuyentes de datos, desarrolladores de modelos y creadores de aplicaciones de AI a colaborar en la misma plataforma y obtener ingresos en la cadena según sus contribuciones reales.

OpenLedger proporciona un ciclo cerrado de toda la cadena desde "provisión de datos" hasta "despliegue de modelos" y "llamada a la participación en beneficios", cuyos módulos centrales incluyen:

  • Fábrica de Modelos: Sin necesidad de programación, se pueden usar LLM de código abierto para ajustar, entrenar y desplegar modelos personalizados con LoRA.
  • OpenLoRA: soporta la coexistencia de miles de modelos, carga dinámica bajo demanda, reduce significativamente los costos de implementación;
  • PoA (Prueba de Atribución): Medición de contribuciones y distribución de recompensas a través del registro de llamadas en la cadena;
  • Datanets: Red de datos estructurados orientada a escenarios verticales, construida y validada a través de la colaboración comunitaria;
  • Plataforma de Propuestas de Modelos (Model Proposal Platform): mercado de modelos en cadena que es combinable, invocable y pagable.

A través de los módulos anteriores, OpenLedger ha construido una "infraestructura económica de agentes inteligente" impulsada por datos y con modelos combinables, promoviendo la cadena de valor de la IA en la cadena de bloques.

Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base, construyendo un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.

  • Construido sobre OP Stack: basado en la pila tecnológica de Optimism, soporta alta profundidad y ejecución de bajos costos;
  • Liquidación en la red principal de Ethereum: Asegurar la seguridad de las transacciones y la integridad de los activos;
  • EVM compatible: facilita a los desarrolladores desplegar y expandir rápidamente basándose en Solidity;
  • EigenDA proporciona soporte de disponibilidad de datos: reduce significativamente los costos de almacenamiento y garantiza la verificabilidad de los datos.

En comparación con cadenas de IA más genéricas como NEAR, que se centran más en la capa base y en la soberanía de los datos, y la arquitectura de "AI Agents on BOS", OpenLedger se enfoca más en construir cadenas de IA específicas orientadas a incentivos de datos y modelos, comprometida a hacer que el desarrollo y la invocación de modelos sean trazables, combinables y sostenibles en la cadena. Es la infraestructura de incentivos de modelos en el mundo Web3, combinando la gestión de modelos, la facturación por uso y interfaces combinables en la cadena, impulsando el camino hacia la realización de "modelos como activos".

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Tres, los componentes centrales y la arquitectura técnica de OpenLedger

3.1 Modelo de Fábrica, fábrica de modelos sin código

ModelFactory es una plataforma de ajuste fino de grandes modelos de lenguaje (LLM) dentro del ecosistema de OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una interfaz de operación completamente gráfica, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar el modelo basándose en los conjuntos de datos autorizados y revisados completados en OpenLedger. Se ha logrado un flujo de trabajo integrado de autorización de datos, entrenamiento de modelos y despliegue, cuyo proceso central incluye:

  • Control de acceso a datos: El usuario envía una solicitud de datos, el proveedor la revisa y aprueba, y los datos se conectan automáticamente a la interfaz de entrenamiento del modelo.
  • Selección y configuración del modelo: Soporta LLM de última generación, configurando los hiperparámetros a través de la GUI.
  • Ajuste ligero: motor LoRA / QLoRA incorporado, muestra en tiempo real el progreso del entrenamiento.
  • Evaluación y despliegue del modelo: Herramienta de evaluación integrada, admite la exportación de despliegues o llamadas compartidas en el ecosistema.
  • Interfaz de verificación interactiva: Proporciona una interfaz de chat, facilitando la prueba directa de la capacidad de respuesta del modelo.
  • Generación de RAG para trazabilidad: Responder con citas de origen, aumentando la confianza y la auditoría.

La arquitectura del sistema Model Factory incluye seis módulos, abarcando la autenticación de identidad, permisos de datos, ajuste fino de modelos, evaluación y despliegue, y trazabilidad RAG, creando una plataforma de servicio de modelo integrada que es segura y controlable, interactiva en tiempo real y sostenible para la monetización.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

El siguiente es un breve resumen de las capacidades de los grandes modelos de lenguaje que ModelFactory admite actualmente:

  • LLaMA serie: el más amplio en ecosistema, comunidad activa y con un rendimiento general fuerte, es uno de los modelos básicos de código abierto más populares en la actualidad.
  • Mistral: arquitectura eficiente, rendimiento de inferencia excepcional, adecuado para escenarios de despliegue flexible y recursos limitados.
  • Qwen: El rendimiento en tareas en chino es excelente, con habilidades integrales fuertes, adecuado como la primera elección para desarrolladores nacionales.
  • ChatGLM: Efecto de conversación en chino destacado, adecuado para atención al cliente en nichos y escenarios de localización.
  • Deepseek: se destaca en la generación de código y el razonamiento matemático, adecuado para herramientas de asistencia en el desarrollo inteligente.
  • Gemma: modelo ligero lanzado por Google, con una estructura clara, fácil de usar y experimentar rápidamente.
  • Falcon: Solía ser un referente de rendimiento, adecuado para investigaciones básicas o pruebas comparativas, pero la actividad de la comunidad ha disminuido.
  • BLOOM: soporte multilingüe fuerte, pero rendimiento de inferencia débil, adecuado para investigaciones de cobertura de idiomas.
  • GPT-2: modelo clásico temprano, adecuado solo para fines de enseñanza y verificación, no se recomienda su uso en implementación real.

Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos de MoE de alto rendimiento o modelos multimodales, su estrategia no está desactualizada, sino que se basa en una configuración "prioridad práctica" hecha sobre las restricciones reales de implementación en la cadena (costos de inferencia, adaptación de RAG, compatibilidad con LoRA, entorno EVM).

Model Factory como una herramienta sin código, todos los modelos incorporan un mecanismo de prueba de contribución que asegura los derechos de los contribuyentes de datos y los desarrolladores de modelos, con ventajas de bajo umbral, monetización y combinabilidad, en comparación con las herramientas tradicionales de desarrollo de modelos:

  • Para desarrolladores: proporcionar un camino completo para la incubación, distribución y generación de ingresos del modelo;
  • Para la plataforma: formar un ecosistema de circulación y combinación de activos modelo;
  • Para los usuarios: se pueden combinar modelos o agentes de la misma manera que se llama a una API.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

3.2 OpenLoRA, la tokenización de activos en cadena del modelo de ajuste fino

LoRA (Adaptación de Bajo Rango) es un método de ajuste de parámetros eficiente que aprende nuevas tareas al insertar una "matriz de bajo rango" en un modelo grande preentrenado, sin modificar los parámetros del modelo original, lo que reduce significativamente el costo de entrenamiento y la necesidad de almacenamiento. Los modelos de lenguaje grandes tradicionales suelen tener decenas de miles de millones, incluso cientos de miles de millones de parámetros. Para utilizarlos en tareas específicas, es necesario realizar un ajuste. La estrategia central de LoRA es: "congelar los parámetros del modelo grande original y solo entrenar la nueva matriz de parámetros insertada", siendo eficiente en parámetros, rápido en entrenamiento y flexible en despliegue, lo que lo convierte en el método de ajuste más adecuado para el despliegue y la llamada combinada de modelos Web3.

OpenLoRA es un marco de inferencia ligero construido por OpenLedger, diseñado específicamente para el despliegue de múltiples modelos y el intercambio de recursos. Su objetivo principal es resolver problemas comunes en el despliegue de modelos de IA, como el alto costo, la baja reutilización y el desperdicio de recursos de GPU, y promover la ejecución de "IA Pagable" (Payable AI).

OpenLoRA arquitectura del sistema, componente central, basado en un diseño modular, cubriendo el almacenamiento de modelos, la ejecución de inferencias, el enrutamiento de solicitudes y otros aspectos clave, logrando una capacidad de implementación y llamada de múltiples modelos de manera eficiente y a bajo costo:

  • Módulo de almacenamiento LoRA Adapter: el adaptador LoRA afinado se aloja en OpenLedger, lo que permite la carga bajo demanda, evitando cargar todos los modelos en la memoria de video, ahorrando recursos.
  • Alojamiento de modelos y capa de fusión dinámica: todos los modelos ajustados comparten el modelo base, durante la inferencia el adaptador LoRA se fusiona dinámicamente, soportando múltiples adaptadores en inferencia conjunta, mejorando el rendimiento.
  • Motor de inferencia: integra múltiples tecnologías de optimización CUDA como Flash-Attention, Paged-Attention y SGMV.
  • Módulo de enrutamiento de solicitudes y salida en flujo: raíz
OP-5.4%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 6
  • Republicar
  • Compartir
Comentar
0/400
JustAnotherWalletvip
· hace11h
Todavía estás especulando sobre la Potencia computacional, ya ha pasado de moda.
Ver originalesResponder0
wagmi_eventuallyvip
· hace11h
Nuevas narrativas, un poco inútiles.
Ver originalesResponder0
LiquidatedDreamsvip
· hace11h
Desastroso vuelve a especular con ai
Ver originalesResponder0
AirdropGrandpavip
· hace11h
¡Todavía estás compitiendo por la potencia computacional, despierta!
Ver originalesResponder0
AirdropHunter420vip
· hace11h
La apilamiento ciego de la base ha vuelto.
Ver originalesResponder0
TokenAlchemistvip
· hace11h
hmm otro l2 intentando capturar el alfa de computación de IA... veremos cómo se escala en producción, para ser honesto
Ver originalesResponder0
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)