Loading...

Theta EdgeCloud: de la academia de investigación a la infraestructura informática de IA más avanzada

El CTO de Theta Labs, Jieyi Long, y el equipo de ingeniería de Theta comenzaron a investigar la IA, los sistemas distribuidos y el aprendizaje automático aplicado a blockchain a principios de 2022 cuando invitamos a Zhen Xiao, profesor de Ciencias de la Computación en la Universidad de Pekín, a unirse a Theta como asesor académico . El profesor Xiao ha publicado docenas de artículos de investigación en diversas disciplinas de la IA durante los últimos 20 años después de recibir su doctorado. en Ciencias de la Computación de la Universidad de Cornell y sus estudios universitarios en la Universidad de Pekín.

Programación optimizada de tareas informáticas de IA en la capa de virtualización de EdgeCloud

Jieyi fue coautora de un artículo de investigación con el equipo del profesor Xiao titulado "Un programador de agente dual para trabajos de aprendizaje profundo distribuido en la nube pública mediante aprendizaje reforzado" , publicado en agosto de 2023 en ACM KDD'23, que es una de las conferencias internacionales más prestigiosas. sobre el descubrimiento de conocimientos y la minería de datos. El aprendizaje y la experiencia de la investigación se han abierto camino en la implementación de la capa de virtualización Theta EdgeCloud y, en particular, en torno a cómo se optimizan los algoritmos de programación de tareas informáticas de IA en un entorno distribuido.
En resumen, el artículo técnico describe cómo los sistemas de computación en la nube utilizan potentes unidades de procesamiento de gráficos (GPU) para entrenar modelos complejos de inteligencia artificial. Para gestionar eficientemente estos sistemas, la programación del trabajo es crucial. Esto implica decidir el orden en que se realizan las tareas y cuándo y dónde se ejecutan en las GPU disponibles, lo que resulta especialmente complicado cuando estas GPU están altamente distribuidas a nivel mundial. Los métodos tradicionales luchan con esta compleja tarea, pero los nuevos enfoques descritos en el artículo que utilizan el aprendizaje automático de IA son prometedores.

Los métodos tradicionales basados en reglas y heurísticas a menudo solo se centran en un aspecto de la programación y no consideran cómo funcionan juntas las tareas y las GPU. Por ejemplo, no tienen en cuenta las diferencias en el rendimiento de la GPU ni la competencia por los recursos, lo que puede afectar el tiempo que tardan en completarse las tareas.




Árbol del pensamiento: un nuevo enfoque para resolver problemas de razonamiento complejos mediante LLM impulsados por EdgeCloud
En mayo de 2023, Jieyi fue autor de un innovador artículo de investigación titulado "Árbol de pensamiento guiado por modelo de lenguaje grande (ToT)" y su preimpresión está disponible aquí . Los conocimientos y el enfoque descritos en este artículo por Jieyi podrían tener implicaciones fundamentales para mejorar la capacidad de razonamiento de los modelos de lenguajes grandes (LLM) para resolver problemas complejos. La técnica del Árbol del Pensamiento (ToT) está inspirada en el enfoque de la mente humana para resolver tareas complejas de razonamiento mediante prueba y error y mediante un proceso de pensamiento similar a un árbol, lo que permite retroceder cuando sea necesario. Esta percepción e inspiración da lugar a la posibilidad de reflejar la mente humana en tareas complejas de resolución de problemas mediante grandes modelos de lenguaje.

Desde el lanzamiento de la preimpresión, el concepto del árbol del pensamiento ha ganado un amplio reconocimiento entre la comunidad LLM. El documento ya ha sido citado en docenas de artículos de investigación , así como en varias publicaciones técnicas, incluido este artículo de Forbes . Por otra parte, LangChain, una biblioteca de modelos de lenguaje de código abierto muy popular, acaba de implementar oficialmente ToT basándose en el artículo de Jieyi (consulte aquí para obtener más detalles). Casualmente, apenas dos días después de que Jieyi subiera su preimpresión, un equipo de investigación de la Universidad de Princeton y Google DeepMind publicaron otro artículo ampliamente citado sobre el ?Árbol de los pensamientos? con ideas muy similares. El concepto ToT ha inspirado una línea de trabajo influyente para mejorar las capacidades de razonamiento del LLM, incluido el gráfico de pensamientos, el algoritmo de pensamientos, etc. En un discurso de apertura en Microsoft Build 2023, Andrej Karpathy de OpenAI comentó que el enfoque ToT permite al LLM explorar diferentes caminos de razonamiento y potencialmente corregir sus errores o evitar callejones sin salida en su proceso de razonamiento, que es similar a cómo el algoritmo AlphaGo utiliza Monte Carlo Tree Search para explorar múltiples movimientos posibles en el juego de Go antes de seleccionar el mejor.


Para permitir que el sistema ToT desarrolle nuevas estrategias de resolución de problemas que no se encuentran en sus datos de entrenamiento, podemos adoptar potencialmente la técnica de "autojuego", inspirada en agentes de IA que juegan como AlphaGo. A diferencia del aprendizaje autosupervisado tradicional, el aprendizaje por refuerzo mediante juego autónomo permite una exploración más amplia del espacio de soluciones, lo que potencialmente conduce a mejoras significativas. Al introducir un módulo "cuestionario" para generar descripciones de problemas para el entrenamiento, similar al juego de AlphaGo, el marco ToT puede expandir sus capacidades de resolución de problemas más allá de los ejemplos en sus datos de entrenamiento.

Para verificar la efectividad de la técnica propuesta, implementamos un solucionador basado en ToT para el Sudoku. Los resultados experimentales muestran que el marco ToT puede aumentar significativamente la tasa de éxito en la resolución de sudokus. Nuestra implementación del solucionador de Sudoku basado en ToT está disponible en GitHub .

Este trabajo tiene implicaciones importantes para Theta, que deben ser vistos como líderes de opinión en la industria de la IA y, lo que es más importante, como pioneros de la infraestructura informática de IA descentralizada de nube híbrida más grande. Esto permitirá que EdgeCloud admita LLM de próxima generación y otros sistemas de inteligencia artificial, como agentes autónomos impulsados ??por LLM . Un agente de este tipo normalmente requiere ejecutar múltiples modelos de aprendizaje profundo orquestados por un LLM mejorado con ToT que actúa como el "cerebro" del agente. Todos estos modelos, incluido el LLM mejorado con ToT, pueden ejecutarse potencialmente dentro de EdgeCloud, ampliando las capacidades de Theta EdgeCloud para admitir sistemas de inteligencia artificial con una complejidad cada vez mayor.

EdgeCloud Future: un mercado de datos descentralizado para entrenar modelos de IA
Por último, Jieyi y su equipo colaboraron con Ali Farahanchi, el principal inversor de capital de Theta, e investigadores de la USC, Texas A&M y FedML para ser coautores del ?Diseño basado en prueba de contribución para el aprendizaje automático colaborativo en Blockchain ?, publicado en IEEE 2023. Conferencia internacional sobre infraestructura y aplicaciones descentralizadas, con el documento completo disponible aquí . Esta investigación sienta las bases para trabajos futuros en Theta EdgeCloud con la oportunidad de implementar un mercado de datos descentralizado para entrenar modelos de IA. Este novedoso enfoque garantiza que los contribuyentes de datos reciban una compensación justa con recompensas criptográficas, que los datos de entrenamiento sigan siendo completamente privados, que el sistema esté diseñado para resistir partes maliciosas y que se verifique la contribución y la calidad de los datos mediante pruebas de conocimiento cero (ZK).

Este artículo se puede resumir con el siguiente escenario. Imagine que necesita crear un nuevo modelo de IA y necesita datos y potencia informática para entrenarlo. En lugar de recopilar todos los datos usted mismo, desea colaborar con otras personas que tengan datos que aportar. Pero también desea asegurarse de que todos reciban una compensación justa y mantener la privacidad de los datos. El sistema debe protegerse contra cualquier intento furtivo de sabotear el modelo, garantizar que todos los cálculos sean precisos y funcionen de manera eficiente para todos los involucrados. Para lograr esto, el documento propone un mercado de datos basado en la tecnología blockchain y un fácil acceso a un mercado de GPU que se adapta a las necesidades de un desarrollador de IA. Así es como funciona:

Compensación justa: los capacitadores son recompensados ??con criptomonedas en función de sus contribuciones al entrenamiento del modelo. Esto garantiza que todos reciban un pago justo por sus aportaciones.

Protección de la privacidad: No es necesario mover los datos, preservando su privacidad. Los formadores pueden mantener sus datos seguros y al mismo tiempo contribuir al modelo.

Seguridad contra comportamientos maliciosos: el sistema está diseñado para resistir los intentos de partes malintencionadas de alterar o corromper el modelo durante el entrenamiento.

Verificación: todos los cálculos del mercado, incluida la evaluación de contribuciones y la detección de valores atípicos, se pueden verificar mediante pruebas de conocimiento cero. Esto asegura la integridad del proceso.

Eficiencia y universalidad: el mercado está diseñado para ser eficiente y adaptable a diferentes proyectos y participantes.

En este sistema, un mercado basado en blockchain coordina todo. Hay un nodo de procesamiento especial llamado agregador que maneja tareas como evaluar contribuciones, filtrar datos incorrectos y ajustar la configuración del modelo. Los contratos inteligentes en blockchain garantizan que todos sigan las reglas y que los contribuyentes honestos obtengan su parte justa de las recompensas. Los investigadores probaron e implementaron los componentes de este sistema y demostraron cómo se puede utilizar de manera efectiva en situaciones del mundo real a través de varios experimentos.

En resumen, Jieyi y todo el equipo de ingeniería de Theta realmente valoran la investigación académica, la experiencia y cómo beneficia directamente a la plataforma y los productos Theta EdgeCloud. Es emocionante ver cómo algunos conceptos de investigación, como el programador de trabajos de IA, se están incorporando rápidamente en la primera versión de EdgeCloud el 1 de mayo, mientras que otros tienen implicaciones a más largo plazo, como la posibilidad de crear agentes LLM autónomos impulsados por ToT y una IA descentralizada. Mercado de datos para entrenar modelos de IA. Mientras tanto, Theta se compromete a convertirse en un líder intelectual en la industria de la IA compartiendo investigaciones y lanzando componentes básicos de IA con la comunidad en general, comenzando con la profunda investigación de Jieyi sobre los algoritmos del Árbol del Pensamiento.

Web no oficial de Theta Network creada para informar sobre el proyecto, las noticias y las implementaciones que se van desarrollando.

Theta Network es una red descentralizada de alta velocidad y potencia sobre la que se desplegan multitud de servicios como video de alta calidad y sin tiempo de espera, metaversos y aplicaciones de alto flujo de datos y de transacciones, con alta capacidad de escalado y con objetivo a medio plazo de llegar al millón de transacciones por segundo.

Theta Network será la base del nuevo internet (WEB3.0), un proyecto que revolucionará el mundo del entretenimiento y las velocidades de transmisión de video escalándolas desde 4K/8K/16K VR, con una meta final en Lightfield, una realidad virtual asombrosa que será prácticamente imposible diferenciar de la vida real, como verdadero epicentro para obviar las esperas en la carga de contenidos audiovisuales sin conexión WIFI.