Intercambio de bitcoins Intercambio de bitcoins
Ctrl+D Intercambio de bitcoins
ads
Casa > Bitcoin > Info

El desafío del sobreajuste en el análisis de cadenas de bloques

Author:

Time:

Los modelos de aprendizaje automático tienden a sobreajustarse cuando se usan con conjuntos de datos de blockchain. ¿Qué es el overfitting y cómo solucionarlo?

A primera vista, la idea de usar el aprendizaje automático para analizar conjuntos de datos de blockchain suena muy atractiva, pero es un camino desafiante. Entre estos desafíos, la falta de conjuntos de datos etiquetados sigue siendo el mayor desafío a superar al aplicar métodos de aprendizaje automático a conjuntos de datos de blockchain. Estas limitaciones hacen que muchos modelos de aprendizaje automático operen con muestras de datos muy pequeñas para entrenar y optimizar en exceso esos modelos que causan el fenómeno de sobreajuste. Hoy, quiero profundizar en el desafío del sobreajuste en el análisis de blockchain y sugerir algunas soluciones.

El sobreajuste se considera uno de los mayores desafíos en las aplicaciones modernas de aprendizaje profundo. Conceptualmente, el sobreajuste ocurre cuando un modelo genera hipótesis que se adaptan demasiado bien a las de un conjunto de datos en particular para adaptarse a nuevos conjuntos de datos. Una analogía útil para comprender el sobreajuste es pensar en él como una ilusión en el modelo. Esencialmente, el modelo alucina/sobreajusta cuando infiere suposiciones incorrectas del conjunto de datos. Se ha escrito mucho sobre el sobreajuste desde los primeros días del aprendizaje automático, por lo que no creo que haya una forma inteligente de explicarlo. Para los conjuntos de datos de blockchain, el sobreajuste es un resultado directo de la falta de datos etiquetados.

Las cadenas de bloques son grandes estructuras de datos semianónimas en las que todo se representa mediante un conjunto común de construcciones, como transacciones, direcciones y bloques. Desde este punto de vista, hay información mínima para probar el registro de blockchain. ¿Es una transacción de transferencia o de pago? ¿Es esta la dirección de una billetera de inversionista personal o una billetera fría de intercambio? Estos calificadores son cruciales para los modelos de aprendizaje automático.

Imagine que estamos creando un modelo para detectar direcciones de intercambio en un conjunto de cadenas de bloques. Este proceso requiere que entrenemos el modelo utilizando un conjunto de datos existente de direcciones de blockchain, que todos sabemos que no es muy común. Si usamos un pequeño conjunto de datos de EtherScan u otras fuentes, el modelo podría sobreajustarse y hacer clasificaciones incorrectas.

Uno de los aspectos que hace que el sobreajuste sea tan desafiante es que es difícil generalizar a través de diferentes técnicas de aprendizaje profundo. Las redes neuronales convolucionales tienden a desarrollar patrones de sobreajuste que son diferentes de los observados para las redes neuronales recurrentes que los modelos generativos, y este patrón puede extrapolarse a cualquier tipo de modelo de aprendizaje profundo. Irónicamente, la tendencia al sobreajuste aumenta linealmente con el poder computacional de los modelos de aprendizaje profundo. Dado que los agentes de aprendizaje profundo pueden generar hipótesis complejas casi gratis, la posibilidad de sobreajuste aumenta.

El número actual de transacciones no confirmadas en toda la red Bitcoin es 3205: el 5 de diciembre, según datos de BTC.com, el número actual de transacciones no confirmadas en toda la red Bitcoin es 3205 y la potencia informática de toda la red es 163,91 EH/s, 24 horas La tasa de transacción es de 3,17 transacciones/segundo y la dificultad actual de toda la red es de 22,34 T. Se predice que la dificultad se reducirá en un 0,03 % a 22,34 T la próxima vez, y quedan 7 días y quedan 5 horas antes del ajuste. [2021/12/5 12:51:38]

El sobreajuste es un desafío constante en los modelos de aprendizaje automático, pero cuando se trabaja con conjuntos de datos de blockchain, es casi un hecho. La respuesta obvia al sobreajuste es usar un conjunto de datos de entrenamiento más grande, pero esta no siempre es una opción. En IntoTheBlock, a menudo nos enfrentamos al desafío del sobreajuste y confiamos en una serie de métodos básicos para resolver el problema.

Tres estrategias simples para combatir el sobreajuste en conjuntos de datos de blockchain

La primera regla general contra el sobreajuste es reconocerlo. Si bien no existe una bala de plata para evitar el sobreajuste, la experiencia práctica ha demostrado que algunas reglas simples, casi de sentido común, pueden ayudar a prevenir este fenómeno en las aplicaciones de aprendizaje profundo. Para evitar el sobreajuste, se han publicado decenas de mejores prácticas, que contienen tres conceptos básicos.

Proporción de datos/supuestos

El sobreajuste generalmente ocurre cuando un modelo genera demasiadas hipótesis sin los datos correspondientes para probarlas. Por lo tanto, las aplicaciones de aprendizaje profundo deben tratar de mantener una proporción adecuada entre el conjunto de datos de prueba y la hipótesis que debe evaluarse. Sin embargo, esto no siempre es una opción.

Hay muchos algoritmos de aprendizaje profundo (como el aprendizaje inductivo) que se basan en la generación continua de hipótesis nuevas, a veces más complejas. En estos casos, existen algunas técnicas estadísticas que pueden ayudar a estimar el número de hipótesis correctas para optimizar las posibilidades de encontrar una que se acerque a la correcta. Aunque este método no puede proporcionar una respuesta exacta, puede ayudar a mantener una relación estadísticamente equilibrada entre el número de hipótesis y la composición del conjunto de datos. El profesor de Harvard Leslie Valiant explica brillantemente este concepto en su libro "Probably Right".

La relación datos/hipótesis es muy evidente cuando se realiza un análisis de blockchain. Supongamos que estamos construyendo un algoritmo predictivo basado en un año de transacciones de blockchain. Debido a que no estábamos seguros de qué modelo de aprendizaje automático probar, utilizamos un enfoque de búsqueda de arquitectura neuronal (NAS) que probó cientos de modelos contra un conjunto de datos de blockchain. Suponiendo que el conjunto de datos contiene solo un año de transacciones, el enfoque NAS puede producir un modelo que se ajuste perfectamente al conjunto de datos de entrenamiento.

Admite suposiciones simples

Una idea conceptualmente trivial pero técnicamente difícil para evitar que los modelos de aprendizaje profundo se ajusten en exceso es generar continuamente hipótesis más simples. ¡seguramente! Lo simple siempre es mejor, ¿no es así? Pero, ¿cuál es una suposición más simple en el contexto de los algoritmos de aprendizaje profundo? Si necesitamos reducir esto a un factor cuantitativo, diría que la cantidad de atributos en una hipótesis de aprendizaje profundo es directamente proporcional a su complejidad.

Las hipótesis simples suelen ser más fáciles de evaluar que otras hipótesis con fuertes propiedades computacionales y cognitivas. Por lo tanto, los modelos más simples generalmente son menos propensos al sobreajuste que los modelos complejos. Ahora, la siguiente pieza obvia del rompecabezas es descubrir cómo generar hipótesis más simples en modelos de aprendizaje profundo. Una técnica menos obvia es adjuntar algún tipo de penalización al algoritmo en función de la complejidad estimada. El mecanismo tiende a favorecer suposiciones más simples y aproximadamente precisas sobre suposiciones más complejas (ya veces más precisas) que pueden colapsar cuando se dispone de nuevos conjuntos de datos.

Para explicar esta idea en el contexto del análisis de la cadena de bloques, imaginemos que estamos construyendo un modelo para clasificar las transacciones de pago en una cadena de bloques. El modelo utiliza una red neuronal profunda compleja que genera 1000 características para realizar la clasificación. Si se aplica a una cadena de bloques más pequeña como Dash o Litecoin, lo más probable es que el modelo se sobreajuste.

Balance de sesgo/varianza

El sesgo y la varianza son dos estimadores clave en los modelos de aprendizaje profundo. Conceptualmente, el sesgo es la diferencia entre la predicción promedio del modelo y el valor correcto que estamos tratando de predecir. Un modelo con alto sesgo presta poca atención a los datos de entrenamiento, lo que simplifica el modelo. Siempre da como resultado una alta tasa de error tanto en los datos de entrenamiento como de prueba. Alternativamente, la varianza se refiere a la variabilidad de las predicciones del modelo para un punto de datos dado o un valor que nos informa sobre la distribución de los datos. Un modelo con una varianza alta pone mucha atención en los datos de entrenamiento y no logra generalizar a datos que nunca antes había visto. Como resultado, dichos modelos funcionan bien con los datos de entrenamiento, pero tienen altas tasas de error con los datos de prueba.

¿Cómo se relacionan el sesgo y la varianza con el sobreajuste? En términos súper simples, el arte de la generalización se puede generalizar reduciendo el sesgo de un modelo sin aumentar su varianza. Una buena práctica en el aprendizaje profundo es modelarlo para comparar periódicamente las hipótesis resultantes con un conjunto de datos de prueba y evaluar los resultados. Si la hipótesis continúa arrojando el mismo error, tenemos un gran problema de sesgo y necesitamos ajustar o reemplazar el algoritmo. Por el contrario, si no hay un patrón claro de errores, el problema es una discrepancia y necesitamos más datos.

En resumen

• Cualquier modelo de baja complejidad: propenso a fallar debido al alto sesgo y la baja varianza.

• Cualquier modelo de alta complejidad (red neuronal profunda): propenso al sobreajuste debido al bajo sesgo y la alta varianza.

En el contexto del análisis de la cadena de bloques, la fricción entre la variación y el sesgo está en todas partes. Volvamos a nuestro algoritmo, que intenta predecir el precio utilizando muchos factores de blockchain. Si usáramos métodos de regresión lineal simple, el modelo podría no ser apropiado. Sin embargo, si usamos una red neuronal ultracompleja con un conjunto de datos pequeño, el modelo puede sobreajustarse.

El uso del aprendizaje automático para analizar los datos de la cadena de bloques es un espacio incipiente. Como resultado, la mayoría de los modelos sufren los desafíos tradicionales en las aplicaciones de aprendizaje automático. Fundamentalmente, el sobreajuste es uno de los desafíos omnipresentes en el análisis de cadenas de bloques debido a la falta de datos etiquetados y modelos bien entrenados

Tags:

Bitcoin
Observación Dorada丨¿Cuál es el estado actual de la red de monedas partidas a la mitad?

En 2020, el primer evento importante de la cadena de bloques es la reducción a la mitad de Bitcoin. Las personas en la industria esperan con ansias el crecimiento exponencial de las pocas reducciones a la mitad anteri.

SEC de EE.UU.: los tokens Gram de Telegram valen menos que las donas

La Comisión de Bolsa y Valores de EE. UU. (SEC, por sus siglas en inglés) presentó un memorando ante el Distrito Sur de Nueva York.

Cómo invertir en "intercambios descentralizados" | Series de divisas convencionales (6)

En las conferencias anteriores, les hablé sobre la inversión en las monedas principales. En esta conferencia.

El desafío del sobreajuste en el análisis de cadenas de bloques

Los modelos de aprendizaje automático tienden a sobreajustarse cuando se usan con conjuntos de datos de blockchain. ¿Qué es el overfitting y cómo solucionarlo?A primera vista.

Cinco lecturas obligadas por la noche 丨 ¿Sabes? Las cinco bendiciones de este año en su colección de Alipay han utilizado la tecnología blockchain

1. La primera aplicación de blockchain para recolectar cinco bendiciones: ¿cuál es la experiencia de compartir "bendiciones" en la cadena?Este año.

Ant Blockchain lanzó el "Double Chain Link" y se lanzó oficialmente el primer producto para conectar las cuentas por cobrar y el pago

En la era actual, las micro, pequeñas y medianas empresas desempeñan un papel insustituible en el aumento del empleo, la promoción del crecimiento económico y la innovación tecnológica. Sin embargo.

Un artículo para entender cómo ZK-Rollup expande la cadena de bloques.

Nota del editor: este artículo son las diapositivas del director técnico de iden3, Jordi Baylina.

ads