¿Qué es Solomonoff inducción?

  Ciencia ,

es matemáticamente rigurosa, la forma idealizada de la inducción, es decir, predecir lo que sucederá en el futuro sobre la base de experiencias anteriores. Es una parte de la teoría algorítmica de la información. Este régimen de inducción es teóricamente óptimo, es decir, teniendo en cuenta los datos suficientes, siempre será capaz de asignar probabilidades a los eventos futuros con la máxima precisión posible permitido. El único problema con la inducción de Solomonoff es que es incalculable, es decir, se requeriría un ordenador con capacidad de procesamiento infinita para correr. Sin embargo, todos los regímenes de éxito inductivo y máquinas-incluidos los animales y los seres humanos-son aproximaciones de la .

Todos los argumentos verbales que contiene consejos para mejorar la inducción, en la medida en que realmente funciona, obras de persuadir al oyente a modificar su estrategia inductiva de tal manera que mejor se aproxima a la inducción Solomonoff. La idea de que la inducción puede ser matemáticamente formalizado de esta manera es muy profundo, y de muchas generaciones de lógicos y filósofos dijo que no podía hacer. Inducción Solomonoff surgió del trabajo de Ray Solomonoff, Andrey Kolmolgorov, y Gregory Chaitin en la década de 1960. Su motivación subyacente era de formalizar la teoría de la probabilidad y la inducción con los axiomas, de la misma manera que el álgebra y la geometría se han formalizado. Inducción Solomonoff se basa en una regla inductiva llamado teorema de Bayes, que describe una forma matemática precisa para actualizar las creencias sobre la base de datos entrantes.

Una debilidad en el teorema de Bayes es que depende de la probabilidad a priori de una determinado evento. Por ejemplo, la probabilidad de que un asteroide que impactó la Tierra en los próximos 10 años se puede dar sobre la base de datos históricos sobre los impactos de asteroides. Sin embargo, cuando el tamaño de la muestra de los acontecimientos previos son escasos, tales como el número de veces que un neutrino ha sido detectado en una trampa de neutrinos, se hace muy difícil predecir la probabilidad de que el evento ocurra de nuevo basado únicamente en la experiencia pasada.

Aquí es donde entra en juego la inducción Solomonoff uso de una medida objetiva de la complejidad llamado complejidad de Kolmogorov, la inducción Solomonoff puede hacer una conjetura sobre la probabilidad de un suceso futuro que ocurren. Complejidad de Kolmogorov se basa en el principio denominado Descripción Longitud mínima (MDL), que evalúa la complejidad de una cadena de bits basado en el algoritmo más corto que puede dar salida a esa cadena. Aunque la complejidad de Kolmogorov aplicado inicialmente a bitstrings sólo, puede ser traducido para describir la complejidad de los hechos y objetos.

inducción Solomonoff integra la complejidad de Kolmogorov en el razonamiento bayesiano, lo que nos priores justificada por eventos que nunca podría haber ocurrido . La probabilidad a priori de un evento se considera arbitraria basada en su complejidad y especificidad global. Por ejemplo, la probabilidad de que dos gotas de agua al azar en una tormenta golpear el mismo metro cuadrado es bastante bajo, pero mucho mayor que la probabilidad de diez o cien gotas de lluvia golpeando al azar que el metro cuadrado.

Algunos los científicos han estudiado la inducción Solomonoff en el contexto de la neuroanatomía, mostrando cómo la inducción óptima es un principio de organización en la evolución de los animales que necesitan la inducción precisa para la supervivencia. Cuando la verdadera inteligencia artificial se crea, los principios de la inducción Solomonoff será una inspiración probable que se basa la construcción.

Deja un comentario