Algoritmo de Montecarlo aplicado a Búsquedas en Espacios de Estados

1 de Enero de 2018, ha tenido 347 vistas

Cuando se trata el tema de la IA aplicada a juegos normalmente se comienza hablando de los llamados Juegos con Información Perfecta (3 en raya, Conecta 4, Damas, Reversi, Ajedrez, y Go), generalmente basados en turnos, en los que todos los jugadores pueden acceder a toda la información disponible de los demás jugadores y donde no hay elementos de azar en la mecánica del juego (como podría ser el uso de dados). Aunque hay metodologías teóricas desarrolladas para generar jugadores artificiales para este tipo de juegos, como Minimax, resultan claramente insuficientes cuando la complejidad del juego es no trivial. En esta entrada analizaremos cómo se puede aplicar el algoritmo de Monte Carlo para obtener jugadores artificiales asintóticamente óptimos en una variedad de juegos que se han resistido a otro tipo de aproximaciones más clásicas.

Etiquetas utilizadas: , , ,

Leer mas »

Resolviendo Problemas de Satisfacción de Restricciones con Hormigas

20 de Noviembre de 2017, ha tenido 304 vistas

 Al igual que hemos visto metaheurísticas varias (como BFSA*, o Templado Simulado) para dar soluciones a familias de problemas siempre y cuando pudiéramos representarlos como Espacios de Estados, vamos a usar esta entrada para demostrar cómo podemos usar ACOs para resolver problemas genéricos, siempre y cuando seamos capaces de representarlos como Problemas de Satisfacción de Restricciones. En este sentido, será necesario asociar a cada PSR un grafo de forma que los caminos óptimos en el grafo se asocien a soluciones óptimas en el PSR, así como proporcionar un sistema de probabilidades asociados a las aristas salientes de los nodos para asegurar que las hormigas construyen asignaciones válidas para el PSR considerado.

Etiquetas utilizadas: , , , ,

Leer mas »

Nuevo Bloque de Cursos

29 de Octubre de 2017, ha tenido 170 vistas

 Se ha añadido un apartado de cursos completos al que puedes acceder por medio del nuevo enlace "Cursos" en el menú principal de esta página. El objetivo es ir colgando cursos enteros de forma que estén disponibles independientemente de si se corresponden o no con una asignatura reglada actualmente.

Etiquetas utilizadas: , , ,

Leer mas »

Introducción a la Lógica Difusa

16 de Octubre de 2017, ha tenido 9547 vistas

La forma en que la gente piensa es, inherentemente, difusa. La forma en que percibimos el mundo está cambiando continuamente y no siempre se puede definir en términos de sentencias verdaderas o falsas. Consideremos como ejemplo el conjunto de vasos del mundo, que pueden estar vacíos o llenos de agua. Ahora tomemos un vaso vacío y comencemos a echar agua poco a poco, ¿en qué momento decidimos que el vaso pasa de estar vacío a estar lleno?

Etiquetas utilizadas: , , ,

Leer mas »

Introducción a Prover9 y Mace4

26 de Septiembre de 2017, ha tenido 151 vistas

Prover9 es un Demostrador Automático de Teoremas para Lógicas de Primer Orden (también se puede utilizar con Lógica Proposicional) y Mace4 busca modelos finitos y contraejemplos. Los dos programas se pueden usar por medio de un interfaz gráfico unificado, para aprovechar el uso conjunto que se suele hacer de ambas herramientas en la resolución de problemas. Tanto Prover9 como su antecesor, Otter, y Mace4 fueron creados por William McCune.

Etiquetas utilizadas: , ,

Leer mas »

ALGUNAS ENTRADAS ANTERIORES ... AL AZAR

Aprendizaje por refuerzo: algoritmo Q Learning

23 de Julio de 2015, 1965 vistas

En entradas anteriores destacábamos dos tipos principales de aprendizaje automático: por una parte, el Aprendizaje Supervisado, y por otra el Aprendizaje no Supervisado. Sin embargo, junto a estos dos grandes tipos de aprendizaje, suele considerarse un tercer tipo que es conocido como Aprendizaje por Refuerzo, en el que el algoritmo de aprondizaje recibe algún tipo de valoración acerca de la idoneidad de la respuesta dada. Hay varias formas de implementar estos procesos de aprendizaje. En esta entrada nos centraremos en lo que se conoce como Q learning, una forma de aprendizaje por refuerzo en la que el agente aprende a asignar valores de bondad a los pares (estado, acción).

Etiquetas utilizadas: , , , , ,

Classical elements in NetLogo: Water

23 de Mayo de 2016, 543 vistas

After Earth, and to continue with the simulation of Classical Elements in NetLogo, in this post we will give some simple, but very graphical and good looking, models to simulate the behaviour of water.

In this post we will simplify so much the assumptions that the model we will obtain only will be useful to simulate liquids under some conditions, but not gasses. You can find very realistic and nice simulation of different fluids behaviours under several and more general assumptions, but here we will give only a fast and simple way to obtain a behaviour that we visually recognize as a liquid.

Etiquetas utilizadas: , , , , ,