III Jornadas de Lógica, Computación e Inteligencia Artificial

Teoría, ciencia, investigación y aplicaciones

Sevilla, 30 de Noviembre y 1,2 de Diciembre de 2010

Universidad de Sevilla

 

El Máster de Lógica, Computación e Inteligencia Artificial ( del que forma parte el programa de doctorado con el mismo nombre, con mención de calidad otorgada por la ANECA, referencia 2007-00137), es impartido por el Departamento de Ciencias de la Computación e Inteligencia Artificial de la Universidad de Sevilla. El Departamento organiza, con motivo de la apertura del periodo docente 2010-11 de dicho programa, las III Jornadas de Lógica, Computación e Inteligencia Artificial. En dichas jornadas se pretende ofrecer, tanto a los alumnos del citado programa como a todo aquel interesado en este campo, una visión de algunas de las líneas de investigación que se desarrollan en España. Suponen, asímismo, una continuación de las I Jornadas y de las II Jornadas.

A la hora de diseñar su contenido, hemos pretendido describir el recorrido natural de los procesos de I+D+i, desde su germen en seminarios de investigación y tesis doctorales hasta los resultados de innovación. Como en ediciones anteriores, a la hora de elegir a los ponentes hemos combinado tanto a  investigadores de reconocido prestigio como a recientes doctores que puedan trasladar a los asistentes a estas jornadas (y especialmente a los alumnos de doctorado) la experiencia académica, personal y profesional que supone la realización de una tesis doctoral.

A quién va dirigido

Las Jornadas van dirigidas a estudiantes de doctorado, profesores, e investigadores, así como a alumnos de los últimos cursos de estudios superiores científico-tecnológicos, especialmente Ingenierías, Matemáticas, Estadística y Física.

Localización

Las Jornadas tendrán lugar en Salón de grados de la E.T.S. Ingeniería Informática, sito en la Avda. Reina Mercedes s/n. 41012-SEVILLA

Inscripción

La inscripción a las Jornadas es gratuita, exceptuando la cena del Miércoles 1 de Diciembre. Si desea asistir a dicha cena, contacte con alguno de los organizadores.

Para inscribirse a las jornadas, por favor, rellene el siguiente formulario con sus datos, indicando si necesita certificado de asistencia y/o asiste a la cena.

Para más información, contacten con jborrego@us.es

Programa:

Martes 30:

  • Joaquín Borrego Díaz (coordinador del Máster): Presentación de las Jornadas
  • Jorg Flum:  Lógicas para PTime y sistemas de demostración
  • Mario de J. Pérez Jiménez. De la conjetura de Friedman a la modelización del mejillón cebra

Miércoles 1:

  • Enrique Casanovas Ruiz-Fornells: Pregeometrías e Independencia
  • Andrés Cordón Franco: Lógicas modales. Aplicaciones al estudio de protocolos de comunicación incondicionalmente seguros
  • José Antonio Alonso Jiménez: Lógica Computacional en Sevilla (30 años en una hora)

Jueves 2:

  • Antonio Paredes Moreno: En torno a la interoperabilidad semántica en la empresa
  • Ignacio Pérez-Hurtado de Mendoza: Trayectoria de una Tesis Doctoral: Herramientas de simulación para Membrane Computing
  • Francisco F. Lara Martín: Modelos de la Aritmética y complejidad computacional implícita

 

Conferenciantes Invitados.

EBE10, el valor de la evolución. Apuntes de un asistente

Cartel del EBE10

Bueno, se acabó el EBE10. Se acabaron tres días repletos de conferencias, desvirtualizaciones y contactos con conocidos. De hecho, esas tres actividades marcan la actividad de uno de los eventos sobre la Web Social más importantes a nivel europeo. Me siento un poco anonadado ante la dimensión que ha tomado el evento, la importancia de su celebración y el impacto mediático (e incluso económico) que consigue. No voy a resumir el evento; esa tarea la han realizado de manera excepcional muchos blogueros bajo el paraguas del eventoblog. Solo voy a apuntar lo que más me llamó la atención:

  • Twitter se ha convertido en una herramienta imprescindible en este tipo de eventos. EBE ha resuelto el problema de la infoxicación (la avalancha de twitts con el hashtag #EBE10 era impresionante) filtrándolos para que en la sala fuera posible leer los más interesantes usando chameleontools.
  • El control del tiempo en las conferencias ha sido modélico. Ese control permitía en cierta medida cambiar cómodamente de sala.
  • Las conferencias siguen más o menos la tradición EBE: hay de todo tipo. Esa tradición es, contrariamente a lo que podría parecer, un activo muy importante del evento. Es de las pocas reuniones donde puedes cambiar de charlas técnicas a otras puramente frikis o geeks sin ningún problema.
  • Si me pongo las gafas de profesor/investigador, me llama la atención que el discurso en la web social (en España) siga girando alrededor de las mismas cuestiones. No digo que no sean importantes, pero temas como la neutralidad de la red, el negocio de los blogs, el software libre, etc. ya han sido muy tratados. Sin embargo, temas que nos van a afectar o que van a suponer un nicho excepcional para nuevos proyectos (emprendimiento) apenas han sido tratados: linkeddata, opendata, redes sociales móviles y las mashups de transformación de conocimiento. Una excepción: la presentación de GLASS por parte de uno de sus promotores, Joaquin Ayuso. Con la misma filosofía básica de Layers, su promotor esbozó su ámbito, que parece abarcar también una suerte de Layar.
  • En mi opinión, hubo dos o tres conferencias que no han cumplido las expectativas creadas. A estas alturas de la Web Social no tienen interés las conferencias fabricadas recopilando productos de la WWW (vídeos, imágenes, portadas, etc.) porque todos tenemos esas experiencias. Lo que interesa son las conclusiones, la digestión de la información y su exposición crítica. Sobre todo, nuevos apuntes, no ideas ya conocidas.
  • Posiblemente faltaban actividades de carácter introductorio. Creo que sería necesario mantener en todos los EBE talleres de introducción sobre blogs y CMS, fundamentalemente. Por ejemplo, los amigos de Mecus podían haber trasladado algunos de sus interesantes seminarios a una sesión paralela.
  • Me ha gustado mucho la vertiente emprendedora de este EBE. Es una necesidad, en estos momentos, animar a que se emprenda y particularmente en la Web. Esta vertiente ha sido potenciada con De-Muestra.
  • Finalmente, me hago eco de una opinión unánime entre los profes que hemos asistido: La educación debe tener mayor protagonismo en EBE. Es en la confluencia entre la Web 2.0 y la educación donde nos jugamos parte del futuro. Ahí se están planteando retos (pedagógicos, sociales, políticos) que deben ser públicamente conocidos, para que la sociedad (y especialmente la comunidad que conforma la Web social) sea consciente de su importancia. Y también -algo incluso más importante- del papel que todos jugamos (directa o indirectamente) en la evolución de la la educación.

En el plano personal, he contactado con muchos conocidos y he conocido a muchos más. Tantos que si me pongo a enumerar no acabo. Eso es una prueba de que el networking funciona increíblemente bien en EBE. Estoy seguro que van a surgir nuevos proyectos muy interesantes.

Por último, felicito efusivamente a Luis Rull, José Luis Antúnez y Benito Castro por la modélica organización. Y por extensión a todos los que le ayudaron. Es impresionante cómo han manejado un evento que, en la práctica, ha doblado su tamaño.  Nos vemos en EBE11.

Trabajos fin de Máster: iniciar a la investigación y a la innovación

Estrcutura de la tesis de máster del autor del blog
El mes que viene comienza nuestro proyecto más ilusionante (como profesor, como miembro de un grupo de investigación, como miembro del departamento y como coordinador del mismo): El máster de Lógica, Computación e Inteligencia Artificial. La ilusión viene mezclada con todas las precauciones posibles, por diversas razones. La primera, que como heredero del programa de doctorado debemos mantener la calidad alcanzada en éste. Y la segunda, que la centralización administrativa del máster no me ha permitido personalizar la atención a los futuros alumnos. Creo que la orientación que éstos podían obtener de las entrevistas personales era algo muy importante.

Afrontamos como departamento un reto importante con este máster, en muchas facetas. En estos momentos la que más me preocupa es la de los trabajos fin de máster. Nuestro máster es de orientación investigadora, y se diferencia de otros en el peso de este módulo (12 créditos ECTS frente a los tradicionales 6). Esto nos obliga a una cuidadosa selección y tutorización de tales trabajos, para mantener la calidad de nuestro anterior periodo de investigación. Y de ahí llega la duda: ¿Qué orientación general le debemos imprimir a esos trabajos?

La respuesta obvia sería: la misma que a los trabajos del periodo de investigación. Pero habría que matizarla. Y ese matiz proviene de la nueva dimensión de los estudios. En mi caso, he decidido -siempre que sea posible- que el trabajo adquiera característidas de I+D+i, es decir, que proyecten innovación. Por experiencia sé que es posible hacer I+i y después “+D”, y eso voy a proponer a los alumnos que deseen trabajar con nuestro grupo. Y, si puede ser, conseguir que sea raíz de emprendimiento.

Ya tenemos aquí el CLA 2010

Banner del congresoHoy comienza el Congreso CLA 2010 que organizamos el grupo de Lógica Computacional de la Universidad de Sevilla. Serán cuatro días intensos de presentación de trabajos sobre Análisis Formal de Conceptos (AFC), fundamentalmente, y sus múltiples aplicaciones. El programa de actividades se puede consultar aquí. Como he comentado en otras entradas de este blog, en nuestro grupo hemos utilizado el AFC para:

  1. Gestionar el conocimiento generado en una red social móvil.
  2. Hemos verificado la teoría básica de AFC en PVS.
  3. Hemos extendido los métodos de exploración de atributos para trabajar con conceptos parciales e inducir definiciones de nuevos atributos.
  4. Lo hemos utilizado en un sistema para pronosticar quinielas, con el que estamos experimentando y los resultados son prometedores.

Esperamos que la organización de este congreso internacional suponga un fortalecimiento de esta línea de investigación en nuestro grupo.

Twitter (y otras redes sociales) como recurso para predecir el futuro

Texto que sale en la secuencia inicial de Matrix en el pc de Neo

En estos días han llegado a los medios cuatro proyectos/resultados que suenan a Ciencia Ficción:

  • Nell, un sistema que está contínuamente  aprendiendo del contenido que lee de la Web.
  • Recorded Future empresa que hace análisis temporal y que se vende como que predice el futuro. En ésta han invertido empresas serias como Google, la CIA y Yahoo!
  • Uso de twitter para predecir y estimar epidemias de gripe. Aron Culotta y dos estudiantes analizaron 500 millones de tuits entre Agosto de 2009 y Mayo de 2010 y consiguieron aproximar la evolución de la gripe mejor y antes que el tradicional método de recolectar la información de los hospitales.
  • Uso de twitter para predecir el éxito de un película. Investigadores de HP labs demuestran que monitorizando twitter pueden predecir si un film va a ser un éxito de taquilla o no.

Lo interesante de los cuatro proyectos es que aplican minería de datos y análisis temporal a datos provenientes de redes sociales o de toda la WWW. Es decir, somo nosotros los que proporcionamos los datos, y se interpretan adecuadamente, se produce cierta singularidad (no la singularidad de Vernon Vinge, que es de carácter global).En el caso concreto de twitter, existen multitud de aplicaciones que facilitan el análisis del flujo de las actividades de microblogging de sus usuarios.
La idea de explotar esos datos (muchos accesibles mediante simples APIs) es antigua. La novedad es que la fiabilidad de los datos no se pone en entredicho, la confianza en éstos se basa en la gran cantidad de datos disponibles que hace difícil que comportamientos virales desvirtúen los comportamientos globales. La cuestión importante que me plantean estos ejemplos es porqué no hace algo parecido en España. Modestamente, un alumno y yo hemos diseñado un sistema para acertar las quinielas en base a datos públicos que se pueden encontrar en la red, y ya ha acertado una de 11. Y eso sin profundizar y refinar el proceso de análisis y refinamiento del razonamiento que hacemos con los datos. Pero me refiero a un proyecto que se convierta en empresa, que obtenga resultados y atraiga la inversión. Vale que aquí no somos tan atrevidos, pero tenemos los datos, tenemos las herramientas, la ciencia que está detrás. Entonces… ¿falta emprendimiento?

El ejemplo más parecido que conozco a los cuatro que mencionamos es el proyecto Sonar de Indra, que intenta predecir el mercado bursátil, pero su base es semántica y es un prototipo. Y no es un proyecto emprendedor. Finalmente, la aparición del linked data como herramienta de semantización débil proporciona una capa intermedia entre los datos y la Web Semántica factible de ser procesada de manera más fina de lo que se hace en los ejemplos anteriores, lo que es una oportunidad para lanzar proyectos innovadores en ese área.

Diseñando interfaces para conocimiento complejo

Poster sobre el diseño minimal

De las dimensiones más importantes que asociamos al conocimiento, la complejidad (en el amplio sentido) es quizás la más estudiada, pues tiene referentes matemáticos claros. Por ejemplo, las lógicas descriptivas están categorizadas tanto en función de su complejidad sintáctica como en su complejidad algorítmica (incluso su indecidibilidad). Está claro que para un conocimiento no formalmente representado es difícil estimar su complejidad. También es difícil que un conocimiento generado por una red de práctica que no haya sido formalizado pueda serlo. La minería de datos permite estimar cierta estructura en éste, técnicas como el análisis formal de conceptos permiten extraer cierta estructura del conocimiento, pero difícilmente se podrá estimar su complejidad.

La opción que veo más factible es estimar la complejidad en función de la dificultad que un agente tendría para usarla de manera adecuada. Algo así como una adaptación de las teorías formales de agente para que podamos definir lo de “entender un conocimiento para poder usarlo en X”. Cuestiones que aparecen en esta aproximación que son muy interesantes, y que abren prometedoras líneas de investigación:

La última es la que realmente representaría un fundamento de los procesos de transformación y manejo del conocimiento en comunidades, empresas, etc. Ese fundamento es necesario para el diseño de interfaces que simplifiquen las actividades alrededor de ese conocimiento. Ya hemos comentado que Paella y OntoxicWiki resuelven algunas de esas actividades. Pero son, por ahora, parciales. Se necesitaría una herramienta integradora de ésas y otras herramientas que se diseñen. Para integrar se necesitaría formatos de intercambio de conocimiento que “encapsulen” más información que la que una ontología de dominio puede hacer. Las cápsulas serían tratadas con servicios de razonamiento bien especificados, extendiendo si fuese necesario WSMO.

Externalización del conocimiento en comunidades mediante tecnología wiki y ontologías

Ciclo de Nonaka y takeuchi

Ciclo de Nonaka y takeuchi
En el Fourth Metadata and Semantics Conference (MTSR 2010) presentamos el el trabajo Social Ontology Documentation for Knowledge Externalization  La idea, en el contexto del tratamiento del conocimiento en organizaciones, es ayudar a externalizar (hacer explícito y público) el conocimiento y el perfil de lo que la ontología representa para la empresa (por ejemplo, los casos de uso y las experiencias con conceptos y herramientas en biotecnología o genética). Para hacer eso, en primer lugar debemos proyectar el ciclo de Nonaka y Takeuchi de creación de conocimiento en Empresas (figura de arriba) donde el conocimiento es un activo importante (aunque usualmente intangible). La proyección contempla ciertas actividades de Ingeniería Ontológica, como se ve en la figura:

Proyección semántica del ciclo de Nonaka y Takeuchi

Para que esta proyección implique una verdadera externalización del conocimiento, se necesita una herramienta que permita semantizar lo que los usuarios aporten sobre el conocimiento. Con ese objetivo, presentamo el prototipo OntoxicWiki un plugin para Protégé que permite documentar y reportar casos de uso de ontologías en comunidades de práctica, y que permita ejecutar el ciclo:

El ciclo usando Ontoxicwiki

Ontoxicwiki presenta en formato wiki la posibilidad de documentación social de la ontología, de manera que los usuarios contribuyen en formato wiki comentando caracterísiticas de los elementos de ésta, así como describiendo los casos de uso. Sin embargo, realmente están poblando una ontología de documentación, OSMV, una extensión social de Ontology Metadata Vocabulary para contemplar la documentación mediante wiki. Lo aportado por la comunidad en la wiki se integra de manera natural en la ontología de la empresa expandida con OSMV (gracias a que OntoxicWiki es plugin de Protégé).

Finalmente, debo hacer notar que OntoxicWiki no es una wiki semántica aunque lo parezca, es otra cosa: una tecnología wiki para documentar socialmente ontologías.

Ontologías sobre seguridad: reclama tu información y comprende cómo la manejan

screenshot de Paella

Supongamos que una agencia de seguridad gubernamental decide -con buen criterio- transformar su información en conocimiento usando tecnologías de la Web Semántica. Una de las fases más importantes será el diseño y construcción de una ontología sobre su dominio. En esa ontología, conceptos como identidad o amenaza deberían estar especificados de tal forma que no supongan un peligro para nadie (ni para ciudadanos ni para el estado). Una mala especificación podría, por ejemplo, llevar a deducir incorrectamente que un ciudadano es un delincuente internacional, o que ciertas personas potencialmente peligrosas tienen acceso a bases de datos confidenciales. Este problema tiene varios niveles de tratamiento, desde la corrección de los problemas de diseño de la ontología hasta la localización de relaciones entre las clases no pretendidas.

Sin embargo, el desafío de asegurarnos que la ontología de seguridad es segura es mucho más complejo de lo que parece. Aunque muchos de los defectos que se encuentran provienen de  pensar -inconscientemente- en esquemas de bases de datos en vez de en ontologías (con el mundo abierto), la realidad es que es difícil encontrar algunas de las relaciones no deseadas. Téngase en cuenta que ciertas relaciones no deseadas no son posibles en el mundo real, pero son consistentes con la ontología, y por tanto los razonadores automáticos no son capaces de distinguirlas de las correctas. De ahí que sea dificil depurar esas anomalías. Es aquí donde entra en juego Paella.

Paella es un plugin para Protégé que ha programado Gonzalo (como parte sustancial de su tesis) que ha adaptado con éxito la interpretación mereotopológica de las relaciones conceptuales que presentamos en el Congreso Europeo de la Web Semántica de 2006. Con Paella cualquiera puede comprender las relaciones ocultas (algunas no pretendidas) entre las clases de una ontología, bajo la idea: dos conceptos están conectados si existe un modelo de la ontología donde tienen elementos comunes. Bajo esa premisa, y a golpe de ratón, el usuario puede bosquejar una solución de cualquier anomalía que detecte. Y lo que es más importante, el usuario puede entender cómo la ontología trata sus datos, su información. Es más, herramientas de este tipo permiten la comprensión de los datos que usan las administraciones. Incluso, a la adopción de estrategias de OpenData al facilitar su análisis a los no expertos en ontologías.

En el Tercer Congreso Internacional  sobre Inteligencia Computacional en Seguridad en Sistemas de Información (CISIS 10) presentaremos una trabajo (Mereotopological Analysis of Formal Concepts in Security Ontologies, que aparecerá en un volumen de la serie Advances in Intelligent and Soft Computing de Springer) sobre cómo aplicar Paella a ontologías de seguridad, e ilustramos su utilidad detectando algunas anomalías en ontologías de seguridad, potencialmente peligrosas. Por ejemplo,la ilustrada en la siguiente imagen: en la ontología estudiada, una tarjeta de crédito es potencialmente una identificación válida para entrar en recintos militares:

Una anomalía