Externalización del conocimiento en comunidades mediante tecnología wiki y ontologías

Ciclo de Nonaka y takeuchi

Ciclo de Nonaka y takeuchi
En el Fourth Metadata and Semantics Conference (MTSR 2010) presentamos el el trabajo Social Ontology Documentation for Knowledge Externalization  La idea, en el contexto del tratamiento del conocimiento en organizaciones, es ayudar a externalizar (hacer explícito y público) el conocimiento y el perfil de lo que la ontología representa para la empresa (por ejemplo, los casos de uso y las experiencias con conceptos y herramientas en biotecnología o genética). Para hacer eso, en primer lugar debemos proyectar el ciclo de Nonaka y Takeuchi de creación de conocimiento en Empresas (figura de arriba) donde el conocimiento es un activo importante (aunque usualmente intangible). La proyección contempla ciertas actividades de Ingeniería Ontológica, como se ve en la figura:

Proyección semántica del ciclo de Nonaka y Takeuchi

Para que esta proyección implique una verdadera externalización del conocimiento, se necesita una herramienta que permita semantizar lo que los usuarios aporten sobre el conocimiento. Con ese objetivo, presentamo el prototipo OntoxicWiki un plugin para Protégé que permite documentar y reportar casos de uso de ontologías en comunidades de práctica, y que permita ejecutar el ciclo:

El ciclo usando Ontoxicwiki

Ontoxicwiki presenta en formato wiki la posibilidad de documentación social de la ontología, de manera que los usuarios contribuyen en formato wiki comentando caracterísiticas de los elementos de ésta, así como describiendo los casos de uso. Sin embargo, realmente están poblando una ontología de documentación, OSMV, una extensión social de Ontology Metadata Vocabulary para contemplar la documentación mediante wiki. Lo aportado por la comunidad en la wiki se integra de manera natural en la ontología de la empresa expandida con OSMV (gracias a que OntoxicWiki es plugin de Protégé).

Finalmente, debo hacer notar que OntoxicWiki no es una wiki semántica aunque lo parezca, es otra cosa: una tecnología wiki para documentar socialmente ontologías.

Ontologías sobre seguridad: reclama tu información y comprende cómo la manejan

screenshot de Paella

Supongamos que una agencia de seguridad gubernamental decide -con buen criterio- transformar su información en conocimiento usando tecnologías de la Web Semántica. Una de las fases más importantes será el diseño y construcción de una ontología sobre su dominio. En esa ontología, conceptos como identidad o amenaza deberían estar especificados de tal forma que no supongan un peligro para nadie (ni para ciudadanos ni para el estado). Una mala especificación podría, por ejemplo, llevar a deducir incorrectamente que un ciudadano es un delincuente internacional, o que ciertas personas potencialmente peligrosas tienen acceso a bases de datos confidenciales. Este problema tiene varios niveles de tratamiento, desde la corrección de los problemas de diseño de la ontología hasta la localización de relaciones entre las clases no pretendidas.

Sin embargo, el desafío de asegurarnos que la ontología de seguridad es segura es mucho más complejo de lo que parece. Aunque muchos de los defectos que se encuentran provienen de  pensar -inconscientemente- en esquemas de bases de datos en vez de en ontologías (con el mundo abierto), la realidad es que es difícil encontrar algunas de las relaciones no deseadas. Téngase en cuenta que ciertas relaciones no deseadas no son posibles en el mundo real, pero son consistentes con la ontología, y por tanto los razonadores automáticos no son capaces de distinguirlas de las correctas. De ahí que sea dificil depurar esas anomalías. Es aquí donde entra en juego Paella.

Paella es un plugin para Protégé que ha programado Gonzalo (como parte sustancial de su tesis) que ha adaptado con éxito la interpretación mereotopológica de las relaciones conceptuales que presentamos en el Congreso Europeo de la Web Semántica de 2006. Con Paella cualquiera puede comprender las relaciones ocultas (algunas no pretendidas) entre las clases de una ontología, bajo la idea: dos conceptos están conectados si existe un modelo de la ontología donde tienen elementos comunes. Bajo esa premisa, y a golpe de ratón, el usuario puede bosquejar una solución de cualquier anomalía que detecte. Y lo que es más importante, el usuario puede entender cómo la ontología trata sus datos, su información. Es más, herramientas de este tipo permiten la comprensión de los datos que usan las administraciones. Incluso, a la adopción de estrategias de OpenData al facilitar su análisis a los no expertos en ontologías.

En el Tercer Congreso Internacional  sobre Inteligencia Computacional en Seguridad en Sistemas de Información (CISIS 10) presentaremos una trabajo (Mereotopological Analysis of Formal Concepts in Security Ontologies, que aparecerá en un volumen de la serie Advances in Intelligent and Soft Computing de Springer) sobre cómo aplicar Paella a ontologías de seguridad, e ilustramos su utilidad detectando algunas anomalías en ontologías de seguridad, potencialmente peligrosas. Por ejemplo,la ilustrada en la siguiente imagen: en la ontología estudiada, una tarjeta de crédito es potencialmente una identificación válida para entrar en recintos militares:

Una anomalía

Computación Urbana (Urban Informatics) y Web 2.0 semántica móvil

imagen sobre la ciudad y móviles

Nota: Esta entrada recoge un fragmento -adaptado- de un trabajo sobre Web 2.0 móvil semántica en proceso de aceptación, desarrollado conjuntamente con Gonzalo A. Aranda.

La Informática Urbana (IU) es un campo de investigación emergente, que trata sobre el uso (y generación) de información física y digital sobre la ciudad como fuente de nuevas aplicaciones que puedan ser usadas por el ciudadano, a traves de dispositivos fijos o móviles que leen esa información -datos o conocimiento- sobre lugares de la ciudad. La utilización de esos datos permite el rediseño de políticas de urbanismo y el estudio de comportamiento sociales en las urbes. La IU emerge como una línea donde la Informática, el urbanismo, el e-gobierno, (incluso el media art) son aplicables o pueden sacar partido de los resultados. Mi interés en este área de investigación viene de hace tiempo, pero se vio fuertemente incentivado por la asistencia al ciclo de conferencias sobre la ciudad híbrida que organizó, dentro del Espacio-Red de prácticas y Cultura digital, la Universidad Internacional de Andalucía. Concretamente, me interesa cómo la Web 2.0 semántica móvil (SMW2.0) puede interrelacionar con la información accesible de la ciudad y/o de sus lugares.

Los datos que interesan en la IU son generados, usualmente, a partir de la propia ciudad, y tradicionalmente eran el gobierno local u otras instituciones quienes recolectaban, digitalizaban- si fuese necesario- y ofrecían -esto no es tan frecuente- esos datos. Con la instauración masiva de los teléfonos (y otros dispositivos) móviles, los ciudadanos pueden recolectar, como agentes de un sistema de interacciones muy complejo, información digital muy interesante. Incluso, el poder y la calidad de esa generación de información es mucho mayor que los de autoría oficial. En un contexto de Web 2.0 móvil, los dispositivos de bolsillo pueden ser considerados como agentes que usan apis locales que compañías e instituciones ofrecen de manera local en la ciudad. Desde el punto de vista de la Representación del Conocimiento, esos agentes representan una oportunidad única para determinar contextos de conocimiento en los que los habitantes de las redes sociales móviles pueden disponer de servicios avanzados y sensibles al contexto (como ofertas personalizadas, compartición de costes en servicios urbanos, etc.)

Existen varios proyectos que adaptan principios sociales Web 2.0 para investigar experiencias sociales, humanas, en las ciudades. La premisa de muchos de estos proyectos es que, en un futuro próximo, la IU será el origen de nuevas tecnologías y aplicaciones móviles que resolverán más eficientemente problemas de localización, contextualización, identificación de recursos y sociabilidad. En Urbane-ing the City: Examining and Refining the Assumptions Behind Urban Informatics, A. Williams, E. Robles y P. Dourish objetan -no sin razón- que las nuevas aplicaciones móviles no deberían centrarse sólo en la experiencia urbana y la vida personal y deberían extenderse (e implementarse de manera nativa) al ámbito de la vida social. Esa dimensión social, que parece tan facilmente generada en la Web 2.0, es una dimensión crítica y difícil en la Web 2.0 móvil. El propio concepto de identidad debe ser revisado. En la Web 2.0, la identidad es, realmente, una distancia ontológica entre entidades parcialmente definidas por la traza de su actividad en la plataforma. En la telefonía móvil, la identidad es crítica y las compañías tienen perfectamente caracterizada la de cada usuario. Con esto no quiero decir que no se puedan proponer experimentos que indaguen en las relaciones entre ciudadanos, y especialmente entre extraños habituales (es decir, gente con la que se comparte espacio habitualmente pero con la que no se contacta). Tres ejemplos de proyectos con “claros indicios de Web 2.0 móvil” que intentan salvar la brecha social urbana mediante la tecnología son Jabberwocky, Serendipity y Digidress.

En general, ese tipo de proyectos están basados en interacciones de baja obligación, es decir, no requieren una implicación fuerte -ni comercial- en la actividad. Muchos de los problemas de interacción entre agentes y de organización del conocimiento inducido por agrupaciones y contactos que se plantean en la SMW2.0 se podrían resolver como en la Web Semántica (por ejemplo, como en Groupme!). Pero existe la posibilidad de construir SMW2.0 basada en inteacciones con obligación alta (para empresas, negocios e instituciones) en las que la organización del conocimiento representado y/o generado es crítica para la eficiencia y fiabilidad de la red dentro de la organización. Sin embargo, organizar conocimiento íntimamente relacionado con el contexto (físico y lógico-computacional) donde se ha generado o utilizado es un desafío para el que es necesario, en primer lugar, entender qué tipos de espacios digitales urbanos pueden encontrarse y/o construirse. Para este tipo de problemas, la Web Semántica no ofrece soluciones claras si deseamos combinarla con la tradición de la Web 2.0, fundamentalmente porque es muy difícil representar la idea de espacio urbano que el usuario maneja cuando genera y/o utiliza el conocimiento. De hecho, sería necesario consensuar una ontología sobre los espacios digitales urbanos entre los diseñadores y los usuarios de la red.

En su trabajo Urban Informatics and Social Ontology (capítulo del libro Handbook of Research on Urban Informatics: The Practice and Promise of the Real-Time City), R.J. Burrows arguye, que, en realidad, en la IU se está gestando (está emergiendo) una nueva ontología social, donde las relaciones entre usuarios, espacios, entidades espaciales, contextos (entendidos como en Inteligencia Artificial y como en la computación ubicua) son muy complejas, crecen rápidamente y son muy necesarias para entender los resultados. Cita el trabajo de M. Crang y S. Graham Sentient Cities: Ambient intelligence and the politics of urban space donde se muestra una incipiente clasificación de regiones en esa ontología: el espacio aumentado (augmented space), el espacio promulgado (enacted space) y el transducted space (no sé como traducirlo correctamente). Este último trata de la automatización de lo espacial, que puede convertirse en servicios tecnológicos móviles que el usuario maneja y consume de manera inconsciente. Por tanto, estudia la relación transparente y ubicua de ciertos flujos de información y el usuario. Esta característica representa, por ejemplo, en una formidable oportunidad para desarrollar nuevos proyectos que se basen en las pantallas de espera (idle) de nuestros teléfonos móviles, un terreno relativamente poco explotado. En la SMW2.0, aplicaciones en el tercer tipo de espacio no estarían diseñadas sólo para el usuario, el móvil será un dispositivo con autonomía que atrapa flujos de información locales (via bluetooth, RFID, wifi, 3G u otras), convirtiendo al usuario en un prosumer inconsciente. Las primeras aplicaciones de este tipo separaban (quizás forzadamente) al usuario de la tarea (véase, por ejemplo, la recolección de información sobre contaminación urbana que se podría combinar con datos propios de la Informática del transporte).

Estas reflexiones sólo sirven para constatar la complejidad del problema de organizar y razonar con ese conocimiento. Y no hemos hablado de que las relaciones entre usuarios, agentes móviles (alojados en dispositivos móviles) y dispositivos son complejas y estarán a distintos niveles, dependiendo de la accesibilidad y autorización para realizar tareas de cada uno de esos elementos.

Dicho lo cual, parece muy atrevido pensar en cómo se desarrollará la relación entre la UI y la SMW2.0. En una primera etapa, el análisis que hace la UI de la información y sus flujos en la ciudad debe ser considerado no como una sola piel digital que intentamos visualizar para entenderla; más bien un conjunto de pieles que albergan flujos de información de distinta naturaleza y que los habitantes pueden interconectar con acciones tan simples como pagar mediante el teléfono móvil, usar el gps, etc. En una segunda etapa se desarrollarán proyectos Web 2.0 móvil que conecten de manera natural las distintas pieles (ya estamos en los primeros momentos). Y, cuando los dispositivos avanzados sean de uso generalizado, se podrá conectar esas capas con tecnologías que conviertan esa información en conocimiento (es decir, tecnologías de la Web Semántica). Es lo que, atrevidamente, denomino espacios digitales semánticos urbanos. Es en ese tipo de espacios donde la SMW2.0 se implantará como la ubicuidad semántica (es decir, donde la conciencia y el razonamiento sobre el contexto donde trabajamos será una tarea de confianza lógica como en la Web Semántica).

Fusionando ontologías mediante razonadores automáticos

imagen de Amsterdam utilizada en la página de los proceedings de Ontose 2009

La contribución que hemos presentado en el Workshop on Ontology, Conceptualization and Epistemology for Information Systems, Software Engineering and Service Science (celebrado en Amsterdam este año) titulada On the Use of Automated Reasoning Systems in Ontology Integration cierra la aplicación de la definición formal de ontología robusta que presentamos en el congreso EUROCAST 2005. De esta forma, hemos justificado plenamente que se puede especificar, en términos de lógica computacional, una definición práctica de ontología estable, que se puede determinar con métodos automáticos, y sobre la que se pueden considerar las gestiones usuales de mantenimiento de ontologías (extensión –bottom-up y top-downrevisión y fusión).

Sistemas multiagente para gestionar débilmente el contenido en redes sociales móviles

Imagen de la página principal del congreso KES AMSTA 2009

El contenido de la charla que comenté en la entrada anterior se complementa con nuestro artículo Toward Semantic Mobile Web 2.0 through multiagent systems, presentado en 3rd International KES Symposium on Agents and Multi-agent Systems – Technologies and Applications donde se hace una descripción general de Mowento y de las decisiones de diseño que hemos tomado.

Web semántica, Sistemas multiagente y redes sociales móviles

Logo de las jornadas

El 29 de Junio impartí una charla en las jornadas de difusión de la tecnología multiagente en la Universidad de Sevilla sobre cómo combinamos esos tres elementos en Mowento. Las transparencias que usé las he almacenado en mi cuenta de Slideshare. Las citadas jornadas fueron una extraordinaria oportunidad para conocer no sólo al resto de los invitados, sino a otros investigadores en el área de sistemas multiagente en la Universidad. Es curioso como, estando tan cerca en investigación, estamos tan lejos en trato, pues ni siquiera nos conocíamos. Las charlas fueron interesantes y si demostraron algo es que la aplicabilidad de la tecnología de agentes es muy amplia. Personalmente creo que la discusión sobre la especificación del concepto de agente fue extraordinariamente interesante. Posturas tan lejanas a la mía como la que Carles Sierra defendía, cercana a la indefinición que causa la autonomía eran, en cierto sentido, coincidentes cuando pensamos en que la especificación de un agente limita el concepto (aunque, a la vez, proporciona la noción de verificación).

Otra de las cuestiones que quedaron patentes en las intervenciones es que la modelización como agentes no implicaba, en principio, la implementación de un sistema multiagente. El mero hecho de modelizar rasgos de manera computacional-matemática-lógica proporcionaba formas de implementación en sistemas clásicos (es decir, el proceso de desagentificación produce de manera natural programas no autónomos). Esta forma de aplicar la ciencia de los agentes racionales es muy prometedora en ámbitos donde la recitencia a usar sistemas multiagente (impredecibles en muchos casos) limita la aplicabilidad de resultados.

Petición de trabajos para el Taller sobre Lógica Computacional e Inteligencia Artificial CLAI 2009

puente de Triana

Reproduzco a continuación la petición de trabajos para el Workshop on Computational Logic and Artificial Intelligence (CLAI 2009) que estamos organizando con motivo del Congreso del 2009 de la Asociación Española de Inteligencia Artificial (CAEPIA 200):

CLAI 2009
Workshop on Computational Logic and Artificial Intelligence
(workshop program of the 13th Conference
of the Spanish Association for Artificial Intelligence
CAEPIA-TTIA 2009)
Sevilla, Spain, November 9, 2009

This workshop (associated to the main Spanish Conference on Artificial Intelligence CAEPIA’09, to be held in Sevilla, Spain, from November 9 to November 13, 2009), intends to be a forum where reserchers in these areas will present and discusss emerging work in those fields of Artificial Intelligence where Computational Logic plays an important role. It also intends to provide a framework where research groups in this field can interact

The following is a (non-exhaustive) list of topics of interest:

  • Logics for formal verification of systems
  • Non-classical logics (fuzzy, temporal, modal,…)
  • Theorem proving
  • Knowledge representation and reasoning
  • Knowledge engineering
  • Logic-based applications for the Semantic Web
  • Description logics
  • Logic-based ontology languages
  • Logic and constraint programming
  • Answer set programming
  • Logic-based planning and diagnosis
  • Logics and multi-agent systems
  • Foundations

We invite researchers to submit papers on Computational Logic and its relation to areas of Artificial Intelligence. We encourage to submit original research papers, as well as description of ongoing research. Papers must be sent in a PDF file, written in English or Spanish and not exceed 10 pages including figures, references, etc. Papers will be reviewed by at least two PC members, and accepted papers will be published only in the internal workshop proceedings. The papers must be formatted according to the Springer LNCS instructions for authors. Submission of papers and abstracts has to be be done using EasyChair (see the workshop web page).

We also plan to devote part of the workshop to a panel discussion on the Spanish research on Computational Logic. Thus, we invite members of Spanish research groups on the topics of interest of the workshop, Committees to submit a one page abstract describing the main research activities of the group, and expressing their interest in participating in this discussion.

Programme Committee

  • José Antonio Alonso (Universidad de Sevilla)
  • Joaquín Borrego (Universidad de Sevilla)
  • Pedro Cabalar (Universidad de La Coruña)
  • Carlos Viegas Damásio (Universidade Nova de Lisboa)
  • Luis María Laíta (Universidad Politécnica de Madrid)
  • Jesús Medina Moreno (Universidad de Cádiz)
  • Manuel Ojeda Aciego (Universidad de Málaga, co-chair)
  • David Pearce (Universidad Politécnica de Madrid)
  • Renaud Rioboo (ENSIIE Evry)
  • Julio Rubio (Universidad de La Rioja)
  • José Luis Ruiz Reina (Universidad de Sevilla, co-chair)
  • Umberto Straccia (ISTI-CNR Pisa)
  • Agustín Valverde (Universidad de Málaga)

Important Dates

  • Paper submission: July 31, 2009
  • Notification of acceptance/rejection: September 17, 2009
  • Camera-ready papers due: October 8, 2009
  • Workshop date: November 9, 2009

De vueltas con la formación científica en Ciencias de la Computación e Inteligencia Artificial

esquema de cómo aplicar model checking en un sistema industrial

La redacción de la entrada donde hablaba de la frustración con que se afronta en España el futuro de las Ciencias de la Computación e Inteligencia Artificial (CCIA) -como entidad independiente de las tecnologías que la usan- me sugirió la idea de dar nota de otros ejemplos llamativos. Básicamente, y sin pretender ser exhaustivos, me he interesado por anuncios que presenten el problema de manera diferente. También quiero dejar claro que afortunadamente existen excepciones en España que son prometedoras.

Por tanto, como la entrada a la que hago mención cubre el campo de las ofertas de trabajo, ahora comento dos que cubren otros aspectos:

  1. I+D en la empresa. Una de las start-up más interesantes que sigo es la que los autores de Pellet han creado en torno a su demostrador. Es emblemática por varios motivos. En primer lugar, adoptan la filosofía del software libre como motor de innovación y plantean el modelo de negocio en torno a sus productos. En segundo lugar, su producto estrella es un demostrador automático, palabra prohibida en la teoría o en la práctica en los curriculums de matemáticos e informáticos. Y en tercer lugar, por su activa apuesta por la formación de sus trabajadores, colaboradores y/o becarios. Es esto último lo más llamativo: Los colaboradores-estudiantes van camino de conseguir tesis doctorales en universidades de prestigio. Otra cosa impensable en nuestro desolador panorama científico. Y no sólo porque la empresa, en general, sólo desea programadores. También por el ambiente clientelista de las carreras técnicas para con las empresas contratadoras. Por supuesto, el caso del que hablo no es único; es sólo un ejemplo reciente. Este caso también es especialmente llamativo porque una de las rutinarias quejas en este país es la deficiente transferencia de la investigación de las universidades a las empresas. Cuando leo o escucho una de esas quejas, me sorprende que casi nadie (de ambos bandos) reivindique la condición necesaria para que esto ocurra: Las empresas deben incentivar, contratar y tener doctores, para así entender la importancia, evaluar y aplicar los resultados. Pero eso tiene un coste que muchas empresas en España no pueden o no desean sufragar. Porque es una actitud equivocada pensar que la Universidad debe proveer la tecnología, la herramienta acabada, convirtiéndose en una subcontrata. La Universidad puede aportar en mucho mayor grado conocimiento, que debe ser aplicado. Pero eso, como digo, es caro. Que apliquen otros.
  2. Investigación de calidad. Recientemente la Association for Computing Machinery (ACM) -cuyo lema es Advancing Computing as a Science & Professionha otorgado su prestigioso premio ACM Turing award a tres investigadores que he seguido con devoción estos últimos años. Se trata de Edmund M. Clarke, E. Allen Emerson, y Joseph Sifakis, los fundadores de la teoría de model-checking como la gran herramienta para la verificación formal. Cuando leí el artículo tuve la misma sensación que cuando me atreví a decir que ningún egresado de los nuevos planes de estudio españoles resolverá el problema P?NP. Pero, en este caso, con mayor dolor. Me explico. En mi opinión, ese problema sólo se podrá atacar desde la teoría de conjuntos y la teoría de modelos, es decir, realmente es un problema lógico-matemático-computacional. Sin embargo, el model checking no es una herramienta puramente teórica, es usable y está implementada en muchos sistemas. Pero el desconocimiento y las deficiencias en lógica computacional impedirán su uso generalizado en países como España, por las razones que ya comenté. Y en mi campo de interés, agentes inteligentes y Web Semántica, se puede convertir en una herramienta crítica para hacer de la teoría de agentes una verdadera ingeniería, al presentar un soporte formal para la verificación del producto software en este campo. La idea de usar semánticas de tipo Kripke en el campo de sistemas multiagente ya la adelantaron Joseph Y. Halpern, Moshe Y. Vardi en su trabajo clásico Model Checking vs. Theorem Proving: A Manifesto, donde argumentan que el razonamiento basado en modelos es mucho más eficiente que la demostración automática para la verificación (aunque teniendo en cuenta que está basado en modelos). Concluyendo, vista la situación de la ciencia en España, me atrevo a pronosticar que será muy difícil que un nuevo licenciado diseñe el lenguaje de programación orientado a agentes racionales que toda la comunidad científica de este campo persigue, desde la propuesta fundacional de Y. Shoham.

Me temo que prontamente presentaré nuevos ejemplos, de perfil completamente distinto, donde se volverá a mostrar en toda su crudeza la previsible pérdida de competitividad de la ciencia española frente a la de otros países, debido a la progresiva mercantilización de la educación superior.

EEUU toma posiciones en la próxima oleada de aplicaciones sociales frente a Europa (y por supuesto, frente a España)

un combate de boxeo entre un peso pesado y un hombre débil

Esta entrada es una reflexión provocada por las últimas aplicaciones que he analizado (siempre desde la perspectiva de la Inteligencia Artificial), así como por los temas en los que estoy trabajando. Me da la sensación, viendo los nuevos proyectos, que Silicon Valley toma otra vez la delantera en innovación a Europa. Más concretamente, en la utilización masiva (y con valor añadido) de tecnología de la Web Semántica. Por supuesto, si nos centramos en España, nos encontramos con un desierto. A continuación enumero las diferencias que más me han sorprendido a la hora de afrontar los proyectos más interesantes:

  1. Aquí seguimos hablando de redes sociales clásicas mientras allí hablan de sociedades y aplicaciones semánticamente aumentadas: Freebase, Twine, zigtag, Powerset… Excepciones: En Europa hay algunas, pero no se han lanzado todavía.
  2. Aquí seguimos analizando fenómenos como youtube y los vídeos en las redes, mientras que allí hablan de web semántica ubicua, aplicaciones “listas” para móviles a partir de la experiencia acumulada, etc. Excepciones: proyectos interesenates como Kimia.
  3. Aquí nos fascina la geolocalización y allí ya la tienen saturada de aplicaciones y trabajan en aplicaciones sociales que se basan en eversión…
  4. Aquí no hablan -todavía- claramente de modelos de negocio mientras que Youtube, Twitter, ya tienen opciones sobre la mesa…
  5. Aquí se hacen cientos de conferencias donde se habla de blogs, periodismo ciudadano, consecuencias sociales de la Web 2.0, etc. mientras que allí abundan conferencias de tecnología semántica y empresas. En éstas se está gestando la nueva Web .
  6. Allí los nuevos gurus tienen una importante empresa detrás. Aquí eso es raro.
  7. El crowdsourcing es, en España, una obra de beneficiencia (por ahora). Allí tienen importantísimos proyectos como Innocentive.
  8. Allí la Inteligencia Colectiva prometedora se basa en considerar a la gente como neuronas aumentadas (zigtag.com, gwap.com ). Aquí sólo se aplica la versión clásica,

Pos supuesto, existen muchas más excepciones en Europa. Una de las iniciativas más interesantes que he encontrado se basa en considerar una ciudad (sociedad) entera como laboratorio de nuevas aplicaciones. Por mantener un poco de optimismo, y dejando a un lado la crónica dependencia de las instituciones europeas para la investigación, mi opinión es que existe margen para obtener ventaja competitiva en algunos campos, pero para eso se necesita una apuesta más fuerte por proyectos que parecen completamente inviables a medio plazo, pero con una potencialidad enorme.