Comparte

Mientras estaba escribiendo el artículo sobre el Informe Horizon 2008, encontré muchas similitudes con un decálogo de 2006, en el que la consultora Gartner Group hablaba de las 10 tecnologías que tendrían un mayor impacto en los próximos años. Algunas se impondrían a corto plazo, mientras que otras representaban tendencias que se se desarrollarían en un período superior de tiempo. Gartner es una de las principales consultoras de nuevas tecnologías a nivel mundial.

1. Virtualización.

2. Arquitectura Orientada al Servicio (SOA).

3. Gestión de Información Empresarial (GIE).

4. Computación distribuida.

5. Software de código abierto.

6. Computación penetrante (Pervasive Computing).

7. Ajax (Asynchronous JavaScript And XML o JavaScript y XML asíncronos).

8. Modelos Mashups.

9. Búsqueda de información personal.

10. Inteligencia colectiva.

Analizaremos qué significan éstas tendencias, cuales son ya una realidad, y cuales están por llegar. El artículo no se escribe con pretensiones de divulgación científica, sino que esta realizado por un  no experto en sistemas y dirigido a no expertos en sistemas. Ruego a los más entendidos que disculpen y notifiquen cualquier error que puedan encontrar

1. Virtualización.

Es un término en realidad, bastante antiguo, anterior a 1960. Una máquina virtual nos permite tener varios ordenadores virtuales ejecutándose sobre el mismo ordenador físico. Se trata de un término tan amplio que requeriría un artículo dedicado en exclusiva. Gartner lo sitúa como la tecnología que tendrá más impacto en la empresa hasta 2012, pero aunque dicha tecnología está presente en muchos desarrollos de hardware y software actuales, no se espera que se popularice antes de 2009-2010, fecha en que Microsoft podría lanzar un nuevo sistema operativo. La virtualización nos permite, por ejemplo, dividir los recursos de un PC conectado a tres monitores para tres usuarios diferentes, con el consiguiente ahorro para cualquier empresa u hogar. Pueden ver muchos más ejemplos de las ventajas que ofrece en el artículo de Microsoft Soft Gird  situado un poco más abajo.

Bibliografía:

lllllllllllllllllllllllllllllllllllllllllllllll.

2. Arquitectura Orientada a Servicio o Service Oriented Architecture (SOA).

De nuevo hablamos de una tecnología cuyos principios se establecieron hace 20 años, y que está más viva que nunca. A grandes rasgos se trata de descomponer un complejo sistema de información en unidades modulares simples e independientes.

Un SOA trata de replicar los procesos de negocio de una empresa. En el SOA cada proceso de negocio está compuesto por una serie de servicios operando entre sí. Si la unidad mínima de un SOA es un servicio, podemos definir SOA como un grupo de servicios que se intercomunican para dar respuesta a distintos procesos de negocio.

Además se debe diseñar de acuerdo con unos principios:

-Flexibilidad: al tratarse de un set de servicios sueltos e independientes en lugar de un macrosistema, es relativamente sencillo y barato modificar cada servicio sin alterar el funcionamiento de todo el sistema.

-Interoperabilidad: Existe una gran compatibilidad entre servicios. No importa tanto la tecnología usada para desarrollar cada servicio, sino los interfaces (comunicaciones) entre cada servicio.

-Preservación de los datos: El cambio de un sistema a otro no amenaza necesariamente la integridad de los datos. Dichos cambios se producen en el sistema de manera “orgánica”, de acuerdo con las necesidades del negocio, no de manera traumática. No hacen falta complejas migraciones de datos.

-Reutilización: cada cambio puede requerir la modificación o sustitución de uno o varios servicios, pero la mayor parte del código de programación es reutilizable.

-Independencia: cada servicio mantiene una relacion que minimiza la dependencia entre ellos. Si falla uno no falla todo el sistema.

Según Gartner, para 2008 el SOA sustentará el 80% de todos los nuevos proyectos de desarrollo, y permitirá que las empresas aumenten la reutilización de código por encima del 100%.

Bibliografía:

l.

3. Gestión de la Información Empresarial (GIE).

La Gestión de la Informacion Empresarial (GIE) o Enterprise Information Management (EIM) es la rama de consultoría y las tecnologías de la información, que se dedica a la optimización en la gestión de la información. Surge de la combinación de otras dos disciplinas como son Business Intelligence (BI) y Enterprise Content Management (ECM).

El GIE está estrechamente relacionado con el SOA, pues SOA dependerá del diseño de la distribución de la información (GIE), o cómo almacenarla, conectarla e integrarla para conseguir un uso más racional de dicha información. Según Carl Clunch, vicepresidente de organización de Gartner, en 2007, el 20% de las empresas top 1000 Fortune emplearán tecnologías de administración GIE en apoyo de SOA.

Bibliografía:

.

4. Computación Distribuida.

La computación distribuida permite descomponer una gran cantidad de información en paquetes, que pueden ser procesados por diferentes computadores.

Wikipedia lo define como una colección de computadores separados físicamente y conectados entre sí por una red de comunicaciones distribuida; cada maquina posee sus componentes de hardware y software que el usuario percibe como un solo sistema (no necesita saber qué cosas están en qué máquinas). El usuario accede a los recursos remotos de la misma manera en que accede recursos locales.

El tamaño de un sistema distribuido puede ser muy variado, ya sean decenas de hosts (Local Area Network), centenas de hosts (Metropolitan Area Network), y miles o millones de hosts (Internet); esto se le denomina Escalabilidad.

Además de la computación distribuida, podríamos destacar la importancia de la Computación Paralela. La diferencia entre ambos conceptos, es que la computación distribuida permite a varios usuarios  trabajar de forma cooperativa, mientras que la computación paralela trata de alcanzar la máxima velocidad de procesado.

Muchos creen que los sistemas de computación distribuidos y paralelos son la alternativa a los superprocesadores, y que el crecimiento exponencial que pronosticaba la ley de Moore, “Cada 18 meses la potencia de los ordenadores se duplica“, tiene una fecha de caducidad cada vez más cercana. El propio Moore la fijaba en 2011.

La industria ya comienza a encontrar problemas para seguir avanzando por encima de los 4 Gigaherzios de velocidad, derivados de las altas inversiones requeridas, del calentamiento extremo del núcleo, de la excesiva demanda de potencia eléctrica y los límites físicos a la creciente miniaturización de los transistores (vamos por procesadores de 45 nanomicras y bajando).

Si miramos a los movimientos la industria en los últimos 5 o 6 años, Intel y AMD se  han enfocado primero en tecnologías de 64 bits, y después en aumentar el número de núcleos en cada procesador, ampliándolos a dos, cuatro y ocho núcleos. Sin embargo, apenas han aumentado las velocidades de cada núcleo.

Cabe destacar que el desarrollo de procesadores de varios núcleos o multicore tendrá gran impacto no sólo en la computación paralela, sino también en la anteriormente mencionada virtualización.

Bibliografía:

  • Wikipedia
  • Moore y la ley de Moore
  • Computación distribuida y computación paralela.

.

5. Software de código abierto.

El software de código abierto o open source code es simplemente el término para definir a aquél distribuido y desarrollado libremente.

Para que se pueda hablar de código abierto, y no de otras variantes de la misma licencia, se deben cumplir los siguientes requisitos:

  1. Libre redistribución: el software debe poder ser regalado o vendido libremente.
  2. Código fuente: el código fuente debe estar incluido u obtenerse libremente.
  3. Trabajos derivados: la redistribución de modificaciones debe estar permitida.
  4. Integridad del código fuente del autor: las licencias pueden requerir que las modificaciones sean redistribuidas sólo como parches.
  5. Sin discriminación de personas o grupos: nadie puede dejarse fuera.
  6. Sin discriminación de áreas de iniciativa: los usuarios comerciales no pueden ser excluidos.
  7. Distribución de la licencia: deben aplicarse los mismos derechos a todo el que reciba el programa
  8. La licencia no debe ser específica de un producto: el programa no puede licenciarse solo como parte de una distribución mayor.
  9. La licencia no debe restringir otro software: la licencia no puede obligar a que algún otro software que sea distribuido con el software abierto deba también ser de código abierto.
  10. La licencia debe ser tecnológicamente neutral: no debe requerirse la aceptación de la licencia por medio de un acceso por clic de ratón o de otra forma específica del medio de soporte del software.

El software de código abierto se trata de la primera alternativa sólida al liderazgo ejercido por Microsoft durante años, el ejemplo más popular es el sistema operativo Linux. Aunque dicho sistema gestiona muchos servidores en todo el mundo, y un importante número de usuarios lo tienen instalado en sus PC’s (incluso hay versiones para dispositivos móviles y PDA), aún está a considerable distancia de Windows en cuanto a usuarios.

La principal ventaja es la gratuidad de muchas aplicaciones y la posibilidad de introducir cambios en el código fuente. Hay que aclarar software de código abierto no es sinónimo de gratuito, aunque frecuentemente lo sea. Dos de las distribuciones más populares de Linux son Ubuntu y Red Hat.

Los detractores del software de código abierto aducen la falta de servicio técnico y menor compatibilidad con el software y hardware existentes como sus mayores problemas. Sin embargo, algunas instituciones como la administración pública andaluza ya se gestionan con software libre y gratuito, Guadalinex. Una de las promesas electorales del recien elegido presidente Barack Obama, es instalar software libre en los sistemas de la administración norteamericana con el fin de ahorrar cientos de millones de dólares en los próximos años.

Bibliografía:

.

6. Computación Penetrante o Pervasive Computing.

También conocida como computación ubicua, calm technology, things that think, everyware o recientemente inteligencia ambiental. Se atribuye la autoría del concepto a Mark Weiser sobre 1988, inspirado en la novela  de ciencia ficción Ubik de Philip K Dick.

Generalmente se suele hablar de tres grandes eras en el desarrollo de la informática:

La primera fue el desarrollo de los grandes supercomputadores que ocupaban grandes espacios. Cada ordenador daba servicios a muchos usuarios (1 > n), eran de un uso muy complicado y tenían un alto coste.

La segunda se conoce como la democratización de la informática. Gracias al bajo coste y sencillo manejo de los ordenadores personales, gran parte de los hogares ya disponen de un ordenador por cada usuario (1 > 1).

En la tercera era,  del pervasive computing, existirán múltiples dispositivos a disposición del individuo (n > 1), que no serán manejados por el usuario, sino que trabajarán de forma autónoma. La idea de Mark Weiser, es que las computadoras trabajaran para el usuario sin que éste se de cuenta, sin robarle tiempo ni atención.

Entre las aplicaciones más conocidas que podemos citar se hallan la domótica o la aplicación de la computación pervasiva al hogar, los sistemas autómatas de reconocimiento de voz, los automóviles que no requieran conductor (en fase de investigación) y similares. Muchas tecnologías aún estan en fase de desarrollo o de momento siguen siendo ciencia ficción, pero en pocos años posiblemente asistiremos a un fuerte desarrollo de dicha tecnología.

Bibliografía:

..

7. AJAX (Asynchronous JavaScript And XML o JavaScript y XML asíncronos).

AJAX es la combinación de dos técnicas para crear aplicaciones web interactivas. Muchas páginas tienen contenidos en común entre ellas. Con métodos tradicionales, el contenido se tenía que cargar en cada nuevo acceso. Usando AJAX, una aplicación sólo necesita solicitar el contenido que necesita ser actualizado, reduciendo el ancho de banda y aumentando la velocidad de carga.

Bibliografía:

.

8. Mashups de datos.

Un mashup es una aplicación que combina datos de varias fuentes en una herramienta integrada. De esa forma, a partir de varios servicios web se crean otros diferentes. Existen diversos tipos de mashups; de datos, de búsquedas, de compras, de mapeo o multimedia. Según la definición del Informe Horizon 2008:

Aplicaciones a medida en las que se combinan datos de diferentes fuentes en una sola herramienta que ofrecen nuevos modos de ver los conjuntos de datos y de interactuar con ellos. La disponibilidad de grandes cantidades de datos (para la búsqueda de patrones, las ventas de inmuebles o las etiquetas de fotos de Flickr) converge con el desarrollo de interfaces de programación en abierto para redes sociales, mapeo, y otras herramientas. A su vez, eso abre las puertas a cientos de mashups de datos que transformarán el modo en que entendemos y representamos la información.

Bibliografía


9. Búsqueda de Información Personal.

El autor del artículo original no indica a qué tecnología exactamente se refiere:

El nuevo modelo pasa desde las búsquedas individuales hacia un contexto enriquecido e integrado, con mayor énfasis en la  administración y control de la información generada por el usuario.

En realidad posiblemente se refiera a la personalización de la información que recibe el usuario. Por ejemplo, los banners de ésta página web son diferentes en función de en qué parte del mundo se halle el lector. La web reconocerá datos como su ubicación o su idioma a través de su dirección IP o su configuración de idioma en Windows. De igual manera, se puede llegar a saber si un usuario está interesado en temas económicos, deportivos, o de moda. La Búsqueda de Información Personalizada implicaría usar marketing One To One para enviarle al usuario sólo información que le interese en lugar de saturarle.

.

10. Inteligencia Colectiva.

La Inteligencia Colectiva tiene una estrecha relación con la Computación Distribuida. Consiste en crear algo a partir de la colaboración de múltiples usuarios que no tienen por qué conocerse entre sí. Uno de los ejemplos más claros es la Wikipedia, donde cualquiera puede aportar definiciones, o Linux, un sistema operativo programado por cientos de usuarios diferentes.

.

Por Alberto López Correa.

Para más información, lea el artículo completo que publicó Hugo Sandoval Zamora en El Universal el Lunes 4 de Septiembre de 2006

.


Comparte