TW
0

La supercomputación tiene ya aplicaciones que están resultando fundamentales en el desarrollo y evolución en todos los sectores y, en nuestro caso, en el ámbito empresarial.

En la informática convencional los sistemas analizan de manera retrospectiva la información recogida previamente en una base de datos. Por el contrario la supercomputación -y nos lo confirma Amparo Moraleda, expresidenta de IBM-España-, está diseñada con nuevas soluciones de software capaces de analizar de forma continua y en tiempo real, y extraer volúmenes masivos de datos (big data) que se generan de manera permanente en bases tradicionales y en formatos no estructurados, como redes sociales, sensores, etc., en un mundo cada vez más interconectado, y que permiten extraer valor y conocimiento y tomar decisiones en tiempo real.

El cerebro y motor de estos aplicativos analíticos y de optimización son los algoritmos, que convierten datos desestructurados en conocimiento y son los responsables de muchos de los avances más relevantes en el campo de la ciencia y de la economía.

Está demostrado que para modelizar escenarios complejos que incorporan un alto número de variables, el cerebro no es el instrumento más eficaz para realizar este tipo de previsiones, las empresas invierten cada vez más en los algoritmos. La disponibilidad de grandes volúmenes de big data a coste razonable y capacidad de procesarlos a gran velocidad ha originado que un gran número de empresas utilicen ya algoritmos para sus previsiones y sus procesos de toma de decisiones.

La supercomputación tiene aplicaciones que ya están resultando fundamentales para el desarrollo de todos los sectores empresariales (red de distribución eléctrica, finanzas, gestión de riesgos, robótica, coches autónomos con conectividad... y en el campo de los videojuegos donde los superordenadores son imbatibles) y su incidencia en el mercado laboral de esta nueva revolución industrial (la revolución 4.0) para que nuestra sociedad sepa adaptarse a la disponibilidad de autómatas y ante la irrupción de la inteligencia artificial.

Técnicamente todo problema susceptible de ser analizado mediante una secuencia lógica de operaciones es susceptible de ser modelizada a través de un algoritmo. Otra cuestión es la capacidad humana para traducir a lenguaje matemático al comportamiento que describe un determinado fenómeno y las decisiones a adoptar.
La cruz de los algoritmos es que pueden suponer un riesgo empresarial. El ejemplo más reciente se recuerda en Wall Street, con el nombre de flash crash. Fue el 6 de mayo de 2010, cuando el cambio de estado simultáneo de una serie de variables provocó que se desencadenase una secuencia controlada por algoritmos que se retroalimentaban. En 14 segundos los operadores HFT negociaron cerca de 27.000 operaciones y la bolsa estadounidense perdió el 13% de su valor de capitalización en tan solo 5 minutos.

La implementación de los algoritmos es irreversible, pero el ritmo de cambio y sus consecuencias en el mundo empresarial son una incógnita. Los nuevos paradigmas serán más eficientes y mejor gestionables en el sentido de que serán capaces de soportar la evolución de los modelos de negocio. El futuro siempre trae cosas nuevas, y siempre alguien se queda anticuado.