Dropbox se instala en Alemania para cumplir con la normativa europea #CloudWars

 

El gigante del almacenamiento en la nube Dropbox ha trasladado una parte de sus operaciones a centros de datos ubicados en Alemania, con el fin de cumplir con la normativa europea de protección de datos. Alojará servicios de clientes de Dropbox Empresas en instalaciones gestionadas por Amazon en sus CPDs alemanes.

Sólo en Europa, el número de clientes de empresa de Dropbox se ha cuadruplicado en los últimos dos años. Y no sólo clientes privados, también hay alguna pequeña administración pública local que ya se está atreviendo a apoyarse en servicios de Dropbox (Hillerød, en Dinamarca).

Dropbox, en Alemania. AWS, en Alemania. Microsoft acaba de anunciar la creación de dos regiones Azure también en Alemania para cumplir con la normativa UE y mejorar el servicio a sus clientes europeos. Etc. La ventaja competitiva basada en la ubicación dentro de territorio UE que tenían los proveedores europeos frente a los gigantes norteamericanos toca a su fin, sobrepasados una vez más los europeos por la rapidez de movimientos de los norteamericanos.

Ventaja competitiva que además era barrera de entrada: perdida. La siguiente es el precio y en valor añadido. El precio de los servicios cloud ha bajado de media alrededor de un 8% desde octubre de 2014, y se estima que se reducirá otro 5% durante el próximo año. Estos son los datos que cuentan los analistas de 451 Research y que extrapolan en el Cloud Price Index, donde estudian la evolución de los 51 proveedores cloud que representan el 90% del mercado de IaaS.

Durante los dos últimos años han primado las guerras por el precio de la máquinas virtuales (el estudio muestra un descenso de los precios de las MV de hasta el 14% en los últimos meses). Aún así, los precios de las MV aún pueden bajar. E incluso si se estabilizan, hay decenas de otros campos de batalla potenciales en los que los proveedores de nube van a luchar: el ancho de banda, almacenamiento, bases de datos, incluso contenedores o la tecnología sin servidor (serverless).

Cuando la siguiente guerra de precios entre los gigantes cloud está a la vuelta de la esquina, ¿quiénes serán los que sean capaces de aguantar el ritmo? O mejor dicho, ¿sobrevivirá alguien que no sea Amazon, Azure, Google, Oracle o IBM?

Casi no quedan ideas nuevas, y la mayoría son muy malas

 

El diccionario Merriam-Webster dice que la creatividad es “la habilidad de crear cosas nuevas o pensar en ideas nuevas”. Casi no quedan ideas nuevas, y la mayoría son muy malas, o tan nuevas que la gente común no sabe reconocerlas como tal. Van Gogh, después de todo, vendió un solo cuadro en toda su vida.

Los que son capaces de generar ideas nuevas no surgen con frecuencia. Yo sólo conozco a dos: uno es poeta y el otro inventor. Ambos hacen las cosas a su manera. Ninguno ha amasado mucho dinero; ninguno duraría cinco minutos en un trabajo; lo odiarían, y el trabajo los odiaría a ellos.

Para sobrevivir, las empresas tienen que cambiar de vez en cuando. Necesitan hacer las cosas de forma ligeramente diferente, pero para eso no necesitan creatividad. Necesitan personas con la inteligencia y el juicio suficientes para aplicar las modificaciones correctas a ideas existentes.

Más que eso, necesitan personas con la determinación de probar esas ideas, modificarlas si es necesario y convertirlas en ventas.

Y luego ya, si eso, le ponemos nombrecitos como “transformación digital”.

Amén Lucy.

Con un 8% del mercado, VDI sigue siendo una solución de nicho

indice

Cada poco tiempo surge algún titular acerca de cómo el VDI va a ser el arma fundamental para las empresas en su camino para la transformación digital. Como muestra, un botón.

Y no. De momento no, al menos. El tamaño del mercado de los escritorios virtuales apenas ha superado el 8% de las implementaciones de PC en empresa, muy por debajo del 30% que muchos predecían hace cinco años. Este pronóstico optimista es sólo un ejemplo de las muchas predicciones diferentes proporcionadas en toda la industria por los analistas como Gartner, Forrester, e incluso los bancos de inversión como Morgan Stanley.

Las últimas proyecciones precisamente de Gartner para el mercado VDI en 2014 fueron: “En 2017, las soluciones VDI serán utilizadas por no más de 8% de la base instalada de usuarios de PC“. Del 30% previsto para el año 2014 a un realista 8% en 2017. ¿Qué ha pasado? Entre otras cosas, expectativas que se han visto defraudadas: la mala experiencia de usuario, los problemas con la latencia que condicionan la respuesta de la solución, los costes del almacenamiento, los retos que plantea las aplicaciones multimedia o los entornos en tiempo real tipo Lync o Skype, o cómo evitar y acotar los picos cuando todo el mundo enciende su ordenador a las 9 de la mañana…

Hasta la fecha, al menos. VMware ha anunciado una serie de cambios en su línea VDI hace unas semanas en el VMworld en Las Vegas. Pretenden establecer el escritorio virtual en un contexto más moderno, ofreciendo a los clientes una gama de opciones en la nube, en modo premium o híbrido. Además está tratando de reducir el coste de la solución asociándose con una variedad de proveedores de hardware que van desde HP a Dell e incluso los ultra low cost de Rapsberry Pi. También anunció una alianza con IBM para ejecutar la versión de la nube de los escritorios virtuales en servicio de la infraestructura de IBM, Softlayer.

Más potente e interesante me parece la nueva propuesta de Amazon WorkSpaces, que es cobrarte por horas En lugar de pagar de forma mensual por el acceso, las empresas pueden optar por pagar por el acceso a su espacios de trabajo por horas de uso. El nuevo sistema de facturación está diseñado para atraer a aquellos negocios con los empleados a tiempo parcial, los empleados que viajan, que sólo se conectan en forma esporádica, los que trabajan en proyectos a corto plazo, etc.

VDI sigue siendo a día de hoy una solución de nicho que aplica quizá para la banca, quizá para la educación, quizá para el retail, es decir, para aquellos entornos que desean tener un control firme sobre su entorno informático, pero dista mucho de ser una solución extendida y aplicable para todos.

Cómo Pokémon Go afecta -y perjudica- las redes de las telco

pokemon-servers-down-5ce84

Pokémon GO requiere de conexión permanente a sus servidores para mantener siempre actualizado para todos el posicionamiento de los elementos del juego en el mapa. De estar offline, o de no tener una conexión constante, el jugador no podría, por ejemplo, capturar pokemons al mismo tiempo que sus amigos. Esto ha sometido a una presión fortísima a la nube donde se alojan, Google Cloud Platform, provocando su ralentización y colapso hace un par de semanas.

Pero la nube de Google no es la única infraestructura puesta a prueba. Pokémon Go también puede hacer sufrir considerablemente la red de las operadoras telco que te dan servicio. Un análisis de Procera Networks, -empresa especializada en soluciones para la congestión de las redes de datos-, muestra que el elevado número de usuarios simultáneos de Pokémon Go ha provocado un descenso dramático del rendimiento de su red.

Observaron el comportamiento de la red de un operador móvil europeo (2 millones de usuarios) en una ventana de 3 horas durante las cuales se conectaron al juego un 7% de los clientes. Observaron que el problema no está en el ancho de banda consumido por usuario, sino en el elevadísimo número de sesiones que Pokemon Go activa de otros parámetros de red: señalización, carga, análisis y seguridad. El usuario no lo aprecia, pero a la operadora el juego le provoca una importante sobrecarga por la inundación de parámetros de señalización necesarios para sostener la respuesta del juego. La única aplicación que genera más conexiones por abonado que Pokemon Go es el software de intercambio de archivos BitTorrent – que precisamente destaca por el gran consumo de sesión que necesita para funcionar. Pokemon Go utiliza incluso más conexiones por suscriptor que DNS o la navegación web.

Y como el artículo de Procera ya adelanta, ¿qué pasará cuando Pokemon Go y Niantic empiecen a utilizar los datos de sus usuarios de localización para enviarles publicidad? Recordemos: Google está detrás, Niantic nació en Google. Es decir, ¿qué pasará cuando las telco vean sus redes cada vez más tensionadas y su rendimiento penalizado, y se vean obligadas a mejorarlas para responder a la demanda y tener contentos a los clientes sin obtener ningún beneficio a cambio ni generar nuevos ingresos, y todo ello para que Google y Niantic sean los únicos que moneticen ese trasiego de datos?

Es decir, de nuevo el debate: ¿deben Google y Facebook pagarles a las telco por usar sus redes?

 

 

Publicada Directiva UE 2016/1148: medidas para garantizar un elevado nivel común de seguridad de las redes y sistemas de información en la UE

 

Considerando la UE que:

  • Las redes y sistemas de información desempeñan un papel crucial en la sociedad. Su fiabilidad y seguridad son esenciales para las actividades económicas y sociales, y en particular para el funcionamiento del mercado interior.
  • La magnitud, la frecuencia y los efectos de los incidentes de seguridad se están incrementando y representan una grave amenaza para el funcionamiento de las redes y sistemas de información. Esos sistemas pueden convertirse además en objetivo de acciones nocivas deliberadas destinadas a perjudicar o interrumpir su funcionamiento. Este tipo de incidentes puede interrumpir las actividades económicas, generar considerables pérdidas financieras, menoscabar la confianza del usuario y causar grandes daños a la economía de la UE.

Y con este punto de partida, y 73 consideraciones más, el 19 de julio de 2016 se ha publicado la Directiva UE  2016/1148 del parlamento europeo y del Consejo de 6 de julio de 2016 relativa a las medidas destinadas a garantizar un elevado nivel común de seguridad de las redes y sistemas de información en la Unión.

La directiva establece estándares comunes de seguridad, incrementando también la cooperación entre los países miembros. La principal medida de la nueva norma consiste en establecer obligaciones para las compañías de sectores esenciales como la energía, el transporte, los servicios sanitarios, la banca y el suministro de agua, así como para los grandes proveedores de servicios digitales en el ámbito del comercio online, los motores de búsqueda y los servicios en la nube. Estas empresas deberán adoptar medidas para garantizar la seguridad de su infraestructura e informar a las autoridades estatales en caso de incidentes importantes. Las compañías pequeñas no están obligadas a adoptar estas medidas.

Para tal fin:

  • Establece obligaciones para todos los Estados miembros de adoptar una estrategia nacional de seguridad de las redes y sistemas de información;
  • Crea un Grupo de cooperación para apoyar y facilitar la cooperación estratégica y el intercambio de información entre los Estados miembros y desarrollar la confianza y seguridad entre ellos;
  • Crea una red de equipos de respuesta a incidentes de seguridad informática («red de CSIRT», por sus siglas en inglés de «computer security incident response teams») con el fin de contribuir al desarrollo de la confianza y seguridad entre los Estados miembros y promover una cooperación operativa rápida y eficaz;
  • Establece requisitos en materia de seguridad y notificación para los operadores de servicios esenciales y para los proveedores de servicios digitales;
  • Establece obligaciones para que los Estados miembros designen autoridades nacionales competentes, puntos de contacto únicos y CSIRT con funciones relacionadas con la seguridad de las redes y sistemas de información.

Esta nueva Directiva entra en vigor ya, en agosto de 2016, y los Estados miembros tendrán 21 meses para transponerla y 6 meses más para identificar a los operadores de servicios esenciales. Otra tarea más pendiente para cuando tengamos gobierno…

Ranking de integradores de Big Data-Analytics en España

Big Data empieza a ser un término de dominio público y que sorprende a pocos que traten con las tecnologías de la información. La expresión fue acuñada a finales de los 90 al describir el problema de visualización de amplios conjuntos de datos que superaban las capacidades habituales de computación y almacenamiento. En 2001 se empieza a hablar de las 3 V, refiriéndose a volumen, velocidad y variedad, y a partir de 2005 las empresas tecnológicas (Google a la cabeza, pero también Facebook o LinkedIn entre otras) desarrollan herramientas y algoritmos que son capaces de tratar ingentes cantidades de información. Unos años más tarde, progresivamente y como evolución natural de las herramientas de Business Intelligence, los fabricantes de hardware y software empiezan a desarrollar soluciones comerciales y los integradores no dejan de incluir el término de moda en su catálogo de servicios.

Usualmente la oferta en Big Data va acompañada de Analytics conformando unos servicios que además de maximizar la potencia de cálculo y los algoritmos de análisis sobre grandes conjuntos de datos para identificar patrones, aportan el valor de ser objetivos y precisos, e incluso capaces de inferir y predecir nuevos comportamientos precisamente por tratar con volúmenes elevados de información.

El interés del binomio Big Data-Analytics no ha parado de crecer en los últimos años. Según la Comisión Europea, sólo en información personal de todos los ciudadanos europeos, se estima que es un mercado que crecerá a razón de un billón de euros anual hasta el 2020. Aunque existe curiosidad, el proceso de adopción tecnológica en el mercado español se encuentra todavía en una fase inicial en el que los responsables tecnológicos de las empresas todavía tienen bastante desconocimiento sobre este tipo de soluciones y cómo pueden aportar valor a la empresa. Probablemente esta falta de consciencia viene derivada de la dificultad real para convertir el potencial valor que pueden llegar a aportar en beneficios tangibles. Desde el punto de vista tecnológico se necesita trabajo de fontanería en el backoffice: conocimiento de las tecnologías implicadas, perfiles capacitados y en consecuencia presupuesto, gestión, pruebas piloto, despliegue de la tecnología en los departamentos de la organización, auditorías de seguridad y de cumplimiento normativo, decidir si los servicios se despliegan en la nube o en infraestructura propia, etc. Pero se necesita mucho más que la tecnología. Las cuatro primeras barreras están directamente relacionadas con cómo las empresas perciben dicho valor o, mejor dicho, son consecuencia de cómo no lo perciben: Toma de decisiones no orientada al dato; Falta de conocimiento del usuario de negocio; Falta de apoyo por parte de la dirección; ROI poco claro.

Penteo define en su informe a los Integradores de Big Data-Analytics, como aquellos que ofrecen un portafolio completo que englobe soluciones Analíticas sobre entornos Big Data (es decir, que comprendan entre otra, información desestructurada, con alto volumen y con capacidad de procesarla en tiempo real). En este portfolio se incluyen los servicios de consultoría para determinar la estrategia funcional y tecnológica en relación a casos de uso, fuentes de datos a usar, mecanismos de almacenamiento, tratamiento, visualización, y otros, así como servicios de implantación y posterior mantenimiento y operación de la plataforma Big Data-Analytics implementada. Además, complementariamente pueden proveer del hardware y la infraestructura asociadas, así como ofrecer soluciones paquetizadas para sectores concretos, o perfiles específicos en formato asistencia técnica o, en el otro extremo, capacidades en formato as a Service en pago por uso.

De forma resumida, estas son algunas de las conclusiones de los principales actores del mercado español analizados en el informe de Penteo:

  • Hewlett Packard Enterprise (HPE): se sitúa como el primero de los proveedores analizados tanto en capacidades como en prestaciones. Su propuesta de  valores multi-sectorial, agnóstica de tecnología y empieza a contar con referencias significativas, que complementa con otras líneas de servicio asociadas a la disciplina.
  • SDG Group destaca como proveedor especialista con altas prestaciones en implantación de proyectos de Analytics y también BigData  ,en múltiples sectores y usando diversidad de plataformas, lo que les proporciona versatilidad para poder abordar proyectos de todo tipo con garantía y buena satisfacción de clientes.
  • Capgemini: con buenas capacidades y un portafolio completo, son especialmente potentes en Business Intelligence y Analytics, donde los clientes expresan alta satisfacción. En Big Data en España están tomando relevancia en el sector retail, sin descartar otros sectores de actividad económica.
  • Atos: dispone de capacidades y activos en todas las disciplinas, incluida la supercomputación. La nueva plataforma Codex les tiene que permitir ganar referencias en nuestro mercado y practicar una aproximación más cercana a negocio.
  • Telefónica: es un actor nuevo en este mercado, pero que internamente ha usado y usa intensivamente BigData Analytics para mejorar su negocio. Su propuesta de valor actualmente se basa en realizar proyectos a partir de los insights generados en base a la información propia de la que dispone como operador global de telecomunicaciones. Deben ganar volumen de referencias.
  • Everis: cuenta con una amplia plantilla dedicada a la línea presente en el mercado español, gozan de alta satisfacción durante la ejecución de los proyectos, aunque deben mejorar su relevancia en las direcciones generales de las compañías,y aprovechar su integración dentro del grupo NTT.
  • T-Systems: dispone de una propuesta de valor completa que debe materializarse en casos de uso concretos para ganar relevancia en Big Data-Analytics. Su oferta Data-Gyms permite que cadacliente escoja la modalidad de contratación de los servicios.
  • Seidor: ha estado tradicionalmente vinculado a la tecnología SAP donde goza de alta competencia y prestigio. Ha desarrollado soluciones específicas para Telco, Banca o áreas específicas de las empresas para análisis de fraude, planificación de la demanda,…que le permiten acelerar elddespliegue de soluciones Big Data.

 

Pero esto no acaba aquí; de hecho, acaba de empezar. La sensorización de cualquier labor, la domótica, los wearables, las smart cities, Internet of Things, datos que ya se recogen pero que se infrautilizan (pensando en sistemas de control industrial, tornos de acceso a recintos, etc.) y otras que ni imaginamos, son fuentes de datos que multiplicarán su actividad. Y hay que sumar el refinamiento de los algoritmos, que combinados con la siempre creciente potencia de cálculo, por ejemplo ya incorporan una dimensión semántica que permiten una comprensión del contexto de los datos y su significado en ese contexto, configurando soluciones de
inteligencia artificial o Deep Learning.

En el momento que la tecnología madure completamente, probablemente dejaremos de diferenciar específicamente Business Intelligence, Analytics o Big Data, todo convergerá en soluciones que a la postre transforman datos en información relevante para los negocios

Vía Penteo

La próxima frontera (otra más): la computación sin servidores

El Cloud Computing ha supuesto una auténtica revolución en el sector TI y en el modo de trabajar y de pensar de la mayoría de las empresas e industrias. IaaS (Infrastructure as a Service), PaaS (Platform as a Service) o SaaS (Software as a Service).., modalidades de soluciones, flexibles y basadas en el pago flexible por uso de servidores, memoria y almacenamiento.

En la frenética carrera por innovar, los contenedores y modelo Docker parecían ser the next big thing en el avance del modelo cloud. Basado en Linux, Docker automatiza el despliegue de aplicaciones dentro de contenedores de software, proporcionando una capa adicional de abstracción y automatización de virtualización a nivel de sistema operativo.

 ¿Qué es lo siguiente, cuál es el siguiente nivel de abstracción? Prescindir del servidor, que ya no tengas que hacer frente a pensar si necesitas más o menos capacidad, cómo vas a hacer el despliegue, el escalado o la tolerancia a fallos. No necesitas contratar servidores, instalar software, bases de datos, configurar máquinas…Coges tu desarrollo o tu aplicación, lo lanzas a la nube y se ejecuta, sin que tengas que estar pensando en servidores.

¿Fantasía? Casi, pero no. Ya te lo ofrecen Microsoft (Azure Functions), Google (Google Cloud Functions) y Amazon (Amazon Lambda). Son servicios de computación sin servidores que ejecutan el código como respuesta a eventos y administran automáticamente los recursos de computación subyacentes. Ejecutan el código en una infraestructura informática de alta disponibilidad y ejecutan la administración integral de los recursos informáticos, incluido el mantenimiento del servidor y del sistema operativo, el aprovisionamiento de capacidad y el escalado automático, la implementación de parches de seguridad y código, así como la monitorización y los registros.

Lo único que tienes que hacer es proporcionar el código. La computación bajo demanda llevada a su conclusión natural, dicen.