domingo, 30 de octubre de 2016

Hewlett Packard Enterprise, elegida como una de las “Best Global Brands” de 2016

Hewlett Packard Enterprise, elegida como una de las "Best Global Brands" de 2016

Hewlett Packard Enterprise ha sido elegida como una marca líder a nivel mundial por el 17º informe anual de Interbrandun ranking que refleja el impacto que las marcas tienen a la hora de motivar decisiones de consumo e influir en resultados financieros.
HPE es una de las tres nuevas marcas reconocidas en 2016 y según Henry Gomez, vicepresidente y director de marketing y comunicación de HPE, “poseemos dos cualidades que impulsan el crecimiento de la marca y el negocio: la primera es el enfoque y la segunda es la estrategia“.
La lista de Interbrand reconoce marcas que están impulsando el cambio en lugar de limitarse a responder a sus efectos, tal como confirma Henry Gomez que está haciendo HPE: “al concentrarnos y prestar atención en lo que realmente sabemos hacer“.
Las 100 mejores marcas de Interbrand 2016 tienen un valor total de 1,8 billones (sí, con “b”) de dólares, lo que representa un 4,8% más que en 2015.
Susan Popper, vicepresidenta de Experience Marketing en HPE, describe el proceso de creación de la marca HPE (recordemos que el pasado 1 de noviembre de 2015 se hizo efectiva la separación de HP en dos empresas independientes: HP Inc. y Hewlett Packard Enterprise) como abierto, asociativo y lleno de posibilidades porque “HPE pone la marca en todo lo que hace, tanto externamente como internamente“.

La adopción de la nube se está popularizando

La adopción de la nube se está popularizando

Cisco presenta un nuevo y mejorado programa de servicios profesionales cuyo objetivo es acelerar el camino de los clientes hacia el uso de cloud y la transformación digital.

Cisco publicó los resultados de un estudio global realizado este año, cuyas conclusiones señalan que, a pesar de que la adopción de sistemas cloud se ha acelerado significativamente, son pocas las organizaciones que están maximizando el valor que la nube puede ofrecerles. Según los hallazgos del estudio, alrededor del 68% de las organizaciones lo utilizan para ayudar a impulsar los resultados de sus negocios, lo que representó un incremento significativo de 61% en comparación con el estudio realizado el año pasado. El aumento en la implementación de la nube está siendo apalancado por aplicaciones nativas en la nube, incluyendo temas de seguridad y soluciones para IoT.
Sin embargo, la mayoría de las organizaciones (69%) no cuenta con estrategias maduras y tan solo 3% ha implementado estrategias optimizadas que generan mejores resultados en sus negocios.
En promedio, las organizaciones más avanzadas ven beneficios anuales por implementar aplicaciones basadas en la nube, de alrededor de u$s 3 millones en ingresos y obtienen un ahorro de costos de u$s 1 millón. Estos incrementos en ganancias han sido en gran medida el resultado de la venta de nuevos productos y servicios, y la posibilidad de ganar nuevos clientes, más rápidamente, así como ventas en nuevos mercados.
El estudio también reveló que 95% de las organizaciones que están liderando el mercado con la optimización de estrategias cloud, han construido un ambiente IT híbrido que utiliza múltiples nubes, tanto privadas como públicas, basándose en factores económicos, localización y políticas gubernamentales.
El infobrief “cloud going mainstream: all are trying, some are benefiting; few are maximing value” (cloud hacia mainstream, todos intentan, algunos se benefician, pocos maximizan valor) patrocinado por Cisco, fue desarrollado por International Data Corporation (IDC). El estudio se basa en una investigación primaria de mercado realizada a ejecutivos responsables de las decisiones IT en más de 6.100 organizaciones en 31 países, y que están implementando exitosamente cloud privado, público o híbrido en sus entornos IT. Este es el segundo año consecutivo de realización del estudio, en el que se duplicó el tamaño de la muestra.
En el estudio la IDC identifica cinco niveles de madurez en la nube: ad hoc, oportunista, repetible, administrado y optimizado.

Adopción de cloud híbrido por país

La adopción de cloud híbrido (mezcla de servicios público y privado) varía por país, con Corea y Japón liderando la lista de países con mayor porcentaje de organizaciones que adoptan una mezcla de servicios cloud públicos y activos dedicados. El estudio establece los porcentajes de organizaciones con adopción de cloud híbrido en los siguientes países:
  1. 45% Estados Unidos
  2. 47% Latinoamérica
  3. 46% Reino Unido
  4. 42% Francia
  5. 51% Alemania
  6. 41% Australia
  7. 47% Canadá
  8. 55% Corea
  9. 42% Países Bajos
  10. 54% Japón
  11. 52% China
Según el estudio, las organizaciones enfrentan un número considerable de obstáculos para alcanzar una mayor madurez en temas asociados a cloud, incluyendo brechas en capacidades y habilidades, falta de estrategias bien definidas y ausencia de trazar un plan de acción, estructuras tradicionales cerradas en las organizaciones, y la falta de alineación entre las áreas de TI y y líneas u objetivos de negocio.

Cisco business cloud advisor adoption report

Cisco está ayudando a sus clientes a traducir los hallazgos de este estudio a un análisis y guía personalizada. El Cisco business cloud advisor adoption report les permite a las organizaciones completar una encuesta para determinar y entender su nivel de adopción cloud y asociar los beneficios de negocio relativos a la industria a la que pertenecen, al igual que el tamaño de su compañía y su geografía. Los clientes pueden tener herramientas de acceso al igual que información adicional en www.cisco.com/go/bca. Esta herramienta continuará siendo ofrecida a los Cisco partners para que hagan uso de ella con sus clientes.

Nuevos servicios de cloud profesional

Adicionalmente, Cisco está lanzando un nuevo set de servicios de cloud professional para ayudar a los negocios en la navegación del laberinto multicloud y a la optimización de sus entornos. Estos servicios le ayudarán a los clientes a construir puentes para superar las brechas de habilidades a las que pueden estar enfrentándose al acelerar sus estrategias de transformación digital y sus iniciativas de procesos y aplicaciones nativas de cloud.

Disponible desde ahora, servicios de cloud profesional de Cisco incluirá

  1. Nuevos servicios de gestión y organización administrativa multicloud para empoderar los clientes desde el Cisco cloud center con el fin de que puedan hacer un modelo, despliegue y administración de su gestión en cualquier lugar donde se encuentren.
  2. Nuevos servicios de aceleración cloud que logren acelerar el diseño y despliegue de clouds privados y públicos al igual que en las soluciones nativas de cloud como OpenStack y PaaS.
  3. Servicios mejorados de aplicaciones y migración cloud para automatizar y eliminar la complejidad que involucra el abordaje y migración de aplicaciones y cargas de trabajo en la nube.
  4. Nuevos servicios de transformación IT enfocados en cambios relacionados con DevOps e iniciativas de manejo y administración que ayudan a alinear los procesos de negocio, al igual que las capacidades de habilitar a los clientes para que puedan integrar y optimizar en de ambientes y equipos DevOps y tradicionales.
Nuestros clientes están tratando con ambientes cada vez más diversos y complejos mientras que sus despliegues híbridos de multicloud crecen. Estos clientes quieren la libertad para elegir los mejores ambientes y modelos de consumo para sus aplicaciones tradicionales al igual que para las nativas de cloud, lo que conducirá a una variedad de beneficios en los negocios.Scott Clark, vicepresidente de Servicios Avanzados, Cisco
Sin embargo, esta investigación concluye que, si bien es cierto que muchos de los negocios están adoptando cloud, la mayoría de ellos aún se encuentran en las etapas iniciales del trayecto hacia un modelo cloud optimizado. Es aquí cuando nuestro nuevo y mejorado portafolio de servicios profesionales Cisco, puede ayudar. Trabajamos con nuestros aliados para unificar la oferta de servicios diseñados especialmente para ayudar a los clientes a alcanzar una optimización segura de sus ambientes cloud que sea específica para las necesidades únicas de sus negocios”, agregó.
En el futuro, Cisco planea ofrecer un taller de estrategia unificado que combine el DomainTen Service con el Business Cloud Advisor Workshop. El taller Cisco and Channel Partner ayudará a las organizaciones a identificar las fisuras y puntos de referencia, a mejorar continuamente sus ambientes multicloud, y a facilitar la alineación entre IT y la línea de negocios (LOB) de las partes interesadas. Adicionalmente el taller les ayudará a las organizaciones a realizar mejores mediciones del impacto potencial de la adopción de cloud en sus organizaciones IT, a través de una amplia gama de indicadores clave de desempeño.
El framework Domain Ten provee a los clientes una vista panorámica de los elementos clave o los dominios en sus centros de datos e infraestructura IT. Esto le ayuda a los clientes a planear su transformación IT al proveerles un mapa de acción estratégico con los pasos a tomar para alcanzar sus logros.
Estos nuevos servicios y talleres integrados le proveerán adicionalmente a los channel partners, oportunidades para revender los servicios de Cisco o combinarlos con sus propios servicios complementarios y trabajar de la mano de Cisco para entregar una solución completa a sus clientes, integrando la combinación de habilidades, capacidades y ofertas para ayudar a las organizaciones a lograr los mejores resultados de negocio.
Como revela este estudio global, la mayoría de organizaciones siguen intentando optimizar sus estrategias cloud, pero solo 3% de estas organizaciones han alcanzado un alto nivel de adopción y por lo tanto están cosechando la mayor parte de los beneficios”, indicó Robert Mahowald, Group VP, SaaS & cloud SW, IDC.
El estudio también subraya que los ambientes multicloud son el escenario por defecto de la mayoría de compañías alrededor del mundo, y que el manejo exitoso de multicloud es un factor clave atribuido a la madurez de la estrategia cloud que la compañía utiliza. Mientras el mercado continúa evolucionando, los clientes se moverán a lo largo de la madurez del espacio cloud con la ayuda de herramientas como Cisco Business cloud Advisor framework, que puede ayudarles a acelerar sus trayectos cloud e impulsar beneficios medibles en sus negocios”, finalizó.

Cómo optimizar la distribución energética en el rack

Eaton ofrece un código de buenas prácticas para una mejor selección de distribución energética en el rack adecuada a su entorno
En un contexto en el que la información es cada vez más un factor impulsor para muchas empresas, el data center se ha convertido en el pilar del éxito de las operaciones empresariales. Alcanzar la máxima eficiencia operativa y fiabilidad son aspectos fundamentales para el data center, cuyo fallo podría ocasionar graves repercusiones económicas para las empresas, que se están viendo obligadas a reorientar tanto su diseño como su dirección.
Con frecuencia, los data centers necesitan monitorizar con un alto nivel de precisión y detalle todas y cada una las partes de los equipos que los componen. Para garantizar su funcionamiento y operatividad, tanto los data centers empresariales como los de multi usuario requieren unidades de distribución energética en rack avanzadas (PDU, por sus siglas en inglés) que puedan controlar de manera precisa todos los aspectos de la energía permitiendo además gestionar su distribución. Sin estas avanzadas estructuras tecnológicas de distribución energética en rack, los data centers se arriesgan a no ser capaces de responder a las cambiantes demandas empresariales.
En este White Paper se analizan los factores que influyen en los data centers actuales y se describen las capacidades que las empresas deberían tener en cuenta a la hora de seleccionar las PDUs.

¿Qué son los token y de qué manera nos ayudan a proteger nuestra información bancaria?

En la actualidad, la tecnología está formando parte de nuestra vida cotidiana en más y más procesos, por lo que ahora es cuando la seguridad digital toma un papel aún más importante, sobre todo cuando de transacciones bancarias se trata. Una de las soluciones desarrolladas para ello son los llamados tokens que nos permiten proteger cada uno de nuestros nuestros movimientos financieros.
Pero, ¿qué son los tokens? Bueno, son dispositivos electrónicos que sirven para añadir un nivel extra de seguridad al momento de realizar autenticaciones importantes a través de Internet, como iniciar sesión en una entidad bancaria o realizar transferencias de fondos desde la misma. Estos aparatos suelen almacenar o generar claves criptográficas que protegen cada una de las operaciones en línea a fin de que las entidades puedan estar seguras que la persona que realiza la transacción es realmente quien dice ser.
Algunos tokens generan claves de seguridad cada cierto tiempo para utilizarse en el portal bancario, otros más permiten ingresar un numero conocido como hash al momento de realizar una transacción para generar la clave de seguridad y utilizarla para tu operación.
Los tokens suelen ser de tamaño pequeño que caben perfectamente en un bolsillo o se pueden agregar sin problema como llaveros. Estos dispositivos no varían mucho de su tamaño o diseño aunque algunos incluyen un teclado para el ingreso de pines o números con los cuales generar su clave; además, están fabricados a prueba de alteraciones de modo que sean aún más difíciles de violar.
La entidad bancaria en este caso es la encargada de facilitar los dispositivos a los usuarios que estén planeando realizar operaciones a través de Internet, en caso de perder este token esta misma institución puede hacerte llegar otro fácilmente.

La tokenización se extiende con las fintech

Visa Token Fintech3
Aunque es importante decir que cada vez son menos los bancos que entregan estos pequeños dispositivos a sus usuarios, pues con la evolución tecnológica se ha podido integrar la tokenización a las soluciones digitales como las billeteras digitales. De manera que se han desarrollado hasta aplicaciones móviles para los smartphones o códigos de programación para sitios web capaces de pedir, generar o validar este tipo de claves criptográficas que protegen cada una de tus operaciones.
Así, el usuario puede ingresar los datos de su cuenta bancaria en un sistema de pagos de alguna tienda en línea (que cuenta con la solución en su programación), ésta genera la orden de compra y pide el token de autorización a entidades financieras como Visa, una vez que se validan los datos del cuenta habiente junto con el pedido de pago se envían al banco donde se encuentra la cuenta del comprador para revisar que se tienen los fondos para concluir con la transacción, es entonces que los datos bancarios son sustituidos por el token que se envía al sitio del vendedor para cerrar la operación a fin de que se autorice y realice la transferencia del monto de lo que se compró vía Internet.
Visa Token Fintech4
Obviamente, todo ello ocurre en cuestión de segundos, de manera que a nosotros nos parece que todo el proceso es inmediato. Con esta tecnología se generan grandes ventajas para los usuarios de la banca electrónica y sus diferentes servicios, pues se pueden realizar transacciones cotidianas como: transferencias de fondos, pagos en línea y compras desde el móvil, entre otros, de una manera simple y segura, sin importar el sitio donde el cuenta habiente se encuentra.


Los desarrolladores y emprendedores pueden acceder a las tecnologías fintech que ofrecen los servicio financiero y aprovecharlos para proteger a sus clientes, haciéndoles ver que una de sus preocupaciones es la seguridad de cada transacción, lo cual les permitirá generar una mayor confianza y, por lo tanto, fidelidad.

¿Por qué hoy te debe interesar el mundo de la ciberseguridad?

Poco antes de las cinco de la tarde, como todos los viernes tras finalizar la jornada laboral, los trabajadores subían al tren pensando que sería un viaje como otro cualquiera. Sin embargo, pronto se darían cuenta de que iba a ser uno de los más aburridos que recordaran. Twitter, Spotify y Netflix, entre otros servicios, no funcionaban y no se sabía muy bien porqué. Horas después, Dyn , una de las empresas que da soporte a muchos de estos servicios, informaba que estaba siendo objetivo de un ataque DDoS masivo a su infraestructura DNS.



¿Qué son los DNS?
El sistema de nombres de dominio (DNS, por sus siglas en inglés) e s una pieza clave de Internet ya que su función principal consiste en asignar nombres de dominio a direcciones IP , es decir, es el que nos permite acceder a un servicio sin la necesidad de recordar su dirección IP. Por ello, un ataque DDoS dirigido contra el DNS con el objetivo de saturarlo con tráfico no deseado impediría resolver los nombres de dominio y conectar a los usuarios con las plataformas deseadas. En este caso, a pesar de disponer de una infraestructura de DNS robusta y distribuida, Dyn no fue capaz de soportar el ataque procedente de cerca de 10 millones de direcciones IP.
Figura 1. Puntos de presencia (PoPS) de la red de Dyn.
Figura 1. Puntos de presencia (PoPS) de la red de Dyn.
Foto: ElevenPaths
Esto solo se entiende tras el crecimiento de dispositivos que se conectan a Internet impulsado por la aparición del Internet de las Cosas (IoT). El IBSG, Internet Bussines Solutions Group de Cisco, predice para 2020 que unos cincuenta mil millones de dispositivos se encontrarán conectados. En este sentido, la superficie de exposición aumentará exponencialmente y con ello la posibilidad de disponer de ellos con fines maliciosos a través de redes de equipos controlados remotamente para la realización de ataques DDoS. Esta es la teoría manejada por Dyn que, con la ayuda de Flashpoint y de Akamai, ha conseguido identificar dispositivos IoT infectados por la botnet Mirai cuyo código fuente ha sido liberado recientemente.
Figura 2. Captura del repositorio de Github en el que ha sido liberado el código fuente de la botnet Mirai.
Figura 2. Captura del repositorio de Github en el que ha sido liberado el código fuente de la botnet Mirai.
Foto: ElevenPaths
Por otro lado, la compañía de seguridad RSA ha tenido constancia de que a principios de octubre se había puesto a la venta una botnet con dispositivos IoT infectados en un foro de la red Tor. Su vendedor afirmaba que ésta estaba basada en la botnet Mirai y que tenía la capacidad de generar un tráfico de hasta un terabit por segundo, similar al generado para el ataque perpetrado recientemente contra la empresa francesa de hosting OVH. Su precio rondaba desde los 4 600 dólares hasta los 7 500, en función del volumen de los sistemas contratados, una cantidad no muy elevada teniendo en cuenta el impacto que ha tenido a nivel mundial.
Figura 3. Venta de la botnet en el mercado Alpha Bay ubicado en Tor con conexiones a cámaras y frigoríficos.
Figura 3. Venta de la botnet en el mercado Alpha Bay ubicado en Tor con conexiones a cámaras y frigoríficos.
Foto: ElevenPaths
Los presuntos autores

En realidad, no está clara la autoría del ataque. Por un lado, Wikileaksconfirmó que algunos de sus seguidores podrían ser los responsables en protesta a la decisión del gobierno ecuatoriano de cortar la conexión a Internet a Julian Assange, el fundador de Wikileaks, debido a la reciente publicación de las fugas de información sobre las elecciones de Estados Unidos. Por otro lado, Pierluigi Paganini , el autor de la web Security Affairs, contactó con el grupo NewWorldHackers vía Twitter en donde dicho colectivo se atribuyó la autoría del ataque a la empresa Dyn junto en colaboración con otros grupos vinculados a Anonymous.

Así se gestó el ciberataque más grave de los últimos 10 años



Estados Unidos todavía se está recuperando del ciberataque perpretado este viernes y que dejó a millones de personas sin poder entrar en las webs más populares del mundo. TwitterSpotifyAmazonRedditTumblrPayPal, e incluso, las webs de medios tan importantes como 'The New York Times','Financial Times' o CNN, entre otros sufrieron una serie de ataques informáticos sucesivos que las dejaron K.O. durante horas.
¿Pero cómo es posible que un ciberataque a gran escala pudiera dañar a la vez a páginas tan destacadas? ¿Cuál pudo ser el origen del ataque? ¿Cómo lograron saltarse las grandes medidas de seguridad que se supone deben tener estas webs?
El objetivo del ciberataque fue el proveedor de Internet Dyn, que maneja y redirige tráfico en la Red. Sufrió un ataque de denegación de servicio (DDoS) en su sistema de dominio de Internet (DNS) que afectó "principalmente a la costa este de Estados Unidos", aunque más tarde dañó a otras localizaciones.
El servicio de dominio de Internet es el sistema que permite a los usuarios el escribir los nombres de las páginas, por ejemplo www.elmundo.es, en lugar de identificadores binarios asociados con los equipos conectados a la Red.

¿Cómo fue el ataque?

El servidor DNS utiliza una base de datos asociada a nombres de dominio. Aunque como base de datos el DNS es capaz de asociar diferentes tipos de información a cada nombre, los usos más comunes son la asignación de nombres de dominio a direcciones IP. Por ejemplo, si la dirección IP de la página de Google es 216.58.210.163, la mayoría de la gente llega a este equipo especificando www.google.es y no la dirección IP.
¿Y que tiene que ver esto con Dyn, la empresa atacada? DynDNS es una compañía de Internet, ubicada en Estados Unidos, dedicada a soluciones de DNS en direcciones IP dinámicas. Es decir, se trata de un proveedor de acceso al sistema DNS. El ataque que sufrió se conoce como denegación del servicio distribuido, o DDoS.
El DDos es cuando un servicio web está apabullado intencionalmente por el tráfico basura de muchas fuentes, de manera que los usuarios 'legales' no pueden acceder a la página. En resumen, son tantas las solicitudes para entrar en esas páginas que al final no queda sitio para los usuarios reales. Es un método muy común en los ciberataques.
Según la compañía, las primeras investigaciones apuntan a que el ataque provino de dispositivos conocidos como 'Internet of Things' (interconexión digital de objetos cotidianos con Internet), tales como DVR, impresoras y otros aparatos conectados a la Red. Según la empresa Gartner, en 2020 habrá en el mundo aproximadamente 26.000 millones de dispositivos conectados.
Los datos de Dyn señalan que el ataque se libró desde dispositivos infectados con un código malicioso (malware) que se publicó en la web en las últimas semanas.

¿Quién o quiénes están detrás del ataque?

La pregunta ahora es quién o quiénes pudieron llevarlo a cabo. En los primeros momentos del ataque las autoridades estadounidenses no descartaron ninguna de las posibilidades incluyendo que éste procediera de algún Gobierno, sobre todo dada la tensión entre EEUU y Rusia después de que Obama acusara a Moscú de robar información para influenciar en las elecciones del próximo 8 de noviembre, o incluso que proviniera de Corea del Norte.
Sin embargo, fuentes del servicio de inteligencia estadounidense informaron tras evaluar la situación que todo apuntaba "a un caso clásico de vandalismo en Internet", aunque por el momento siguen sin saber cuál ha sido su origen ni cuánto tiempo tardarán en averiguarlo.
De momento, grupo New World Hackers, distribuidos en Rusia y China, se han atribuido la responsabilidad del ciberataque. A través de un mensaje en su cuenta de Twitter han explicado cómo supuestamente lo llevaron a cabo.
Según este grupo de hackers estructuraron computadoras 'zombies' -ordenadores personales, que tras haber sido infectados por malware, son usados por terceras personas para ejecutar ataques- para que lanzaran a la vez 1,2 terabits de datos por segundo a los servidores gestionados por Dyn.
También el grupo Anonymous se atribuyó el ataque asegurando que lo realizaron en respuesta a la decisión de Ecuador de quitarle el acceso a Internet al fundador de Wikileaks, Julian Assange. El Gobierno estadounidense no ha confirmado ninguna de las dos 'confesiones' y asegura que sigue investigando lo sucedido.

La importancia de la gestión de energía en la virtualización de servidores

Un whitepaper de Eaton muestra los beneficios de la gestión energética para la virtualización de servidores, la orquestación en la nube y los entornos de TI integrados

La virtualización de servidores y las nuevas arquitecturas en la nube ofrecen a las empresas importantes ventajas. Entre ellas, menores gastos de hardware, una administración simplificada y una mayor disponibilidad. En consecuencia, prácticamente el 80% de las cargas de trabajo de servidores soportadas por hardware x86 se ejecutan ahora en máquinas virtuales, según estimaciones de Gartner.
No obstante, pese a esta adopción generalizada y a sus ventajas, la tecnología no está exenta de retos. En principio, la virtualización de servidores y la orquestación en la nube pueden ser útiles para ayudar a los responsables de TI e instalaciones a evitar un tiempo de inactividad durante averías energéticas.
Sin embargo, lo necesario para lograr esa promesa es garantizar que su data center también esté equipado con el software adecuado de gestión energética. Este whitepaper trata de cómo las soluciones más recientes de gestión energética mejoran el impacto de las tecnologías de virtualización de servidores y de nube sobre la continuidad del negocio y ayuda a data centers virtualizados, incluidos aquellos que utilizan entornos integrados como, por ejemplo, infraestructuras convergentes (Converged Infrastructure, CI) o hiperconvergentes (Hyper-Converged Infrastructure, HCI), a hacer frente de un modo más eficaz a las averías energéticas.
Al mismo tiempo, las soluciones de software avanzadas de gestión energética son la clave para un mayor control, productividad y capacidad de respuesta, a la vez que reducen las exigencias de infraestructura y los costes operativos.

La adopción de la virtualización en las empresas sigue aumentando

virtual, virtualizacion, red

Un estudio realizado por Red Hat confirma este hecho, pero pone de relieve que todavía tiene desafíos por delante como los altos precios de migración de las cargas de trabajo y el mantenimiento de entornos virtualizados.


Con el fin de analizar las tendencias y el uso de la virtualización en las empresas, Red Hat ha realizado un estudio en las que se pone de manifiesto el auge que tiene esta tecnología entre las empresas. De hecho, los encuestados indican que esperan aumentar en los dos próximos años tanto su infraestructura virtualizada como las cargas de trabajo, en un 18% y 20%, respectivamente. En este sentido, la mayoría de ellos señalan que emplean la virtualización para facilitar la consolidación de servidores, aumentar el tiempo de aprovisionamiento, ahorrar costes y proporcionar una infraestructura para que los desarrolladores puedan construir y desplegar aplicaciones.
Para todos ellos, las cargas de trabajo virtualizadas más comunes son las aplicaciones web, incluyendo sitios web (73%), los servidores de aplicaciones web (70%) y las bases de datos (67%). El 85% de los encuestados indica que desarrollan las aplicaciones sobre máquinas virtuales, y un 61% afirma que despliegan estas aplicaciones en una infraestructura virtualizada.
Por otro lado, los líderes de TI no esperan que la virtualización traiga sorpresas a sus operaciones, pues proporciona una tecnología fiable y altamente disponible. Cuando se pregunta acerca de las capacidades más importantes que proporciona, las respuestas más frecuentes son la fiabilidad (79%), la alta disponibilidad (73%) y el rendimiento (70%); seguido de cerca por la seguridad y la escalabilidad.
Ahora bien, la virtualización aún tiene desafíos por delante. Casi el 40% de los encuestados piensa que los presupuestos y costes son un tema clave, sobre todo en relación con los altos precios de migración de las cargas de trabajo y el mantenimiento de entornos virtualizados. El estudio destaca que puede parecer extraño que el coste suponga tanto una ventaja como una desventaja a la vez; pero lo cierto es que depende del contexto. A largo plazo puede ahorrar dinero a las empresas, pero para lograrlo se necesita una fuerte inversión. Es más, la preocupación en torno a los costes puede ser la razón por la que los directores de TI buscan completar la virtualización con otras infraestructuras o entornos de desarrollo de aplicaciones como la cloud privada o los contenedores.

8 Consejos para proteger smartphones y tablets


proteger-smartphoneSophos Iberia quiere sumarse a la campaña de concienciación sobre los peligros existentes para los dispositivos móviles que ha comenzado el Centro Europeo de Ciberdelincuencia de Europol (EC3) y las distintas fuerzas y cuerpos de seguridad de 22 países europeos (incluida España) y tres no pertenecientes a la UE (Colombia, Noruega y Ucrania).
Esta iniciativa se enmarca dentro del Mes Europeo de la Seguridad Cibernética y busca recordar que el riesgo de malware móvil es real: los hackers pueden robar el dinero y la información confidencial, usar estos dispositivos como bots e incluso espiar sus actividades.
La Policía Nacional, que también forma parte de esta iniciativa, difundirá información mediante infografías, vídeos y gifs con pautas de prevención a través de TwitterFacebook, en su canal en YouTube o en su cuenta Instagram.
Desde Sophos Iberia queremos aportar nuestro granito de arena aportando una serie de consejos para proteger nuestros smartphones y tablets.
  • Bloquea tu móvil con una contraseña segura.
  • Instala apps sólo desde sitios oficiales. No realices un jailbreak (eliminar limitaciones de seguridad impuestas por el proveedor).
  • No sigas enlaces no solicitados que recibas en correos electrónicos, SMS o cualquier otro tipo de mensajería.
  • Realiza copias de seguridad con asiduidad.
  • No te conectes a redes WiFi abiertas.
  • Ponte en contacto con tu operador de telefonía móvil para anular las llamadas a números de tarificación especial y a servicios “premium” de SMS.
  • Apaga los servicios de WiFi, geolocalización y bluetooth cuando no los uses.
  • Instala una app de seguridad móvil que incluya filtrado web, escaneo de apps, geolocalización y bloqueo y borrado remoto.
También nos gustaría recordar que disponemos de Sophos Mobile Security para proteger gratuitamente nuestro dispositivos Android. Esta herramienta, entre otras muchas funciones, permite detectar programas malicioso, bloquear apps no deseadas y amenazas online, además de proteger ante pérdidas y robos con bloqueo, borrado y localización remotos.
Esperemos que este tipo de iniciativas sirvan para que tomemos conciencia de las amenazas existentes para smartphones y tablets y adoptemos prácticas que ayuden a mejorar su protección.

¿Es el reciente ataque DDoS el primero de una nueva era?


ataque_ddosCon motivo del reciente ataque masivo DDoS, Chester Wisniewski, el principal investigador científico de Sophos, ha comentado:
“La caída de los servicios DNS primero en la costa este de Estados Unidos y su consecuente impacto en los clientes de Dyn, un proveedor de DNS, podría ser el inicio de una nueva era de ataques en internet dirigido vía ‘cosas inteligentes’. Está claro que estos objetos no son tan inteligentes como pensamos, ya que cualquiera puede hacer uso de ellos para dirigir un ataque a grandes sitios webs como Twitter, Reddit y Spotify. De cara al futuro, es fundamental que los fabricantes eliminen las contraseñas por defecto y garantizar que los dispositivos se puedan actualizar de forma remota y automática contra amenazas de seguridad, ayudando a prevenir este tipo de ataques recurrentes”
“La botnet supuestamente utilizada para llevar a cabo este ataque comprende aproximadamente 500.000 cámaras inteligentesafectadas, aquellas que están presentes en todos lados, como centros comerciales, vestíbulos, oficinas y tiendas. En este ataque sólo se han utilizado aproximadamente el 10 por ciento de estos bots, lo que demuestra el increíble poder ejercido desde un solo tipo de dispositivo. Existen millones de ‘cosas inteligentes’ más inseguras que podrían causar caídas de la red, si se intervienen”.
Sophos recomienda que las personas que tienen televisores inteligentes, luces, termostatos, routers y otros dispositivos conectados a Internet actualicen sus softwares regularmente y cambien inmediatamente la contraseña que viene por defecto a una contraseña más segura. En el mundo que vivimos, se considera ser un buen ciudadano, preocuparse por mantener seguros tus objetos para que no te perjudiquen a ti ni a otros”.

Las actualizaciones de software son críticas, automatízalas

Puede ser tentador ignorar las actualizaciones de software. Todo parece funcionar bien. A veces los programas se comportan de forma peculiar o se cierran inesperadamente. ¡Y tienes cosas más importantes que hacer! Los usuarios de Kaspersky Internet Security y de Kaspersky Total Securitydesde ahora pueden relajarse y dejar que el software se ocupe de las actualizaciones (de forma segura).

¿Actualizar o no actualizar?

¿Por qué debemos actualizar nuestro software? Bueno, lo primero que debemos entender es que hay diferentes tipos de actualizaciones. Algunas añaden nuevas características o mejoran las ya existentes. Otras hacen que tu software sea compatible con otros programas, con protocolos diferentes, sistemas operativos nuevos o actualizados, y demás. Con una mayor compatibilidad, se producen menos errores y bloqueos. Y, finalmente, hay actualizaciones de seguridad: parchean vulnerabilidades y errores críticos en tus programas.
Así que, cuando instalas las actualizaciones disponibles, tu sistema y tus programas deberían ser más seguros, estables y utilizables. (Es cierto que a veces las actualizaciones parchean un problema y, simultáneamente, crean otro, pero esa es otra historia).

¿En serio es tan importante?

Cuando todo funciona bien y estás contento con las características que tienes, es muy fácil olvidar las actualizaciones del sistema y de los programas. Pero es una mala idea, pues todavía debe preocuparte la tercera razón principal para actualizar: la seguridad.
Ten en cuenta que los exploits usan vulnerabilidades de software para acceder en silencio a privilegios y causar estragos en el sistema. Por ejemplo, pueden descargar e instalar otros tipos de malware (como un troyano) para robar dinero o software espía que permite al delincuente espiar a la victima mediante la webcam.
El año pasado, el kit de exploit Angler utilizaba vulnerabilidades de Java, Flash y de otras muchas extensiones del navegador para infectar masivamente el PC de la víctima con ransomware (el cual ha ayudado a los delincuentes a ganar unos 30 millones de dólares).
Normalmente, las infecciones llegan a la computadora de un usuario mediante algún engaño (las víctimas descargan e instalan malware pensando que es algo seguro). Aun así, los que tienen navegadores desactualizados (como el antiguo Internet Explorer) pueden infectarse al abrir una página web infectada o hackeada. El software antiguo permite a los delincuentes acceder al ordenador fácilmente.
Se descubren nuevas vulnerabilidades todo el tiempo. Si llevas tiempo sin actualizar tu software, los delincuentes probablemente conozcan miles de formas de hackearlo. Los desarrolladores parchan estas vulnerabilidades con actualizaciones (pero si no las instalas, tu sistema seguirá siendo vulnerable).

¿Qué deberías actualizar primero?

Las actualizaciones más prioritarias son las del sistema. Windows 10 las instala automáticamente por defecto, pero comprueba tu sistema para confirmar si tu versión está configurada para actualizar automáticamente o, al menos, notificarte de nuevas actualizaciones disponibles. Luego, actualiza lo antes posible:
Asegúrate de que solo descargas todas las actualizaciones desde la página web oficial del desarrollador, en caso contrario corres el riesgo de caer en algunos de los trucos que hemos mencionado (descargar </>malware en lugar de la actualización que necesitas).

Tengo muchas cosas en mente. ¿Se puede automatizar todo?

¡Instalar actualizaciones puede dar dolor de cabeza! Si no quieres usar parte de tu tiempo para hacerlo, puedes usar un software especial que analizará tu sistema e Internet en busca de actualizaciones. Los usuarios de Kaspersky Internet Security y de Kaspersky Total Security pueden usar nuestra nueva característica, Actualizador de software.
Este módulo está desactivado por defecto. Pero, si quieres, puedes usarlo para permitir que nuestra solución descargue actualizaciones de las páginas web de los desarrolladores para su posterior instalación. Este módulo funciona en silencio y causa un impacto mínimo en el rendimiento. También puedes crear una lista personalizada de software que no quieres que se actualice (por si, por ejemplo, prefieres una versión anterior por alguna razón).