sábado, 5 de agosto de 2017

Defiende tu infraestructura de los ciberataques más comunes

seguridad

En 2016, el malware infectó al 98% de las empresas encuestadas por Ponemon Institute. Descubre cuáles son los ciberataques más habituales y cómo los servidores HPE ProLiant Gen10 con procesadores Intel® Xeon® impulsan la seguridad informática empresarial hasta la capa del firmware.


Según una encuesta realizada por Ponemon Institute a 237 pymes, el malware infectó al 98% de estas empresas en 2016. Este dato subraya cómo los ciberataques impactan a las organizaciones de todos los tamaños. Sin embargo, dirigir un negocio próspero e innovar nuevas soluciones, mientras eludes las consecuencias financieras y de reputación de marca de los ciberataques, puede ser un reto monumental.

Ese mismo informe revela los ocho vectores de ataque más comunes y el porcentaje de empresas afectadas por cada tipo, que son:
Malware - 98%
Phishing e ingeniería social - 70%
Ataques basados en la web - 63%
Código malicioso - 61%
Botnets - 55%
Dispositivos robados - 50%
Denegación de servicio - 49%
Empleados maliciosos - 41%
La variedad de estos ataques y el número de empresas que los sufren ilustran cómo la seguridad empresarial de TI es un objetivo en constante evolución. Los ciberatacantes van a donde encuentran la menor resistencia, y como las defensas de hoy se centran principalmente en proteger el software, los ciberdelincuentes ahora están poniendo foco en el hardware del sistema.
El nivel más profundo de cualquier sistema de hardware es el firmware, y ahí es donde se puede hacer más daño. Una vez que los hackers obtienen el control del firmware, pueden manipular todo en ese dispositivo, lo que puede darles acceso a otros dispositivos a través de la red para propagar sus ataques.
La protección del firmware requiere considerar las vulnerabilidades en toda la cadena de suministro de componentes del fabricante del servidor. Otros riesgos potenciales para la seguridad de la infraestructura de TI incluyen el código que se ejecuta en el servidor y la entrada y salida de datos del servidor en la red. Cualquier servidor conectado a Internet debe estar protegido.
HPE ha ideado una estrategia de seguridad de la infraestructura para ayudar a las empresas a asumir el reto de seguridad del firmware a través de las capacidades únicas de protección, detección y recuperación del servidor ofrecidas por la cartera de servidores HPE ProLiant Gen10 con procesadores Intel® Xeon®. HPE es propietaria de la cadena de suministro de ProLiant, lo que le da más control sobre la seguridad del hardware. Por ejemplo, gestiona el proceso de instalación de firmware en placas base, y desarrolla su propia BIOS.
Los servidores de la cartera de HPE también proporcionan un mayor nivel de seguridad física de TI aprovechando una “raíz de confianza en el silicio”, que se graba en los componentes de la placa base. Esto hace que los servidores ProLiant sean literalmente imposibles de comprometer. Cada vez que un sistema arranca, el firmware lo comprueba para asegurarse de que es legítimo. De no ser así, las funciones de recuperación mejoradas devuelven el firmware a su estado original.
El catálogo de servidores ProLiant Gen10 también incluye otras medidas de hardware de seguridad de TI, incluido el algoritmo CNSA, que asegura que nada nefasto ocurre dentro de los servidores, y la tecnología Intel TXE, que certifica que el hardware coincide con el sistema operativo apropiado.

¿Es seguro guardar información corporativa en Google Drive (o servicios similares)?



A la hora de almacenar información confidencial de la empresa y/o guardarla como copia de seguridad, suelen surgir varias dudas con respecto a la ubicación donde se va a realizar este almacenamiento. Los hay quienes apuestan a gestionarlo todo ellos mismos, proporcionando acceso remoto para que sus empleados puedan consultarla cuando la necesitan.
ESTAS EMPRESAS ADOPTARON LAS MEDIDAS NECESARIAS PARA PROTEGER LA INFORMACIÓN DE SUS USUARIOS
Otros, sin embargo, han abrazado la nube y sus ventajas, como el menor coste que supone elegir empresas dedicadas específicamente a estos menesteres y a la disponibilidad que se tiene de la información, independientemente de dónde nos encontremos (siempre que dispongamos de una conexión a Internet, claro está).
Pero cuando hablamos de seguridad en estas decisiones la cosa ya no está tan clara y no son pocos los recelosos de almacenar información confidencial fuera de su empresa. Todo esto a pesar del importante crecimiento que han tenido entre empresas de todo el mundo servicios como Google Drive o Dropbox en los últimos años.

Almacenamiento en la nube, ¿sí o no?

A la hora de decantarse por una u otra solución deberíamos hacernos varias preguntas, pero quizás una de la más importante sea: ¿puedo ofrecer un nivel de seguridad mayor que el que proporcionan estas empresas externas a la hora de proteger estos datos?
Este punto es muy importante, puesto que la mayoría de empresas dedicadas a ofrecer estos servicios suelen contar con unas buenas medidas para evitar que los datos de sus usuarios se vean comprometidos.
Sin embargo, el principal problema no se encuentra en la seguridad que implementan en sus servidores. La gran mayoría de robos de información se producen por una mala política de control de acceso y gestión de credenciales por parte de los usuarios.

Medidas de seguridad adicionales

Créditos imagen: ©blunkswife/Flickr
De nada nos sirve contar con el mejor y más seguro servicio de almacenamiento en la nube si luego los usuarios que acceden a esos recursos utilizan contraseñas fáciles de adivinar o que ya han sido utilizadas en otros servicios que han sido comprometidos. Hace falta implementar medidas adicionales y, si el servicio que vamos a contratar permite configurar un mecanismo de autenticación de doble factor, mejor que mejor.
Además, independientemente de lo seguro que sea el servicio de almacenamiento contratado, nunca está de más que los datos almacenados tanto dentro como fuera de nuestra empresa se encuentren cifrados. De esta forma evitaremos que, ante un posible incidente que permita a los atacantes acceder a esta información, esta no pueda ser leída de forma sencilla, minimizando así el impacto de la intrusión.
A LA SEGURIDAD QUE APLIQUE EL PROVEEDOR SE DEBEN SUMAR POLÍTICAS ADICIONALES
Por último, no debemos descuidar quién puede acceder a qué tipo de información y qué puede hacer con ella. Si dejamos que cualquier empleado pueda acceder a información confidencial y luego esta pueda filtrarse por otros medios, no habremos conseguido prácticamente nada.
Para evitarlo, es necesario adoptar herramientas de prevención de filtraciones de datos, usando para ello aplicaciones que detecten cuando ciertos usuarios sin permisos están intentando acceder a cierto tipo de información confidencial o se está enviando fuera de la empresa utilizando medios no autorizados.

Cumplimiento de normativas

Además de todo lo expuesto, hay que tener en cuenta algo muy importante que muchas empresas no toman en consideración… hasta que es demasiado tarde y empiezan a recibir multas por incumplimiento de normativa. Dependiendo de dónde tengamos la sede o sedes de nuestra empresa y dónde se encuentren nuestros clientes y proveedores, deberemos adaptarnos a la legislaciónvigente y cumplir con una serie de medidas.
Por ejemplo, si nuestra empresa está en la Unión Europea o hacemos negocios con usuarios de esa región, deberemos adaptar nuestros mecanismos de gestión y almacenamiento de datos según el GDPR, de obligado cumplimiento a partir del 25 de mayo de 2018. Este hecho plantea nuevas cuestiones y una de ellas es si los servicios de almacenamiento como Google Drive o Dropbox cumplen con la normativa.
Las empresas que gestionan estos servicios son conscientes de la necesidad de cumplir con todos los requerimientos en materia de gestión de la información almacenada por sus usuarios en sus servidores. Por eso, no tardaron en adoptar todas las medidas necesarias para ponerse al día.
A fecha de hoy tanto Google como Dropbox cumplen no solo con la normativa impuesta por el GDPR, sino también con el Escudo de Privacidad, acuerdo firmado entre los países miembros de la Unión Europea y Estados Unidos.

Conclusión

Podríamos decir que la utilización de soluciones de almacenamiento y compartición de archivos en la nube son seguras siempre y cuando se cumpla una serie de normas y reglamentos internacionales, y además apliquemos por nuestra parte ciertas políticas de seguridad adicional.
No obstante, nunca debemos de descuidar la seguridad de la información almacenada tanto dentro como fuera de nuestra empresa, ni creer que depende de otros. Debemos emplear todas aquellas medidas de seguridad adicionales que estén a nuestro alcance para protegerla de forma apropiada.

Así es como el cloud mejora la productividad de las empresas

Mejorar los procesos internos de las compañías para lograr una mayor eficiencia es una cuestión que está siempre en el centro del debate. En los últimos años, el cloud ha ganado posiciones como una de las soluciones preferidas por las empresas. Su bajo coste de implantación, su alta adaptabilidad y el mínimo mantenimiento requerido tienen mucho que ver en esta elección.

Un estudio realizado por Capgemini revela que se ha producido un salto en la adopción del cloud por parte de las empresas.
En concreto, se ha incrementado el uso de aplicaciones nativas en la nube, desarrolladas para obtener un rendimiento óptimo y aprovechar al máximo el modelo de Plataforma como Servicio (PaaS).
La confirmación de que las aplicaciones y servicios nativos en cloud mejoran la agilidad y la innovación del negocio ha supuesto que, actualmente, el 15% de las nuevas aplicaciones de las empresas sean nativas de la nube.
Esta tendencia, además, no parece que se vaya a frenar: se espera un rápido crecimiento en los próximos tres años, hasta representar el 32% en 2020.

Pero ¿conoces cómo puede el cloud ayudar a las compañías?

La consecuencia final de la adopción de las herramientas en la nube ha traído consigo sería el ahorro de tiempo, y por tanto procesos más rápidos y eficientes, ¿quieres saber cómo se consigue?

Acciones de marketing al alcance de más gente

Las herramientas en la nube son las que han promovido la democratización de herramientas que antes sólo estaban al alcance de grandes presupuestos, o bien de perfiles muy específicos.
Un ejemplo es la herramienta Unbounce, que permite la creación de las llamadas “landing page” de una manera rápida y sencilla, así como la realización de test A/B detallados.
¿Su mayor ventaja? La sencillez, ya que no es necesario tener un departamento informático para manejar herramientas como éstas.

Simplificación de las tareas administrativas

Así es como el cloud mejora la productividad de las empresasEn la era digital, aún seguimos utilizando grandes cantidades de papel en nuestra oficina, con los problemas de organización, gestión y almacenaje que esto provoca.
Sin embargo, hay herramientas que te ayudan a reducir este gasto de tiempo y dinero.
Un ejemplo es Xpenditure, que digitaliza y organiza las facturas en papel a la vez que te da la posibilidad de exportarlas de manera sencilla.

Mejorar la productividad

La productividad es otro de los grandes caballos de batalla de la empresa, para el que la tecnología cloud también aporta soluciones.
Las herramientas en la nube tienen dos beneficios en este sentido: el teletrabajo y la accesibilidad.
Y lo dicen también las cifras: el 63% de las empresas que ha establecido medidas que fomentan el teletrabajo reportan ahorros de costes.
Las herramientas en la nube permiten acceder a toda la información, archivos, contactos, comunicaciones y aplicaciones corporativas desde cualquier dispositivo, evitando así la dependencia de un dispositivo en concreto.
Además, la integración de todos los sistemas de comunicaciones basados en el cloud incrementa la capacidad y velocidad de respuesta en las comunicaciones internas y externas, fomentando la eficiencia y la productividad.

Acelerar el proceso de ventas

Otro de los grandes riesgos para las empresas hoy en día, en un mercado tan digital y globalizado, es la ralentización en los procesos de ventas.
Ante este panorama, han ido surgiendo herramientas profesionales de videoconferencia en la nube, que salvan los kilómetros y las horas de diferencia de una manera eficiente, y en las que la calidad de la llamada es prioritaria.

Mejorar la comunicación y la colaboración

En entornos de trabajo digitales, la comunicación interna se torna un elemento fundamental a la hora de buscar fines comunes y objetivos claros.

Empresas aprovechan más a sus empleado cuando trabajan desde la casa

Estudio pionero sobre la productividad del teletrabajo, dirigido por la Universidad de Stanford, arroja nuevas luces sobre esta modalidad laboral.

Teletrabajo

Appesar de los aspectos negativos que han surgido alrededor del trabajo en casa, los beneficios de esta modalidad laboral son mucho más contundentes que los prejuicios que van en su contra, sostiene el profesor de la escuela de Negocios de la Universidad de Stanford, Nicolás Bloom.

Poseedor de un doctorado en economía en el College de Londres, y una maestría en Filosofía en la Universidad de Oxford, Bloom, de origen inglés, sostiene que la antigua tradición que exige la presencia de los empleados en la oficina, es obsoleta, y desconoce las múltiples opciones que brindan las tecnologías de la información para lograr de esa forma de trabajo, resultados que benefician tanto al trabajador como a las propias empresas.

Señala que dicha modalidad adquiere mayor validez en campos como el de los servicios, aunque también es claro que, a nivel de gerentes, en diversos sectores económicos, las empresas mantienen su rendimiento, aun cuando estos acostumbran trabajar desde su casa por lo menos un día a la semana. 

En el fondo, indica, se trata de una modalidad que está en línea con el deseo generalizado de la sociedad, de equilibrar la vida familiar con la familiar.

En el núcleo de las empresas estadounidenses, por ejemplo, las actitudes gerencias frente a dicha modalidad de trabajo, responden a muy diferentes criterios. Por ejemplo, en el área de los servicios de compañías áreas, explica, en empresas como JetBlue, la política es que todo el personal de ventas y reservas, trabaje desde la casa; en tanto que, en American Airlines, todo el personal debe operar en la oficina; mientras que en United Airlines, hay una mezcla de alternativas.

No obstante, bajo el propósito de detallar los aspectos poco conocidos, buenos y malos, del denominado teletrabajo, Bloom emprendió el mayor experimento sobre la materia, estudiando de primera mano a una empresa que sirvió de laboratorio para tal fin: la mayor agencia de viajes de China, CTrip, con 16.000 empleados.

En un proyecto que se extendió por dos años, Bloom, con la anuencia de los directivos de la empresa, eligió cerca de 1.000 empleados voluntarios. Repartidos en dos grupos con idénticas tareas, y dotados con el mismo equipo de computación, uno trabajando toda la semana en su sede en Shanghái, y el otro, en su casa durante 4 días, y el quinto día en la oficina principal.

RESULTADOS 

El rendimiento creció en promedio 13 por ciento, para el grupo de trabajadores en casa, y la productividad subió 4 por ciento por minuto. La tasa de deserción, uno de los fenómenos que más afectan ese tipo de industria, cayó 50 por ciento. 

En general, la compañía se ahorró un promedio de US$2.000 por empleado, de los cuales US$1.400 correspondieron a costos operativos, en especial los relacionados con el arrendamiento de oficina.

Se estima que reclutar y entrenar un nuevo empleado, implica por lo menos ocho semanas laborales, con su correspondiente costo para la empresa.

Por otro lado, mediante encuestas que se realizaron posteriormente, los trabajadores involucrados expresaron sentirse más satisfechos por trabajar en casa, poderse tomar tranquilamente un café o un té, o sentarse a almorzar en un ambiente tranquilo. 
Sorprendentemente, trabajaron nueve minutos más por día, que sus colegas de oficina. 

Pero asimismo anotaron algunas preocupaciones iniciales, previas al experimento, como la sensación de quedar marginados del ambiente de la empresa, de perder las posibilidades de crecimiento que dan las relaciones interpersonales, y de quedar excluidos de los procesos de promoción y ascenso.

Sin embargo, en este último aspecto, se verificó que, durante el periodo de la investigación, el 17 por ciento de los integrantes fueron ascendidos a posiciones superiores en la empresa. 

HPE presenta los servidores x86 “más seguros del mundo”



Las capacidades de la nueva generación de sistemas ProLiant Gen10 se potencian con mayor seguridad a nivel de chip. También llegan nuevas soluciones de computación de alto rendimiento.
HPE ha presentado en España la nueva generación de sistemas ProLiant y diversas soluciones para computación de alto rendimiento HPC. Adquisiciones como SimplivityNimble Storage o la alianza con Arista comienzan a dar sus frutos y los partners y clientes ya cuentan con estas opciones como parte del portfolio del fabricante. 
La principal novedad de los ProLiant Gen10 es la inclusión de nuevas instrucciones de seguridad a nivel de silicio, lo que implica que los clientes podrán evitar los crecientes ataques lanzados hacia elementos como el firmware. “Son una de las mayores amenazas en la actualidad que afectan tanto a empresas como a Administraciones Públicas”, declaraba en rueda de prensa Noel Goicoechea, Director de Ventas y Negocio, Data Center & Hybrid Cloud.  
Tanto es así que en 2016, más de la mitad de los profesionales especializados en ciberataques han informado de algún incidente de firmware infectado por malware, lo que pone de manifiesto la peligrosidad y sofisticación de dichos ataques.  
Hay que tener en cuenta que el firmware es la información que se ejecuta antes del sistema operativo, por lo que en caso de que el chip que lo aloja se vea afectado, ningún otro software podrá resolver la incidencia, quedando el equipo caído hasta su actualización manual.  
HPE denomina esta innovación Silicon Root of Trust, capaz de limitar la ejecución del código incluido en el firmware de los sistemas. Las instrucciones de seguridad, tal y como indica el fabricante, se encuentran implementadas en el chip del iLO(Integrated Lights out). Para hacernos una idea, se trata de una huella única que debe coincidir con el propio firmware para que los servidores puedan arrancar.  
“Las brechas de seguridad en el firmware son las más difíciles de detectar por los administradores, siendo además las más dañinas para el conjunto del sistema”, apuntaba el directivo.  
Además de los comentados avances en materia de seguridad, la plataforma Gen10 ofrece una nueva experiencia informática, destacando una mayor agilidad a la hora de administrar y orquestar todos los componentes. Esto se consigue a través de la Infraestructura Definida por Software, cada vez más presentes en el mundo del centro de datos. Aquí, HPE ha incorporado novedades como HPE OneView 3.1 (gestión por software de computación, almacenamiento y redes), HPE Intelligent System Tuning (optimización de la frecuencia de proceso de los núcleos en función de las cargas de trabajo). 
En la parte de hardware, se han presentado los HPE Synergy for Gen10, unos módulos que permiten incrementar el rendimiento de las cargas de trabajo que requieren gran cantidad de datos, así como HPE Scalable Persistent Memory, una solución de almacenamiento que imita el rendimiento de la memoria RAM de los sistemas.  

Computación de alto rendimiento, también con mayor seguridad 

En el área de HPC, el fabricante también ha aprovechado para lanzar nuevas soluciones que den respuesta a las necesidades de computación en ciencias, investigación, ingeniería, empresas… Se trata de los sistemas HPE Apollo 6000 gen10HPE SGI 8600 y HPE Apollo 10 Series. Todos han sido optimizados para mejorar el rendimiento y proporcionar los resultados de los cálculos masivos en el  menor tiempo posible. En el caso de la serie Apollo 6000 también se ha integrado la seguridad en chip mediante las instrucciones Silicon Root of Trust comentadas anteriormente.  
Todos estos sistemas y soluciones estarán disponibles a lo largo de este verano a través de los partners de canal de HPE.  

¿Por qué se siguen concretando los ataques informáticos?

Si se desea mitigar los riesgos por los ataques informáticos, la respuesta se puede encontrar por medio de un análisis de las soluciones de seguridad con las que cuenta su empresa actualmente.



El riesgo residual informático es aquel que permanece después de aplicar las contramedidas que la seguridad tradicional informática ha recomendado, por su diseño basado principalmente en detener lo conocido, dicho riesgo por mucho tiempo fue ignorado y por tanto no modelado en los más robustos esquemas de seguridad implantados hasta ahora para reducir los ataques informáticos.
Hoy en día, sabemos que este riesgo residual se presenta en absolutamente todas las verticales de negocio, siendo este el que mayor daño causa a las organizaciones por la exfiltración de información confidencial que impacta directamente en la pérdida de competitividad, rentabilidad y que daña irreversiblemente la imagen de solidez y confiabilidad lograda tras muchos años de esfuerzo.
Es preciso establecer la estrategia correcta para mitigar de manera efectiva este peligroso riesgo residual, a continuación, mencionare­mos las herramientas indispensables de esta estrategia:
  1. -Al respecto de la seguridad perimetral (firewalls, preventores de intrusos, filtros de navegación web y control de aplicaciones), se debe implementar una solución que no solo haga su trabajo, sino que pueda aprender por medio de mecanismos de inteligencia, análisis del comportamiento anormal interno-externo, que incluya técnicas de auto mitigación ante los ataques a través de correlacionamiento interno inteligente. Porque solo así las funciones de seguridad dejarán de trabajar aisladamente proveyendo finalmente una verdadera seguridad de perímetro inteligente.
  2. -Para la seguridad del endpoint (computadoras de los usuarios) se debe elegir una herramienta donde el antivirus o el confinamiento de aplicaciones no sea su función principal (porque esto es parte del conjunto de funciones de la seguridad tradicional que mencionamos anteriormente). Sino el análisis del comportamiento de las piezas informáticas que se ejecutan, desde la perspectiva de explotación de vulnerabilidades no conocidas para así, poder proteger al activo informático donde reside el conocimiento de las operaciones estratégicas de la organización (emails, credenciales de acceso, espionaje por secuestro de cámaras webs de altos directivos entre otros).
  3. -Para el establecimiento de una estrategia integral de gestión de vulnerabilidades conocidas (que representan aproximadamente el 40% de las puertas de penetración de los ataques avanzados) no bastan las herramientas de escaneo simple tipo one shot (escaneos semestrales o pruebas de penetración) donde la vigencia de este análisis caduca a los minutos de ejecutarla (dado que la ventana de riesgo permanece durante cada ejercicio de escaneo aunque la vulnerabilidad se haya resuelto).Se requiere una herramienta de monitoreo continuo que además exprese los niveles de riesgo y salud de la seguridad en términos de los indicadores de buenas prácticas y cumplimiento de las normatividades aplicables (ISO-27000, PCI, HIPAA, NIST Ciber Security Framework, etc.) por medio de reportes, dashboards de tiempo real y scorecards.
  4. -Por último y como la joya de la corona de la seguridad informática, se debe implementar la seguridad interna y la rápida remediación (identificación y reacción en cada etapa del ataque), para esto se requiere de una herramienta completamente diferente a los que el común del mercado ofrece pero que se remonta a las bases mismas de la seguridad informática, el engaño.Las técnicas de engaño para ser efectivas deben ser automatizadas en su despliegue, administración, mantenimiento y gestión de incidentes, además deben comportarse a la altura y tener técnicas de atracción, malinformación, redirección, retraso y confinamiento al atacante en absolutamente todas las etapas del APT (Ataque Avanzado Persistente y Dirigido).

Finalmente, si se desea mitigar los riesgos residuales de los APTs la respuesta no está en el marketing o largas carreras de los fabricantes tradicionales de la industria de la seguridad informática sino en un análisis profundo de las soluciones de seguridad en términos de ¿cómo hace lo que dice que hace?  y ¿qué tanto hace de lo que se necesita hacer?

HPE presenta nuevos servidores ProLiant con seguridad por hardware en el firmware

Servidores HPE ProLiant

Hewlett Packard Enterprise (HPE) ha presentado su nueva generación de servidores ProLiant, que asegura son lo más seguros del mundo al incorporar seguridad basada en silicio. Basándose en esta nueva base segura, HPE también ha anunciado varios avances en infraestructura definida por software,que según la compañía proporcionan nuevos niveles de agilidad y una mayor flexibilidad económica.
HPE explica que es la primera compañía que responde a las amenazas en seguridad, con el desarrollo de “silicon root of trust”, un enlace único entre el silicio personalizado de HPE y el firmware HPE Integrated Lights Out (iLO), para asegurar que los servidores no ejecuten código de firmware infectado. La incorporación de este mecanismo de seguridad del firmware en el silicio de HPE ofrece una protección extraordinaria contra ataques al firmware, además de la posibilidad de recuperar automáticamente el firmware esencial del servidor.
“Silicon root of trust” de HPE incorpora la seguridad directamente en el chip del iLO, creando una huella dactilar inalterable en el silicio y evitando que los servidores arranquen, a menos que el firmware coincida con la huella. Como HPE tiene control total sobre sus propios chips de silicio elaborados a medida, y sobre el firmware esencial del servidor, es el único proveedor del sector que puede ofrecer esta ventaja. La nueva protección “silicon root of trust” incluye tecnologías innovadoras para cifrado y detección de brechas de seguridad, y se complementa con la seguridad de la cadena de suministros de HPE con la valoración de seguridad y Ios servicios de protección de HPE Pointnext.
“Por desgracia, el firmware se ignora a menudo en las conversaciones entre los directivos sobre seguridad en centros de datos, y los ciberdelincuentes se aprovechan de ello, lanzando nuevos ataques dirigidos a este componente informático”, explica Patrick Moorhead, presidente y analista en la empresa de asesoría y análisis tecnológico Moor Insights & Strategy. “Aunque muchos servidores llevan incorporada seguridad en el hardware, HPE está creando una seguridad del firmware indisolublemente ligada al silicio hecho a medida, para ayudar a los clientes a protegerse de esos ataques maliciosos”.

Infraestructura definida por software

En el terreno de la infraestructura definida por software, HPE ha anunciado varias actualizaciones, incluyendo:
  • HPE OneView 3.1. Ofrece soporte a la plataforma de servidores Gen10 de extremo a extremo, y transforma la informática, el almacenamiento y las redes, para convertirlos en una infraestructura definida por software. La próxima generación – la versión 3.1 – ofrece unas prestaciones de almacenamiento transformables, mejoras en la gestión del firmware y ampliación del soporte para una amplia gama de plataformas informáticas de HPE y soporte a los partners de un nuevo ecosistema transformable, entre los que se incluyen Mesosphere DC/OS. Por otra parte, HPE y Mesosphere anuncian una alianza estratégica que va a ayudar a los clientes a beneficiarse de un diseño conjunto, de una arquitectura de referencia y una reducción del tiempo necesario para crear valor.
  • HPE Intelligent System Tuning. Ofrece una experiencia dinámica con las aplicaciones en alianza con Intel para los Intel Xeon Processor Scalable family. Estas prestaciones exclusivas incluyen la modulación de frecuencia (mejora de la fluctuación), el incremento del rendimiento (mejora de los núcleos), y el ajuste del servidor para satisfacer las necesidades de los distintos perfiles de cargas de trabajo.
  • HPE Synergy for Gen10 . Incluyendo los equipos HPE Synergy 480 y HPE Synergy 660. Estos módulos incrementan el rendimiento de las cargas de trabajo que precisan una gran cantidad de datos y de potencia cómputo, como por ejemplo la elaboración de modelos financieros. Asimismo, proporciona una conectividad Ethernet 25/50 GB innovadora y un almacenamiento de conexión directa (DAS).

  • HPE Scalable Persistent Memory. Una solución de almacenamiento integrada que funciona a velocidades de memoria con capacidad a escala terabyte, que proporciona nuevos niveles de rendimiento informático con persistencia incorporada. Con hasta 27 veces más velocidad para las operaciones de puntos de control de aplicaciones y 20 veces más velocidad en restauración de bases de datos la HPE Scalable Persistent Memory ofrece la memoria persistente más rápida en el mercado en términos de escala.

Sophos, reconocida por Gartner como líder en seguridad de 'endpoints' y redes

La firma de seguridad ha sido posicionada como líder del Cuadrante Mágico de Gartner 2017 para la Gestión Unificada de Amenazas (SMB Multifunction Firewalls) por sexto año consecutivo.

Incidentes ciberseguridad lupa datos
Sophos anuncia que ha sido posicionada una vez más en el cuadrante “Líderes” de Gartner del 20 de junio de 2017, en el “Cuadrante Mágico para la Gestión Unificada de Amenazas (SMB Multifunction Firewalls).” El cuadrante se basa en la evaluación de la capacidad de ejecución y visión global de las empresas.
Sophos es uno de los tres únicos fabricantes posicionados en el cuadrante de Líderes en este último informe, y la única compañía de seguridad TI posicionada constantemente por Gartner como Líder, tanto en el Cuadrante Mágico de Plataformas de Protección Endpoint de enero de 2017 como en el Cuadrante Mágico para la Gestión Unificada de Amenazas.
“Creemos que el constante posicionamiento de Sophos como líder en este informe respalda la fortaleza de nuestra visión y capacidad para ofrecer productos escalables, fiables y con los mayores niveles de protección tal y como demandan nuestros clientes”, comenta Dan Schiappa, Vicepresidente Senior y Manager General de los Enduser y Network Security Groups de Sophos. “Empresas de todos los tamaños tienen que hacer frente a amenazas conocidas y desconocidas de forma cotidiana, y se ven bombardeadas por alertas e información de seguridad desde el endpoint hasta el servidor.
Para convertir toda esa información de seguridad en acción de seguridad aprovechable, Sophos continúa invirtiendo en su estrategia de seguridad sincronizada que conecta directamente la seguridad UTM y endpoint dando una respuesta más rápida y automatizada. El crecimiento de mercado de nuestros negocios de redes y endpoint demuestra que estamos cumpliendo con una necesidad de mercado que se está expandiendo rápidamente”.
El negocio de la seguridad de redes de Sophos continúa ganando cuota de mercado debido a su facilidad de uso, la riqueza de sus funcionalidades de seguridad y la satisfactoria integración con su producto endpoint. En el año fiscal finalizado el 31 de marzo del 2017, Sophos registró un crecimiento en la facturación del 17.8% hasta los 319.1 millones de dólares en los negocios de seguridad de redes, que está muy por encima del crecimiento registrado del mercado de un 10%. Para el mismo periodo, los negocios de UTM y de Firewall de Nueva Generación (NGFW) supusieron aproximadamente la mitad de la facturación de Sophos a nivel global.

Pérdida de información: Una pesadilla para las empresas

infografía

¿Qué es la hiperconvergencia?

SistemaHiperconvergente

La hiperconvergencia combina el cálculo, el almacenamiento y la conexión en red en un dispositivo basado en software.
Hiperconvergencia es un marco de TI que combina almacenamiento, computación y redes en un único sistema en un esfuerzo por reducir la complejidad del centro de datos y aumentar la escalabilidad. Las plataformas hiperconvertidas incluyen un hipervisor para la computación virtualizada, almacenamiento definido por software y redes virtualizadas, y normalmente se ejecutan en servidores estándar.
Se pueden agrupar varios nodos para crear agrupaciones de recursos de computación y almacenamiento compartidos, diseñados para un consumo conveniente. El uso de hardware de productos, soportado por un solo proveedor, produce una infraestructura diseñada para ser más flexible y más fácil de administrar que la infraestructura de almacenamiento empresarial tradicional. Para los líderes de TI que se están embarcando en proyectos de modernización de centros de datos, la hiperconversión puede proporcionar la agilidad de la infraestructura de nube pública sin renunciar al control del hardware en sus propias instalaciones.
¿Cómo difiere la hiperconversión de la infraestructura convergente?
La hiperconvergencia añade niveles más profundos de abstracción y mayores niveles de automatización. La infraestructura convergente implica un paquete preconfigurado de software y hardware en un único sistema para una gestión simplificada. Pero con una infraestructura convergente, los componentes de computación, almacenamiento y red son discretos y pueden separarse. En un entorno hiperconvertido, los componentes no se pueden separar; Los elementos definidos por el software se implementan prácticamente, con una integración perfecta en el entorno del hipervisor. Esto permite a las organizaciones expandir fácilmente la capacidad mediante la implementación de módulos adicionales.
¿Cuáles son los beneficios de las soluciones de infraestructura hiperconvertida?
La infraestructura de Hiperconvergencia promete ofrecer simplicidad y flexibilidad en comparación con las soluciones heredadas. Los sistemas de almacenamiento, servidores y conmutadores de red integrados están diseñados para ser administrados como un único sistema, en todas las instancias de una infraestructura hiperconvertida. Las capacidades inherentes de gestión permiten una mayor facilidad de uso y se espera que el almacenamiento definido por software produzca una mayor escalabilidad y mayor eficiencia en los recursos. Las empresas pueden comenzar pequeños y crecer los recursos según sea necesario. Los vendedores de HCI también promueven posibles ahorros de costes en áreas que incluyen energía y espacio en el centro de datos, trabajo de TI y evitar el uso de software con licencia, como herramientas de copia de seguridad o recuperación de desastres.
¿Qué cargas de trabajo son fuertes candidatos para la hiperconvergencia?
Los sistemas HCI estaban orientados inicialmente a la infraestructura de escritorio virtual (VDI) y otras cargas de trabajo de propósito general con necesidades de recursos bastante predecibles. Con el tiempo han pasado de ser soluciones especializadas para VDI en plataformas generalmente escalables para aplicaciones empresariales, bases de datos y nube privada, según la firma de investigación Forrester.
En una encuesta de profesionales de la infraestructura cuyas empresas están planeando, implementando o expandiendo su uso de sistemas hiperconvertidos, Forrester encontró que las cargas de trabajo más comunes que se están ejecutando en sistemas hiperconvertidos son: base de datos, como Oracle o SQL server (citado por 50%); Servicios de archivo e impresión (40%); Colaboración, como Exchange o SharePoint (38%); Escritorio virtual (34%); Software comercial empaquetado tal como SAP, Oracle (33%); Análisis (25%); Y cargas de trabajo orientadas a la Web tales como pila LAMP o servidores web (17%).

¿Teletrabajo por necesidad? Para esta megaciudad es mejor mantener a la gente en casa

Aparte de aliviar la congestión durante los Juegos Olímpicos de Tokio, las autoridades japones esperan que su iniciativa Telework Day se traduzca en prácticas de trabajo más flexibles.

(Foto: Bloomberg)

 Los habitantes de Tokio ofrecieron opiniones mixtas ayer al iniciarse la campaña gubernamental para conseguir que más de ellos trabajen desde sus casas.
El 24 de julio marcó el comienzo del primer ciclo de teletrabajo, por el cual se anima a la gente a trabajar a distancia mientras la ciudad se prepara para acoger los Juegos Olímpicos 2020. Las autoridades están buscando maneras de dar cabida a 920,000 espectadores que se espera que visiten Tokio cada día durante los juegos.
“No hay otra opción que pedir a los viajeros regulares que se queden en casa en vez de ir a sus oficinas”, dijo Azuma Taguchi, profesor de la Universidad de Chuo en Tokio. La alternativa, añadió, era un hacinamiento que podría causar accidentes y retrasos.
Con la población de Tokio de cerca de 14 millones de personas en el centro del conurbano más grande del mundo de alrededor de 35 millones de personas --muchos de los cuales viajan al centro de la ciudad cada día--, el reto logístico de mover a todo el mundo superará a los que enfrentaron los organizadores de los juegos de Londres en 2012.
Se esperaba que más de 750 empresas y organizaciones participen en la práctica del lunes, según el sitio web del Telework Day (Día del Teletrabajo). NTT Data Corp., por ejemplo, esperaba que 7,600 empleados de su personal evitaran el desplazamiento diario en el período pico de las 8 a 10 horas.
El Ministerio del Interior dijo que tomaría alrededor de un mes recolectar datos sobre cuántas personas participaron en lo que está programado para ser un evento anual. Mientras tanto, los usuarios de Twitter se dividieron en cuanto a los resultados, y algunos dijeron que los trenes estaban menos llenos de lo habitual y otros dijeron que no notaron diferencias.
Taguchi, quien ha desarrollado un simulador para el transporte en la ciudad durante los Juegos Olímpicos, dijo que al menos el 20% de los viajeros tendría que tomar parte en el Día del Teletrabajo para que este resulte eficaz.
Más ocio
Aparte de aliviar la congestión durante los juegos, el gobierno espera que se traduzca en prácticas de trabajo más flexibles.
El primer ministro Shinzo Abe se ha pronunciado a favor de cambiar la manera de trabajar de los japoneses, permitiendo a las personas más tiempo para la familia y las actividades de ocio, lo cual también podría impulsar el gasto del consumidor.
“Creo que todavía puede haber alguna renuencia entre las compañías japonesas tradicionales que piensan que no encaja en su tipo de trabajo”, dijo Jiro Akama, viceministro de Asuntos Internos, en una entrevista la semana pasada. “Pero queremos que prueben el teletrabajo”.
Para brindar un servicio a los que no pueden trabajar desde el hogar, la compañía ferroviaria Tokyu Corp. ha abierto una red de 70 espacios de oficina compartidos. La compañía dice que la demanda está subiendo un 10 por ciento al año.

¿No tienes seguridad en la web? Eres objetivo de ciberdelincuentes



Los atacantes usan ingeniería social para atraer a los usuarios y debido a que "todos somos curiosos", es posible caer en correo malicioso, de acuerdo con Cisco
El aumento en los usuarios de internet en México y las pobres prácticas de seguridad de los cibernautas los hacen vulnerables ante ataques al navegar en la red.
20/07/2017
 
11:27
Carla Martínez
 Ciudad de México 
El aumento en los usuarios de internet en México y las pobres prácticas de seguridad de los cibernautas los hacen vulnerables ante ataques al navegar en la red.

El reporte de medio año de ciberseguridad 2017 de Cisco encontró que del total de correos que recibes en tu bandeja de entrada, el 65% es spam y de ese porcentaje 8% es malicioso.
En conferencia de prensa, Yair Lelis, especialista de ciberseguridad de Cisco, explicó que en el caso de que el spam infeccioso incluya documentos en formato .zip, que son el 47% de los casos, los antivirus no los detectan, pues la descarga requiere un password incluido en el cuerpo del correo; por lo que es necesario tener una cultura de seguridad para no caer en este tipo de descargas.
Cifras del Inegi indican que en los últimos tres años se sumaron 16.5 millones de usuarios a internet en el país.
Sin embargo, Lelis aseguró que los millennials y zennials tienen una mayor cultura de seguridad informática.
Por otra parte el especialista de Cisco comentó que los atacantes usan ingeniería social para atraer a los usuarios y debido a que "todos somos curiosos", es posible caer encorreo malicioso.