About Vanessa Collado

This author has not yet filled in any details.
So far Vanessa Collado has created 536 blog entries.

Detrás del Firewall, Fortinet

Fortinet, líder global en seguridad de redes, recientemente ha publicado su  2016 CTAP: Threat Landscape Report, en el cual revela información de las amenazas actualmente existentes en las organizaciones. Los datos para su elaboración se obtuvieron de clientes Fortinet, así como de potenciales clientes.

Algunos puntos que se destacan son los siguientes:

De manera global existieron 32.14 millones de intentos de ataque, en promedio 81,000 por cada organización. El malware se propaga principalmente a través de dos vectores clave, el correo electrónico y el tráfico web. Se registraron intentos de infección a través de plataformas de mensajería instantánea pero en una escala mucho más pequeña.

Se detectaron 71 diferentes variantes de malware, la actividad botnet es todavía dominante y una significativa preocupación para los equipos de seguridad. Nemucod es un caso destacado, debido a que en la última parte de 2015 fue utilizado para distribuir versiones más recientes de ransomware como Teslacrypt y Cryptolocker. En una de cada seis organizaciones fue detectado algún botnet.

Los ataques fueron dirigidos en un 44.6% a la banca y la industria financiera, un 27.4% a organizaciones educativas y un 10.6% a instituciones de salud.

fortinet_datos_seguridad

El tráfico en redes sociales en las empresas son una preocupación común y muy real para los administradores de seguridad, Facebook representa alrededor del 47% de todo este tráfico.

fortinet_productividad

En el caso del audio/video en streaming, el 42% lo conforma YouTube y representa más del 75% en combinación con otros medios como Netflix y Hulu. Es importante destacar que el tráfico de video, aunque no es malicioso en sí mismo, el impacto en el rendimiento de la red corporativa puede ser sustancial, ralentizando otras aplicaciones y necesidades. De hecho, más del 25% del tráfico de red llega a ser utilizado para el uso de redes sociales y audio/video en streaming.

fortinet_performance

Una manera de administrar el tráfico de la red y controlar el acceso web es mediante el uso del firewall. Específicamente en el caso de los dispositivos Fortinet, a través de perfiles de usuario, categorías de contenido y políticas se permite o restringe el acceso a los usuarios. Le invitamos a ponerse en contacto con nosotros para proveerle más información respecto al apoyo que Adaptix Networks puede brindar específicamente a su empresa mediante las soluciones y dispositivos Fortinet, así como los casos de éxito de nuestros clientes.

Recuperación ante desastres informáticos

Definiremos un desastre informático como un evento no planificado que inhabilita el centro de datos de la organización para prestar los servicios que permiten continuar operando de forma normal. Algunas condiciones que podrían ser consideradas como desastres incluyen eventos de la naturaleza como huracanes, inundaciones, terremotos, incendios. También los eventos causados por el hombre, como sabotaje, fraude, terrorismo y ataques maliciosos, entre otros, que ocasionan daños a la infraestructura de cómputo.

Dentro de las principales causas de la pérdida de datos tenemos las siguientes:

  • Fallas de hardware.
  • Destrucción de hardware.
  • Corrupción de software.
  • Error humano.

Algunas cifras interesantes:

  • 6% de las PC sufren algún evento de pérdida de datos.
  • 30% de las empresas que sufren un gran incendio quedan fuera del mercado en un año.
  • 60% de las empresas que pierden sus datos cerrarán dentro de los siguientes 6 meses al desastre.
  • No es probable que sobrevivan las empresas que no son capaces de reanudar sus operaciones dentro de los diez días siguientes al desastre.
  • En Estados Unidos cada semana dejan de funcionar 140,000 discos duros.

Existen dos conceptos fundamentales que permiten decidir el tipo de soluciones necesarias para cada organización:

Objetivo de Tiempo de Recuperación (RTO) es el tiempo en el que los procesos, servicios y aplicaciones deben estar restaurados después de un incidente grave, con el fin de evitar consecuencias inaceptables. Se requiere que la infraestructura tecnológica, logística, humana y física esté disponible en el menor tiempo posible, en pro de reducir el valor de RTO lo más cercano a cero.

Objetivo de Punto de Recuperación (RPO) es la cantidad y vigencia de la información que se deben recuperar del almacenamiento alterno, última copia de seguridad, etc. El RPO se expresa hacia atrás en el tiempo desde el momento en que el incidente se produce, y puede ser especificado en segundos, minutos, horas o días, por lo tanto, es la cantidad máxima aceptable de pérdida de los datos medidos en el tiempo.

Ambos valores deben ser extrapolados a las aplicaciones vitales y críticas para la organización. Con lo que surge la necesidad de contar con un procedimiento para filtrar y perfilar qué servicios se ven directamente impactados definiendo los diferentes niveles o Tiers de las aplicaciones. Esos niveles van definidos del Tier 1 al Tier 4, siendo el Tier 1 el que contiene las aplicaciones con la mayor prioridad.

Tier 1: Aplicaciones responsables de forma directa de la generación de ingresos de la organización. Impacto alto.

Tier 2: Aplicaciones que poseen importancia, sin embargo no impactan de forma sensible las operaciones. Impacto moderado.

Tier 3: Aplicaciones de monitoreo y administración de la plataforma de TI. Impacto leve.

Tier 4: Aplicaciones de ambientes de QA, desarrollo y pruebas. Impacto bajo.

La correcta clasificación de los servicios y aplicaciones finalmente darán forma a los procesos de failolver y failback, típicos de un plan de desastres informáticos.

Diferencias entre Plan de Recuperación ante Desastres (DRP), Plan de Recuperación de Negocio (BRP) y Plan de Continuidad de Negocio (BCP):

  • Plan de Recuperación ante Desastres, DRP, establece las acciones a ejecutar para recuperar las operaciones fundamentales de una organización tras un desastre. Este plan debe incluir también las medidas para evitar determinados riesgos, mitigarlos o transferirlos a terceras partes. El DRP por lo general suele enfocarse primariamente en la recuperación de las operaciones relacionadas con el procesamiento de información.
  • El Plan de Recuperación de Negocio o BRP es una extensión del Plan de Recuperación ante Desastres porque además de lo antes mencionado, incluye las acciones relacionadas con proveedores y clientes que el DRP no aborda.
  • El Plan de Continuidad de Negocio o BCP es el más global y se compone a su vez de múltiples planes que describen cómo la organización puede operar de manera total o de forma degradada durante o inmediatamente después de un desastre. El BCP debe describir cómo gestionar cualquier incidencia que afecte a la organización y que interrumpa o detenga su desempeño normal; no sólo grandes desastres, como por ejemplo, una falla en el enfriamiento del centro de datos, fallas en los UPS u otros elementos. Aunque el BCP no definirá el paso a paso de cómo resolver cada eventualidad, sí deberá dar las pautas de cómo proceder mientras se escala el problema a quien le corresponda resolverlo.

La Recuperación ante Desastres es de carácter vital para todas las organizaciones para amortiguar y minimizar los efectos que a nivel operativo, financiero y de imagen se pueden llegar a experimentar.

Debemos tomar en cuenta que cuando una organización crece gracias al apoyo de la tecnología y toma las medidas necesarias para proteger su información, estableciendo las estrategias pertinentes mediante un plan de recuperación ante alguna contingencia, podrá asegurar la continuidad de sus servicios, manteniéndose al día con la exigencia de su mercado.

Ciberataques y la reputación de las empresas

Los ejecutivos de alto nivel se preocupan acerca del mayor peligro de los ataques cibernéticos: el daño a la reputación de la empresa, y con ello la pérdida de confianza de los clientes. Esto de acuerdo con un estudio realizado en enero y febrero de 2016 por The Economist Intelligence Unit (EIU), patrocinado por VMware. Los 282 encuestados pertenecen a grandes empresas (con ingresos entre 500 y 10,000 millones de dólares) ubicadas en 16 países.

Los incidentes de seguridad aumentaron un 38% el año pasado de acuerdo con la empresa de consultoría PwC. Estos ataques son cada vez más sofisticados y exitosos, también el número y la variedad de amenazas se incrementan.

Debido a que la marca de la empresa es el activo más valioso, cuando se ve comprometida es algo difícil de solucionar. Leslie Gaines-Ross, jefa de estrategias de reputación en Weber Shandwick menciona que “Puede tomar décadas construir su reputación, pero de pronto tiene lugar un ataque y la reputación desaparece”. Debido a que “el cliente considera que se trata de una empresa sin control, hay un efecto de halo negativo más allá del incidente, incluso llegando a cuestionar la calidad de sus productos”.

El ataque en sí es solo el principio. Las empresas que en los últimos cinco años fueron víctimas de los diez principales ataques cibernéticos se han visto involucradas en litigios con accionistas o clientes. Más allá de los daños reconocidos, estos eventos altamente publicitados se mantienen en las noticias y en la conciencia pública.

La alta dirección no solo se preocupa por las consecuencias del ataque, sino también acerca de la probabilidad de que ocurra. Más de un cuarto de los ejecutivos y el 38% del equipo de TI, creen que habrá un ataque severo y exitoso en su empresa dentro de los próximos tres años. Más del 60% de los ejecutivos cree que la incidencia de ataques a datos relacionados con el cliente aumentará durante el próximo año. Hay un mercado activo para la información de las tarjetas de crédito y débito, números de seguridad social, información de salud, entre otros datos, lo cual incentiva su robo.

Las empresas deben contar con un plan para cuando un ataque suceda, ya que en medio de la crisis no se encontrarán las respuestas necesarias. Estas son algunas de las principales recomendaciones:

  • Tener una defensa basada en arquitectura flexible permitiendo notificar que el incidente ha tenido lugar para identificar, mitigar y contener el ataque. Si se puede detectar y tratar a tiempo, se puede reducir la gravedad.
  • Contar con un plan de gestión de crisis que involucre a las partes interesadas, de tal manera que trabajen juntos para proteger la marca.
  • Revelar los detalles del incidente a sus clientes. De acuerdo a Gaines-Ross “Tendrá más de una crisis al no ser transparente. No estar abierto en las primeras 24 horas, será peor debido a que incrementa la desconfianza”. Después de dar a conocer el último bit de información, se trabajará en la reconstrucción de la marca.
  • No se limite a hablar sobre el problema, también se debe hablar de la solución. Es necesario dejar en claro lo que pasó, pero también tomar el control del diálogo explicando lo que está haciendo para solucionar el problema. “Sus clientes tienen que saber que esto no volverá a ocurrir”, dice Gaines-Ross.
  • Llevar a cabo un análisis forense del incidente y su respuesta. Un equipo diverso de las partes interesadas: TI, el departamento legal, prensa y demás, debe llevar a cabo un análisis posterior sobre los orígenes de la infracción y su gestión por parte de la empresa, de modo que lo que pasó no vuelva a ocurrir.

Las empresas necesitan construir arquitecturas de seguridad que sean flexibles y modulares para proporcionar niveles más altos de protección contra cualquier ataque, por ejemplo mediante el uso de la Virtualización. Por ello, le invitamos a ponerse en contacto con nosotros para proveerle más información respecto al apoyo que Adaptix Networks puede brindar específicamente a su empresa en temas de Virtualización, así como los casos de éxito de nuestros clientes.

Gestión de datos en las empresas

De acuerdo al estudio Data Genomics Index, realizado por Veritas, el 41% de los archivos en las empresas tienen más de tres años de antigüedad. Las imágenes, archivos de desarrolladores y archivos comprimidos representan casi un tercio de la totalidad.

El periodo aproximado para que los datos se vuelvan caducos es de tres años, sin embargo, alrededor del 41% de los datos no ha sido modificado en ese tiempo, asegura la marca. Los datos que no poseen un propietario atribuido, debido a algún cambio de funciones o a la partida de un empleado, se consideran huérfanos y estos datos suelen pasar desapercibidos en las organizaciones.

En un segundo informe, Global Databerg, Veritas revela la forma en que las empresas de todo el mundo almacenan y gestionan sus datos, haciendo énfasis en las actitudes y conductas que fomentan su excesiva generación.

Se identifica tres tipos de datos almacenados en los llamados Databergs:

Datos críticos del negocio, identificados como vitales para la continuidad y el éxito operativo de la organización.

Datos redundantes, obsoletos y triviales (ROT), datos que han perdido su valor empresarial. Es necesario reducir proactivamente los datos ROT mediante su eliminación de forma segura y periódica.

Datos oscuros, son datos cuyo valor aún no ha sido identificado. Pueden incluir datos críticos del negocio, así como datos ROT inútiles. Sin importar de qué se traten, consumen recursos.

Descubrieron que las organizaciones a nivel mundial almacenan en promedio 52% de datos oscuros, 33% de datos ROT y 15% de datos críticos identificables.

Algunas conductas que permiten el crecimiento de datos oscuros y ROT:

  • Estrategias y presupuestos basados únicamente en volúmenes de datos, no en su valor empresarial.
  • La rápida adopción de aplicaciones y soluciones de almacenamiento bajo la falsa premisa del “almacenamiento gratuito”.
  • La creencia de los empleados de que pueden usar los recursos de TI corporativos en forma gratuita, tanto para uso empresarial como personal.

A fin de evitar la espiral de costos en la gestión de datos a futuro, es necesario tomar medidas. Lo que significaría esclarecer los datos oscuros, deshacerse de los datos ROT y alentar a los empleados a mantener y gestionar los datos de forma proactiva.

CTB-Locker en servidores web

De acuerdo con información publicada por Kaspersky, TeslaCrypt, CryptoWall, TorrentLocker, Locky y CTB-Locker son sólo algunos de los programas maliciosos a los que se han enfrentado los usuarios en los dos últimos años.

En fechas recientes se ha detectado una nueva variante de CTB-Locker. Antes, este ransomware se diferenciaba de otros por el uso que hacía de la red Tor Project para protegerse y de únicamente recibir bitcoins, la conocida cripto-moneda descentralizada y anónima. Ahora, la nueva variante ataca a servidores web y exige un rescate de menos de medio bitcoin (aprox. 150 USD). Si el pago no se envía en el plazo exigido, el rescate se duplica a 300 USD. Una vez hecho el pago, se genera una llave de decodificación para los archivos.

Una falla de seguridad en el servidor web permite la infección de los archivos,  una vez explotado, el sitio web se desfigura. En este caso, la desfiguración, que contiene un sustituto de la página php/html principal, se usa como vehículo del mensaje. Es importante mencionar que no se elimina el código original. Se almacena bajo seguridad en la raíz web con un nombre diferente en un estado codificado. La llave de decodificación se guarda en un servidor remoto, pero se le permite a la víctima decodificar dos archivos de forma gratuita, como muestra de su autenticidad. Otra función que existe en el sitio web atacado le permite a la víctima comunicarse con el atacante mediante chat: se requiere una firma/código personal solo disponible para las víctimas.

Aún no se sabe cómo CTB-Locker se instala en los servidores web, pero hay un elemento común entre los servidores atacados: utilizan la plataforma de WordPress como herramienta de gestión de contenidos. WordPress contiene muchas vulnerabilidades en sus versiones no actualizadas. También los plugins de terceros para WordPress hacen que el servidor sea más vulnerable a los ataques, ya que los autores de plugins no están comprometidos con ningún tipo de medidas de seguridad.

Por el momento, la única forma de eliminar esta amenaza en pocos segundos es mantener copias de seguridad de los archivos en otra parte. Incluso, algunos sitios web suelen tener múltiples versiones de sus contenidos, propagados en varios servidores web. En muchos otros casos, son supervisados y probados por profesionales en pruebas de seguridad anti-penetración.

Planificar la infraestructura virtual

De manera generalizada, cada vez más organizaciones están estudiando el uso de la virtualización. Con ello, aumenta el número de ofertas de productos, y a medida que crece la competencia entre los proveedores por captar una parte del mercado de pequeñas y medianas empresas, se tiene como resultado la disminución significativa del costo, anteriormente considerado uno de los principales obstáculos para la implementación de la virtualización.

En la actualidad, específicamente las PyME están perfectamente situadas para obtener los máximos beneficios de la virtualización. Una implementación correcta que migre servidores físicos para convertirlos en virtuales puede hacer que la gestión de un centro de datos sea menos onerosa. Las PyME, con infraestructuras menos complicadas, encontrarán menores impedimentos para migrar una proporción mayor (o incluso la totalidad) de su infraestructura física a un entorno virtual.

Las empresas pueden obtener una reducción de costos y complejidad en la gestión de sus sistemas mediante la virtualización. Pero para que cualquier proyecto se realice con éxito y proporcione el mejor retorno de inversión (ROI), es indispensable una amplia planificación, comprendiendo los conceptos fundamentales de la virtualización y planteando sus posibles obstáculos. Ahora bien, ¿cómo podemos planificar la virtualización?

Específicamente hablando de la virtualización de servidores, se debe tomar en cuenta lo siguiente:

Metas y objetivos

El primer paso debe ser el establecimiento de metas y objetivos que detallarán los resultados esperados de la virtualización. Algunas de las preguntas que se deben considerar son las siguientes:

  • ¿Cuáles son los motivos de la virtualización o consolidación de servidores?
  • ¿Cómo afectará la virtualización a los usuarios?
  • ¿Cuáles son las implicaciones de seguridad de migrar a una infraestructura virtual respecto a mantener la situación actual?
  • ¿Cuánto tiempo de desconexión sería necesario para llevar a cabo una migración?
  • ¿Cuáles serían los riesgos y cómo podrían reducirse?
  • ¿Cuál es el coste estimado del proyecto?
  • ¿Cuál es el ROI calculado?

Los objetivos asociados con cada meta deben ser sostenidos por medidas reproducibles y específicas que aclaren la razón de esa meta y los resultados esperados. Por ejemplo:

Meta Objetivo
Maximizar la utilización del hardware Obtener una proporción de consolidación de X:Y

Conseguir una utilización del Z% del hardware

Reducir la dispersión de servidores La utilización del X% para los servidores de aplicación producirá una reducción del Y% en la tasa de compras de nuevos servidores.

Las metas y objetivos claramente definidos impulsarán el proyecto en la dirección correcta y ayudará a asegurar la implementación de una solución flexible, segura, económica y que satisfaga plenamente las necesidades de la organización.

Análisis de infraestructura actual

Será necesario identificar qué infraestructura es candidata a la virtualización. No todo lo que puede ser virtualizado, debe ser virtualizado. Por ejemplo, las aplicaciones de volumen o rendimiento elevado en un entorno virtual pueden producir conflictos de E/S entre máquinas virtuales, ocasionando cuellos de botella y un rendimiento inferior. También, los casos en los que el servidor ejecuta una aplicación con rendimiento muy variable no serán buenos candidatos para la consolidación. Incluso los servidores que han sido consolidados deben evaluarse de manera regular para asegurar que obtienen el máximo rendimiento. En caso contrario, puede llegar a considerarse su migración a servidores físicos nuevamente.

Análisis de aplicaciones

Antes de decidir si una aplicación se migrará a un entorno virtual, es importante verificar si el fabricante dará asistencia técnica para la aplicación en el nuevo entorno.

Otras consideraciones que se deben tomar acerca de una aplicación:

  • Duplica la funcionalidad que ya está presente en otras aplicaciones.
  • Se ha vuelto obsoleta.
  • Tiene un escaso número de usuarios.
  • Es inestable.
  • Se aproxima al final de su ciclo de vida con asistencia técnica.

Para cualquier aplicación que se ajuste a alguno de estos criterios, se debe analizar si vale la pena o no dedicar recursos para su migración. En algunos casos, la opción más económica es descartar y reemplazar dicha aplicación. También se podría orientar un sistema antiguo para que se ejecuten aquellas aplicaciones huérfanas o próximas a quedar obsoletas.

Planificar la infraestructura virtual

Después de inventariar y analizar la infraestructura física y las aplicaciones, se puede planificar la infraestructura virtual de manera más detallada, tomando en cuenta lo siguiente:

  • Hosts de virtualización, ¿pueden utilizarse los servidores existentes como hosts o será necesario crecer?
  • Red, ¿qué cambios es preciso realizar para garantizar que se satisfarán las necesidades de conectividad de todas las máquinas virtuales?
  • Rendimiento, ¿es preciso realizar alguna mejora en los subsistemas de almacenamiento y red?
  • Copia de seguridad y recuperación, ¿cómo afectará la virtualización a los procesos de copia de seguridad y recuperación ante desastres? ¿qué cambios deberán realizarse?
  • Almacenamiento SAN y NAS, ¿qué reconfiguración será necesaria?

Evaluación de posibles soluciones

Hay un número creciente de soluciones de virtualización de servidores en el mercado. Una organización debe realizar una amplia investigación y basar su elección en factores como costos, capacidad de gestión y migración. También se debe tener en cuenta el proveedor, ya que la implementación de la virtualización es un cambio a gran escala y posiblemente muchas organizaciones prefieran confiar su infraestructura a una compañía que tenga un historial establecido en el campo de la virtualización de servidores.

Aunque el proceso de planificar e implementar la virtualización puede ser arduo, las ventajas de la migración son significativas. Por ello le invitamos a ponerse en contacto con nosotros para proveerle más información respecto al apoyo que Adaptix Networks puede brindar específicamente a su empresa en temas de virtualización, así como los casos de éxito con nuestros clientes.

Nube privada, pública e híbrida

Existen diferentes modelos de despliegue para que las compañías hagan uso de la Nube: Privada, Pública e Híbrida.

La Nube Privada es aquella que una empresa crea con sus propios recursos (máquinas, redes, almacenamiento, centros de datos, etc.) y está destinada al uso exclusivo por parte de la misma. Requiere grandes medidas de seguridad con un servicio de acceso y disponibilidad muy alto para poder gestionar la información en todo momento. Todas las ventajas de seguridad y disponibilidad que aporta una solución de Nube Privada se reporta en el precio. Los costes tanto de inversión como de mantenimiento suelen ser más altos.

El servicio de la Nube Pública pertenece y es administrado por empresas que ofrecen acceso rápido a recursos informáticos para otras empresas o personas. De esta manera, las empresas no necesitan adquirir hardware, software o infraestructura de soporte, ya que de ello se encargarán los proveedores. Es importante destacar que también la disponibilidad, seguridad y transparencia de la plataforma dependerán del proveedor.

La Nube Híbrida combina soluciones privadas y públicas. Las empresas podrán dividir sus servicios, manteniendo algunos con acceso privado dentro de la empresa y otros que pueden ser aprovechados donde se necesiten a través de la Nube Pública. También existirán algunos riesgos al estar en dos nubes, a largo plazo es fácil integrar datos más sensibles en la Nube Pública y otros no tanto en la Nube Privada.

Finalmente, para decidir la plataforma a utilizar, es importante valorar lo siguiente:

  • En qué medida son esenciales para el negocio las aplicaciones que se desean trasladar a la Nube.
  • Requisitos normativos y protección de datos.
  • Cargas de trabajo y aplicaciones.
  • Nivel de integración de las aplicaciones con el resto de las funciones empresariales.

Le invitamos a ponerse en contacto con nosotros para proveerle más información  respecto al apoyo que Adaptix Networks puede brindar específicamente a su empresa en servicios de Cómputo en la Nube, así como los casos de éxito con nuestros clientes.

Spotify a Google Cloud

El servicio de música en streaming Spotify está migrando su infraestructura a Google Cloud Platform. Tras considerar que actualmente los servicios en la Nube son de alta calidad, mayor rendimiento y bajo costo, la compañía decidió llevar a cabo dicha migración.

A continuación, parte de la información publicada por la empresa:

En un negocio con un rápido crecimiento de usuarios, se requerirán cantidades cada vez mayores de concentración y esfuerzo para responder a la demanda. Durante mucho tiempo estuvimos operando nuestros propios centros de datos; considerábamos que los servicios en la Nube aún no se encontraban en un nivel de calidad, rendimiento y costo ideales para Spotify. Sin embargo, las cosas han cambiado, actualmente esos niveles han mejorado y la migración hacia la Nube se volvió obligatoria.

En fechas recientes, Netflix fue otro de los gigantes del streaming en optar por una migración total hacia la Nube. Esta tendencia continuará, para las empresas se ha vuelto atractivo gastar menos tiempo y dinero en sus centros de datos mediante la migración hacia la Nube, permitiéndoles con ello, liberar más recursos para otras áreas de negocio.

Le invitamos a ponerse en contacto con nosotros para proveerle más información  respecto al apoyo que Adaptix Networks puede brindar específicamente a su empresa en servicios de Cómputo en la Nube, así como los casos de éxito con nuestros clientes.

Si desea consultar la publicación de Spotifydar clic aquí.

Completa la migración de Netflix a la Nube

Desde el mes pasado Netflix se ejecuta totalmente en AWS, no solo la transmisión de vídeo, sino también todo lo relacionado con su proceso administrativo de clientes y empleados.

Yuri Izrailevsky, Vicepresidente de Ingeniería de Nube y Plataforma de la compañía, escribió lo siguiente en el blog de Netflix:

Nuestro viaje a la Nube en Netflix comenzó en agosto de 2008, cuando experimentamos problemas con la base de datos principal y durante tres días se suspendió el servicio para nuestros suscriptores. La mayoría de nuestros sistemas habían sido migrados a la nube antes de 2015. Hemos tomado el tiempo necesario para encontrar una ruta segura para nuestra infraestructura de facturación y gestión de datos de clientes y empleados. Estamos encantados de informar que finalmente hemos completado nuestra migración a la Nube.

Netflix tiene hoy, ocho veces más clientes que utilizan su servicio de streaming de lo que tenía en 2008. Nuestra aplicación ha evolucionado rápidamente, incorporando características que requieren más recursos y crecientes volúmenes de datos.

En enero  Netflix se expandió a más de 130 nuevos países. A tal crecimiento habría sido extremadamente difícil lograrlo con nuestros propios centros de datos, pero la elasticidad de la Nube nos permite añadir miles de servidores virtuales y petabytes de almacenamiento en cuestión de minutos. Nuestros costos en la Nube por apertura de streaming terminaron siendo una fracción de los costos de operación desde nuestros centros de datos.

Este es un ejemplo de que las grandes y pequeñas empresas a nivel mundial, han encontrado en la Nube la mejor opción para incrementar la capacidad de sus sistemas e infraestructura, garantizando su seguridad y reduciendo los costos de operación.

Le invitamos a ponerse en contacto con nosotros para proveerle más información respecto al apoyo que Adaptix Networks puede brindar a su empresa en servicios de Cómputo en la Nube, así como los casos de éxito con nuestros clientes.

Si desea consultar la publicación de Netflix, dar clic aquí.

Fortinet obtiene certificación VBWeb

Fortinet, líder global en soluciones de ciberseguridad de alto desempeño, fue certificada en la nueva Revisión Comparativa VBWeb de Virus Bulletin. La revisión VBWeb es la primera en la industria que desafía las soluciones de filtrado web de diferentes proveedores en rigurosos escenarios del mundo real.

El filtrado web es una de las primeras líneas de defensa en la estrategia integral de seguridad de las organizaciones pero sin limitar la productividad. En la revisión VBWeb, las soluciones de seguridad deben bloquear al menos un 70% del total del malware. El servicio de filtrado web FortiGuard de Fortinet bloqueó el 97.7% de las descargas directas de malware y logró detener el 83.5% del malware.

Los resultados de la prueba revelan que los servicios de filtrado web de Fortinet van más allá de filtrar el tráfico HTTP, funcionando como un proxy transparente entre las redes corporativas y los servidores web maliciosos. Esto permite identificar y bloquear el malware entrante de amenazas como botnets y legitimar los sitios web que han sido comprometidos. Siendo una de las muchas capas con características avanzadas de seguridad que comprende la plataforma de soluciones integrales de Fortinet.

Las soluciones de seguridad FortiMail de Fortinet poseen un récord perfecto de certificación en cada prueba VBSpam de Virus Bulletin desde su inicio, obteniendo un total de 40 certificados SPAM o SPAM+ desde 2009. En protección endpoint, FortiClient de Fortinet también ha recibido, de manera consistente, docenas de certificaciones antivirus VB100 desde 2005, consiguiendo altas puntuaciones en las pruebas de detección proactiva día-cero, y obteniendo la certificación de todas y cada una de las cuatro pruebas VB100.

Martijn Grooten, editor de Virus Bulletin menciona “Fortinet mantiene un récord excelente y consistente en las pruebas, por lo que no nos sorprende haber visto su efectividad en nuestra revisión comparativa VBWeb. Al ser el único proveedor que ofreció su producto para la primera prueba pública de la industria, Fortinet claramente tiene mucha confianza en sus soluciones de seguridad y confirma su compromiso continuo con las pruebas realizadas por Virus Bulletin”.

En Adaptix Networks conocemos la importancia de contar con soluciones confiables para la seguridad empresarial, por lo que recomendamos ampliamente el uso de productos Fortinet. Le invitamos a ponerse en contacto con nosotros para proveerle más información al respecto.

Go to Top