Configurando OVAs i OVFs con OVFTOOL

packageovaovf

La portabilidad es sin duda una de los principales beneficios de definir nuestras máquinas como virtuales. Al ser éstas un compendio de ficheros de configuración, son fácilmente exportables e importables en otros entornos manteniendo su consistencia. Sin embargo, la proliferación de hipervisores y versiones de los mismos hace que no siempre sea “tan” fácil.

Para tal efecto nació el formato OVF (Open Virtualization Format). Su objetivo era sencillo: una manera standard de poder definir una VM para que pudiera ser importada en un hipervisor distinto del que fue “originada”. Consiste en una carpeta que incluye un fichero XML con extensión .ovf (podemos verlo como el equivalente a el .vmx que describe la configuración de nuestra VM en origen) juntamente con los .vmdk, los discos de nuestra VM y normalmente un fichero .mf que contiene un hash SHA1 de los ficheros del ovf. Poco después, salió el .ova, que no es más que la compresión de la carpeta que conforma el OVF.

Hasta aquí todo suena bien, pero la realidad nos lo suele complicar bastante más: ¿qué sucede por ejemplo si tenemos una VM en un entorno VMware Fusion 8 de desarrollo y queremos importarla en un ESXi 6.0? Lo más normal es que hubiéramos creado la VM en versión de Hardware 12 en origen cuando, en destino, esta versión no está soportada.

Para todas las tareas relacionadas con la gestión y configuración de un fichero .ova o un paquete .ovf, nació ovftool, una herramienta de VMware.

¿Cómo solventamos el problema expuesto antes?

Normalmente, al intentar importar el .ovf de nuestra VM exportada de Fusion en vSphere 6.0, recibiremos el siguiente error:

The OVF package requires unsupported hardware
Details: Line 25: Unsupported hardware family ‘vmx-10’.

Primero de todo, vamos a descargar ovftool desde aquí. A continuación, vamos a obtener el fichero .vmx a partir del .ovf. Ejecutamos el siguiente comando:

ovftool <ruta donde se encuentra el fichero .ovf> <ruta donde queremos guardar el fichero .vmx>

Una vez tenemos el .vmx, lo abrimos con un editor de texto y cambiamos la línea virtualHW.version a la versión de hardware que soporte nuestro hipervisor en destino.

Imaginemos ahora que no partimos de un fichero .ovf y partimos de un .ova. Para pasar del formato comprimido a .ovf nos valemos también de ovftool mediante el siguiente comando:

ovftool.exe --lax <ruta donde se encuentra el fichero .ova> <ruta donde queremos guardar el fichero .ovf>

Para más información, recomiendo ver su manual acerca de lo que nos puede aportar ovftool.

Open-V to Sponsor OpenNebulaConf 2016

OpenNebula Conf 2016 is getting closer and we would like to keep sharing with you the companies/projects that are sponsoring this year’s conference. Now it is time for OPEN-V, as part of our Gold Sponsors.


open-v-hi-res-logo-1
If you want to participate in OpenNebulaConf and meet OPEN-V and other OpenNebula users, remember that you are still in time for getting a good price deal for tickets. Also, if your company is interested in sponsoring OpenNebulaConf 2016 there are still slots.

About Open-V

OPEN-V’s Flagship product StackMAX is a unified intelligent cloud platform managing the Cloud landscape from a single point, smartly connecting infrastructure, data, applications and business processes. StackMAX is engineered to deliver “everything as a service,” enabling enterprises to consume core business services on demand and respond / innovate faster, at unprecedented scale.

Thanks to OpenNebula project and community which has enabled OPEN-V to focus on Cloud innovation and not worry about core IAAS and orchestration services. The simple and straight forward architecture of OpenNebula with extensive documentation has enabled OPEN-V to deliver StackMAX with rock solid reliability and powerful orchestrator services towards our Global customers across varied Industries.

OPEN-V delivers StackMAX along with optional module – ContainerMAX which mainly focuses on difficulties surrounding image building, orchestration of containers, logging and monitoring them.

Screen Shot 2016-06-08 at 2.43.01 PM

¿Cúal es la inversión de nuestra empresa en IT?

cual-es-la-inversion-de-nuestra-empresa-en-it

Hay una serie de métricas que un CIO tiene que tener muy claras si quiere que su departamento esté a la altura de las circunstancias y que el desempeño de su cargo no sea cuestionado (entre otras).

Uno de los primeros conceptos que tiene que tener en cuenta un responsable de un Departamento de IT es que está gestionando un presupuesto más o menos elevado, pero que no ha solicitado ni precisa el Departamento de IT.

Si, parece mentira pero es así. El 80 o 90% del presupuesto del Departamento de IT está dedicado a dar servicio a nuestros clientes internos, los otros Departamentos, para que ellos a su vez, den servicio a los clientes de la empresa.

Lo primero que debiera tener claro el CIO es este concepto y defenderlo, lo segundo, conocer que porcentaje usa cada Departamento del 80% en cuestión y lo tercero (ya vamos para nota) que cada mes hubiera una nota interna o “factura” donde le indicáramos a cada Departamento en lo que ha incurrido. Al lado, para compensar la situación, una evaluación del servicio.

Esto, para las empresas que trabajan con una contabilidad de centros de costes será relativamente fácil, porque la cultura ya estará implantada, en las que no, pues pasito a pasito y empezar a clarificar quién es el responsable del presupuesto y quién es el que lo está explotando en verdad.

Estoy preparando un post donde además hablaremos sobre como confeccionar un presupuesto anual “por concepto y destino”, pero ahora volvamos al post original. Volvemos…

Si Vd. CIO de la empresa X le preguntara que porcentaje de los ingresos de su empresa se invierten en IT, ¿me sabría contestar? ¿Y si le pregunto cual es la media de su sector, o la media general?.

Antes de que dejes de leer este post déjame decirte que es muy fácil conocerlo (facturación anual y OPEX incluyendo amortización del Depto de IT y hacer una operación) y muy importante saberlo.

¿Por qué? Porque cuando venga el momento de poner presupuestos sobre la mesa, si sabemos ese dato y comparamos nuestra inversión en frente de la sectorial, tendremos argumentos en lenguaje de negocio para defender el proyecto, porque así se defienden los proyectos, en lenguaje de negocios, y demostrando que la inversión o ROI de nuestro proyecto es menor que los beneficios que va a aportar.

Sí, ya sé, y lo sé por experiencia (10 años como CIO) que hay muchos puntos “difíciles” en los proyecto, “intocables” que tendremos que volver “tocables”, poniendo un valor, y puntos “incuantificables” que volveremos “cuantificables”, porque nuestro CIO va a discutir un punto crítico “que gano si pongo en marcha este proyecto”.

Si esto lo podemos “indexar” al cuadro de lo que se gasta la industria en IT, tendremos otro punto de apoyo.


Acabo de ver el cuadro de Gartner y lo cierto es que continúo pensando que es bajo el “Share” de IT en los ingresos de la empresa.

El sector financiero está invirtiendo un 6.3% y el de Software e internet un 6,7, mientras que el general de la industria es un 3.3%. Veamos que el sector de la energía tiene tan sólo un 1.1%, Igual con el 1.3% de las químicas. ¿sobre que cantidad de ingresos?. Ojo con confundirnos.

Tengamos un momento para hacer estos cuatro números y comparémonos con el cuadro o con nuestros colegas (si es posible). El paisaje nos dará mucha información.

Me encantaría que me dejarais algún comentario al respecto.

Hasta la semana que viene

Take care,

JM

————————-

Post Update.

Me gustaría hacer un experimento. Podríais dejar anonimamente en los comentarios que porcentaje estáis gestionando. Os lo agradecería un montón.

Early-bird OpenNebulaConf Tickets Extended by One Week

Screen Shot 2016-06-08 at 2.43.01 PM

While early-bird ticket sales were originally scheduled to end last Friday, we’ve decided to give you one more week to save on tickets to OpenNebulaConf 2016. You now have until next Friday, September 23rd, to get your OpenNebulaConf tickets for the deeply discounted price of just €480 apiece. We won’t be extending this great opportunity again.

OpenNebulaConf is your chance to get an up-close look at OpenNebula’s latest product updates, hear the project’s vision and strategy, get hands-on tutorials and workshops, and get lots of opportunities to network and share ideas with your peers. You’ll also get to attend all the parties and after-parties to keep the networking and the good times going long after the show floor closes for the day.

Keynotes

The agenda includes four keynote speakers:

Community Sessions 

Unlike previous editions, we will have a single track with 10-minutes talks, to keep all the audience focused and interested. We have given our very best to get the perfect balance of topics. We will have talks by Unity TechnologiesStorPoolLINBITNetWays

Hands-on Workshops 

We will have four 90-minute hands-on workshops, where some of the key contributors to OpenNebula will walk attendees through the configuration and integration aspects of the main subsystems in OpenNebula:

  • Networking, NFVs and SDNs
  • Storage
  • Hypervisors and Containers
  • Security, Federation & Hybrid Hands-on Workshop

These hans-on sessions will also include 5-minute lightning talks focusing on one key point. If you would like to talk in these sessions, please contact us!

Pre-conference Tutorials 

This year we will have two pre-conference tutorials:

  • Introductory Hands-on Tutorial
  • Advanced Hands-on Tutorial

Also, your company may be interested in the sponsorship opportunities for OpenNebulaConf 2016, there are still some sponsorship slots available. Current sponsors of the OpenNebulaConf 2016 include StorPool and LINBIT as Platinum Sponsor, NodeWeaver and Open-V as Gold Sponsor, Terradue and Todo En Cloud as Silver Sponsor, and CSUC as Community Sponsor.

We are looking forward to welcoming you personally in Barcelona!.

Open Cloud Free Session – Opennebula Barcelona User Group

Skyline-Barcelona211

 

Date and Time: Mon, October 24, 2016 2:00 PM – 5:00 PM

OpenNebula Barcelona User Group is a gathering of our users in Barcelona area to share best practices, discuss technical questions, network, and learn from each other and enjoy. Direct Link

Taking advantage of the Opennebula conference in Barcelona, its user group in collaboration with the Opennebula project and CSUC organizes a free open cloud session to introduce the project, share new local developments and use cases with the community and any people interested in Open Cloud topics (Free Registration).

Agenda: (Free Registration -> Register here and reserve your seat)

14:00 Welcome/Bienvenida/Benvinguda
14:05 Opennebula Project: Open Cloud in essence – Dr. Ruben Santiago Montero (Chief Technical Officer & Co-Founder)
14:30 Cloud Bursting and VMware: New Opennebula VCLOUD driver  – Jordi Guijarro (Cloud & Security Manager – CSUC)
14:50 Barcelona Users Group
15:00 ACB League use case – Joaquin Villanueva (Director of Media Technology)
15:20 UPC Research Lab (RDLAB) use case – Gabriel Verdejo (IT Manager)
15:40 University of Valencia use case – Israel Ribot (System Administrator)
16:00 Coffee & Networking
16:30 EOF

Free Registration -> Register here and reserve your seat

ONEBCN Team in collaboration with CSUC

OpenNebula 5.2 ‘Excession’ Beta is Out!

The OpenNebula project is proud to announce the availability of the first beta release of OpenNebula 5.2 ‘Excession’. OpenNebula 5.2 (Excession) is the second release of the OpenNebula 5 series. A significant effort has been applied in this release to stabilize features introduced in 5.0 Wizard, while keeping an eye in implementing those features more demanded by the community.

As usual almost every component of OpenNebula has been reviewed to target usability and functional improvements, trying to keep API changes to a minimum to avoid disrupting ecosystem components. Also, new components have been added to enhance the OpenNebula experience.

hyperlinks_sunstone

One important new module is the IPAM subsystem. In order to foster SDN integration, a important step is being able to integrate OpenNebula with existing IPAM modules, in those cases where outsourcing of IP management is required in the datacenter. Fitting in the OpenNebula architecture design principles, the IPAM subsystem interacts with IPAM servers using drives, and as such a IPAM driver lets you delegate IP lease management to an external component. This way you can coordinate IP use with other virtual or bare metal servers in your datacenter. No default integration is provided, but rather to effectively use an external IPAM you need to develop four action scripts that hooks on different points of the IP network/lease life-cycle.

Another great addition in Excession is the ability to use group bound tokens. The goal is to be able to use OpenNebula for different projects, which are identified with different groups. For instance, the same user can use OpenNebula for “WebDevelopment” project and a “BioResearch” one, for instance. This user can request a couple of tokens tied to each of these groups. Upon login with the “WebDevelopment” token, she will only be seeing resources from that particular project, and all new resources (VMs, images, networks) will be created within that group, isolating them from the “BioResearch” group. This feature is available both in the CLI and Sunstone, with helpers and dialogs to create, maintain and use the tokens.

tokens_sunstone

All the OpenNebula drivers have been improved for robustness. For instance, a new default timeout (which is configurable) has been defined to identify hanging operations and kill crashed processes. In this regard, the EC2 drivers has also been thoroughly revisited, being updated to the v2 of the aws ruby gem, ensuring compatibility with all Amazon EC2 regions. Error handling has been improved as well in the EC2 driver, adding operation retries to circumvent those situations where the EC2 API is not consistent, and adding improved logging.

Sunstone is the face of OpenNebula for both administrators and users, and hence a constant target of enhancements to improve usability. Excession brings to the cloud table stabilized features that were introduced in the Wizard maintenance releases, like for instances advanced searches (that now are maintained regardless of tab switching), labels colors and ergonomics, improved vCenter dialogs and import tables (now with feature à la Gmail), hyperlinks to access resources displayed in the info tabs, and many other minor improvements.

labels_searches_sunstone

There are many other improvements in 5.2 like revamped group mapping in LDAP authentication -now being dynamic mapping-, rollback mechanism in failed migrate operations, significantly improved fault tolerant hook -to provide high availability at the VM level-, improved driver timeout, vCenter storage functionality wrinkles ironed out, more robust Ceph drivers -for instance, in volatile disks-, improved SPICE support, improvements in ebtables and Open vSwitch drivers, multiple CLI improvements -imrpved onedb patch, password handling in onevcenter command, default columns reviewed in all commands- and much more. As with previous releases, it is paramount to the prject to help build and maintain robust private, hybrid and public clouds with OpenNebula, fixing reported bugs and improving general usability.

This OpenNebula release is named after the Ian M. Banks novel, a recommended read, as well as having a fitting slang meaning, “something so technologically superior that it appears as magic to the viewer.”. We are confident that OpenNebula, if not really appearing as magic, at least solves elegantly your IaaS needs.

The OpenNebula team is now set to bug-fixing mode. Note that this is a beta release aimed at testers and developers to try the new features, hence not suitable for production environments. Feedback is more than welcome for the final release.

The OpenNebula project would like to thank the community members and users who have contributed to this software release by being active with the discussions, answering user questions, or providing patches for bugfixes, features and documentation.

The group token functionality and dynamic LDAP group mapping into OpenNebula groups were funded by BlackBerry in the context of the Fund a Feature Program.

Relevant Links

Virtualización de servidores con éxito. Nuevo Ebook de este Blog.

virtualizacion-de-servidores-con-exito

¿Cómo estáis? Espero que ya reintegrados afrontando el ultimo trimestre del año.

Bien. Pues vengo a presentaros algo que llevaba dentro hace tiempo  y tenía ganas de que viera la luz. Un Ebook que contemplara las fases necesarias en un proyecto de virtualización de servidores (la virtualización de escritorios, aplicaciones y storage tienen un ciclo de vida similar pero distinto). Tenía que escribirlo….

¿A quien va dirigido el Ebook?  Pues a todos aquellos IT-Man, CIOs, informáticos y personas relacionadas que piensan o desean preparar un proyecto de virtualización de Servidores.  Y la intención final no es más que explicar y detallar las distintas fases del proyecto y argumentar porqué tiene sentido cada fase y que ganamos con ella.

A lo largo de mi experiencia en este mundo de la virtualización he tenido que revisar instalaciones las cuales tenían problemas e investigando he ido viendo que el 90% de las instalaciones que he tenido que recomponer era sencillamente porque en el proyecto nadie había puesto sobre la mesa la conveniencia o necesidad de cierta fase.

No se trata tan sólo de un libro técnico, sino que hay capítulos de gestión de TI en la que expongo o apunto a oportunidades donde se puede generar un proyecto de este tipo. Si eres capaz de “detectar” los puntos identificativos que indico, podrás con alto grado de seguridad empezar a sembrar lo que en un futuro va a ser las bases del proyecto para tu pequeño o gran CPD.

¿Y que más puedo decir? Que el libro va a ser gratuito y se va a distribuir en breve desde este blog o desde nuestra web www.orbal.es. Tan sólo te voy a pedir que te suscribas a nuestra Newsletter a cambio.

Y nada más, tan sólo indicaros que la intención es que otros libros eminentemente técnicos o de gestión, pretendo que sucedan a éste. Ya os iré dando noticias sobre ellos.

Dos puntos finales. El primero, espero que disfrutéis y sobre todo os sirva lo que he estado escribiendo para vosotros. Gracias por vuestro tiempo en leerlo.

El segundo. Me gustaría mucho que si estáis interesados en algún tema que os gustase/interesase, me lo escribierais abajo en los comentarios o me enviaseis un mail. Os estaría muy reconocido. Os avanzaré que estamos pensando en que Albert escriba un E-book sobre como usar elementos opensource para monitorizar sistemas virtualizados (Monitorización de guerrillas) y yo me estoy planteando uno sobre como evaluar los costes de un departamento de IT o como elaborar el presupuesto anual del mismo. Vosotros tenéis la palabra.

Take care, JM

Organiza tus jobs de Veeam mediante políticas

organiza-tus-jobs-mediante-veeam

El hecho de que la virtualización es una tecnología ya bastante madura en cada vez más entornos supone muchos retos. Vamos añadiendo cargas (seguramente cada vez más críticas y sensibles) a los hipervisores, nuevas máquinas, ratios de consolidación más agresivos y demás realidades que parece que induzcan la idea de que mantener el control de nuestra infraestructura tenga que ser más una cuestión de “hacer malabares”. Estos fenómenos son los que o ya afrontamos o afrontaremos en algún momento y es por ello que por ahí van las tendencias de los fabricantes cada vez apostando más por la automatización y la monitorización.

Estas realidades aplican por supuesto también a las soluciones que dependen directamente de nuestra infraestructura vSphere, como por ejemplo Veeam Backup&Replication. Antes de nada, en el caso de Veeam, lo primordial es mantener una definición de los requerimientos de cada VM en cuanto a su nivel de disponibilidad, luego veremos cómo aplicarlos y sobretodo mantenerlos de manera ágil.

Al final, lo que queremos es una manera ordenada y dinámica de proteger nuestras VMs según las condiciones específicas de cada una de ellas.

Para definir estas políticas deberemos analizar qué requerimientos tienen nuestras VMs o nuestros perfiles de VMs: tenemos que declarar los parámetros en los que basaremos nuestras políticas de Backup/Replicación.

Paso 1 – definir parámetros y valores

Un ejemplo sencillo de estos parámetros podría ser el siguiente:

  • RPO
    • ¿Cada cuanto tiempo debemos ejecutar una copia de la VM? Lo podemos medir en minutos, horas, días …
  • Ventana
    • ¿Qué intervalo tenemos para ejecutar la copia? Pierde relevancia si usamos Storage Snapshots. Expresado en franja horaria.
  • Retención
    • ¿Qué histórico de copias debemos almacenar para esa VM? Lo especificaremos en valores “absolutos”. Es decir, si quiero mantener una semana de copias y mi RPO es de 24h, tendrá un valor de 7.
  • RTO
    • Tiempo en poner la máquina en producción a partir de la declaración del desastre. En sí no es un parámetro que apliquemos al job como el RPO, pero podemos agilizarlo usando Reverse Incremental o más aún con replicas.
  • Encriptación
    • ¿Debemos encriptar los datos de esa VM?
  • OS
    • Mantener VMs de OS/Datos/Apps parecidos nos ayudará a tener mejores ratios de deduplicación.
  • ¿Backup secundario?
    • Hay que almacenar una copia de la VM en algún otro lugar.

Paso 2 – agrupar

Con  este análisis como primer paso, tendremos una descripción en términos de protección de datos de nuestras VMs, “metadatos” para cada una. Ahora nos hará falta agruparlas según valores parecidos. Fácilmente, acabaremos (siga esto entendiéndose como ejemplo) con un grupo que será “Producción – Linux” con unos valores iguales para cada parámetro en todas las VMs. Con estos grupos, tendremos una posible propuesta de organización/distribución de nuestros Jobs de Backup/Replicación.

Paso 3 – “dinamizarlo”

Sin embargo, no olvidemos que el principal ánimo de este post es hacer el trabajo (sobretodo el de mantenimiento) más sencillo. De momento, tenemos una manera ordenada de proteger a nuestras VMs según los requisitos específicos de cada una, pero no hemos hablado de cómo hacer todo este proceso dinámico o semi-automatizado.

Cuando hablamos de Jobs dinámicos en Veeam Backup & Replication, nos referimos a Jobs que como origen tienen un objeto que no es/son una VM en sí. En la definición del job, como “Source”, podemos añadir una a una cada VM que cumpla los requisitos definidos por el Job. Si tu entorno es pequeño, y sobretodo, con pocas modificaciones, es algo planteable, pero si el entorno va evolucionando (que es lo más normal), habrá que empezar a plantear otras maneras, puesto que no vamos a ir añadiendo VMs a los Jobs, sería bastante ineficiente.

En el fondo, para tener un job dinámico bastaría con crear uno solo para toda tu infraestructura que, como “Source”, incluyera todo el vCenter. De esta manera, toda máquina nueva sería incluida directamente en la copia sin necesidad de dar “un paso más” añadiéndola. Sin embargo, catalogar todas las VMs bajo la misma definición no es lo que buscamos tampoco.

Es aquí donde toman relevancia objetos de vCenter que quizás no habías tenido en cuenta antes, como son las etiquetas (o “tags”) y las carpetas. En este whitepaper, Luca Dell’Oca nos sugiere que, una vez definidos los grupos de VMs que hemos visto en el paso 2, cada grupo se mapee a un tag de vCenter y luego, creando un Job para cada grupo, añadir cada etiqueta como “source” del job. Así pues, para nuestro grupo de ejemplo “Producción – Linux”, tendremos que crear su etiqueta en vCenter, etiquetar cada VM que pertenezca a este grupo con ella, y luego crear un Job de Veeam que como Source tenga dicho tag. Además de ser un genial White Paper (recomiendo descargarlo y leerlo detenidamente sobre todo por cómo se detallan los pasos), me parece un método perfecto para entornos heterogéneos, diversificados, (muy) grandes y con muchos usuarios y permisos en vCenter. Sin embargo, quizás vea más acorde a un entorno “standard” de los que tenemos hoy en día por nuestras tierras usar las carpetas de vCenter . La razón es sencilla: al crear una VM, ya sea mediante el wizard tradicional del cliente de vSphere o incluso mediante herramientas de terceros como Chef, nos dejará (de hecho nos “obligará”) especificar en qué carpeta la ubicamos.

Esto hace que no tengamos que dar ese “paso más” de luego ir y etiquetar la VM. Luca habla de maneras muy válidas mediante scripting por ejemplo de automatizar el proceso de etiquetar, pero quizás es demasiado complejo si ya nos sirven las carpetas.

La idea es que no queden máquinas virtuales fuera de copia. Si usamos carpetas, nos aseguramos que siempre nos pregunte en qué carpeta ponemos la VM, pero cabe la posibilidad de que la VM caiga en la carpeta “Discovered Virtual Machines” o en la matriz del Datacenter. Para mitigar este problema, podemos por ejemplo ejectuar un pequeño script que cada dia revise que no queden VMs en carpetas que no estén incluidas en ningún job.

Retorno de la inversión (ROI) en Devops

design-process-thumb

El calculo de cualquier retorno de inversión se basa en el ahorro esperado. Cuando analizamos el retorno de inversión de implantar prácticas como DevOps, es difícil cuantificar este ahorro en términos monetarios. Hay dos aspectos que nos pueden ayudar a entender los ahorros que obtenemos al implantar DevOps: ahorro de costos en horas de trabajo y ahorro de costos de caídas del sistema.

Por lo que hace al ahorro de coste en las horas de trabajo, podemos clasificar el trabajo de cualquier departamento de TI o desarrollo en dos tipos, trabajos planificados y trabajos no planificados, donde los trabajos planificados son aquellos que están destinados a aportar valor a nuestros clientes, en cambio, los trabajos no planificados son aquellos que se realizan a causa de errores o incidencias que hay de resolver de inmediato. Implantar prácticas de Devops permite reducir el tiempo de trabajo no planificado. Pero cual es el coste del trabajo no planificado?

En el informe anual que publica Puppet “State of Devops Report” del 2016, se plantea la siguiente formula para calcular el exceso de coste que supone el trabajo no planificado.

Cost del exceso de trabajo = Personas * Salario medio * Beneficios * Porcentaje de tiempo dedicado a trabajo extra.

• Número de personas: total de personas del equipo técnico.
• Salario medio: según un artículo de computerworld, que hace referencia a un informe de Addeco, el sueldo medio del sector TIC en España oscila entre los 30.000 y 60.000 euros anuales.
• Beneficios: es el coste de los variables o incentivos que perciben los trabajadores a más a más del sueldo, como tickets restaurant, mutuas, etc.. Podemos estimar un factor de 1.2 sobre el sueldo medio.
• Porcentaje de tiempo de trabajo extra: según el informe de Pupper “State of Devops Report” del 2016, para una empresa media este está entre un 10% y un 32%.

Para poner un ejemplo del coste de trabajo extra o trabajo no planificado realizado, ponemos que tenemos un equipo de 10 personas. El cálculo seria el siguiente:

Coste de exceso de trabajo = 10 * 45.000,00€/año * 1.2 * 22% = 540.000,00€/año * 22% = 118.800,00€/año

A este coste, debemos añadir el coste de las caídas de servicio, coste que varia mucho en función de la naturaleza de la organización y que no es fácil de calcular. Todo y la dificultad de calcular el coste de las caídas, es interesante ver la aproximación que se hace en el informe de Puppet,donde se plantea una formula para estimar el coste de las caídas de servicios.

Coste del “downtime” = Frecuencia de Deploys * Porcentaje de caídas * Tiempo medio de recuperación * Coste por hora de caída

• Frecuencia de deploys o despliegues que se realizan en el entorno de producción y que pueden ser causa de caídas del sistema.
• Porcentaje de caídas producidas por cambios en el sistema.
• Tiempo medio de recuperación o MTTR (Mean Time To Recover) que corresponde al tiempo medio que el equipo de operaciones tarda en recuperar los sistemas ante una caída.
• Coste de por hora de caída. Este dependerá mucho de lo crítico que sea el sistema caído.

Aquí las prácticas de Devops nos ayudan a reducir el tiempo de recuperación de los sistemas ante caídas y a reducir el porcentaje de errores producidos por cambios en el sistema.

Podéis encontrar más información en el informe de Puppet “2016 State of Devops Report”

OpenNebula Newsletter – August 2016

Read this monthly newsletter to learn about the latest developments, events and future plans in all things OpenNebula and keep up to date with the state of your favorite virtualization manager. This newsletter suffered a minor delay due to the summer holiday break, we hope you understand!

The OpenNebulaConf 2016 is around the corner! Until the 15th of this month there is still a chance to register with the early bird price. The final agenda has already been published. You may also be interested in the sponsorship opportunities.

Technology

Summer vacations are over, and the team is focused on prepping the beta of the next major OpenNebula version, 5.2. The main goal of this release is to stabilize the wealth of features introduced in 5.0, but several outstanding functionality has been introduced as well:

  • New IPAM module, a general mechanism to integrate with different IPAM servers
  • Enhanced user authentication tokens, which binds to specific groups and allows to maintain different sessions with the same user account working in different projects
  • Usability improvements in Sunstone and CLI
  • VM migration between clusters
  • Better VM fault tolerance hook
  • Improvements in ec2 hybrid drivers and vCenter drivers

localhost-9869
Also vOneCloud, the appliance encapsulating an OpenNebula tailored for vCenter infrastructures, has a new version as of this past month, namely version 2.0.1. vOneCloud 2.0.1 is based in OpenNebula 5.0.2 and as such it includes all the bug fixes and functionalities introduced in 5.0.2. New functionality includes resize capabilities for the Virtual Router (VR), as well as a new VR Template instantiate action and the possibility to modify cardinality of the Virtual Router HA, Sunstone labels now have colors, search users by password field, implement oneuser login in Sunstone and a service create dialog in the admin view. You are welcome to try vOneCloud out, it is fully open source and zero intrusive!

Community

We are proud to count as members of the OpenNebula community members of useful software that uses the advanced features of OpenNebula to offer top notch products, like the one developed by folks at UDS to manage VDIs.

Also proud to learn that new software being released to resource centers management support OpenNebula as part of their default distribution, like the INDIGO project does.

It is also nice to learn how OpenNebula can be integrated with other technologies to create better solutions, like with Vagrant as known by Florian.

Having people that knows the project inside out and are willing to defend it is a good motivation to keep up with the excellence of the project. Thanks Nodeweavers!

Outstanding to have people also willing to create material around OpenNebula knowledge, check this out. And being included in articles named Five open source cloud tools admins need to know makes our faces red with blush (the good kind!).

Big thumbs up to all the maintainers of the OpenNebula ecosystem for their new releases (during August, no less!). New versions of Net::OpenNebula Perl module, Test Kitchen Driver for Opennebula, the ruby gem to clean forgotten iptables rules, driver for creating OpenNebula instances in Chef Provisioning and the OpenNebula provider for Vagrant where releases this last month.

Outreach

The next OpenNebula Conference in Barcelona in October 2016 will take place 24 to 26 of October. Check out the agenda featuring interesting keynotes from industry leaders and different community sessions sharing OpenNebula experiences, as well as workshops designed to learn about different OpenNebula aspects.

If you are willing to attend, there is still a chance to get early bird prices until the 15th of September. Learn about the different sponsorship opportunities in the Conference web page. Current sponsors of the OpenNebulaConf 2016 include StorPool and LINBIT as Platinum Sponsor, NodeWeaver as Gold Sponsor and Terradue and Todo En Cloud as Silver Sponsor. To get a feel of what the OpenNebula Conference is about, check last year’s material: (talks, slides,pictures).

This last month member of the team travelled to fabulous Las Vegas to attend the VMworld 2016 US where vOneCloud had its own booth in the Mandalay Bay Convention Center. A very positive experience with lots of interest on behalf of the attendees that saw first hand how vOneCloud can be used to easily provision vCenter resources to end users through a slick self-service portal.

critshxvyaamzyp
The OpenNebula team will be present in the VMworld 2016 Europe, October 17 – 20, Barcelona (Fira Barcelona Gran Via). We will be featuring also a vOneCloud booth, so come round to see a live demo if you are in town, or to ask anything about all things OpenNebula.

Remember that you can see slides and resources from past events in our Events page. We have also created a Slideshare account where you can see the slides from some of our recent presentations.