Un bureau virtuel, pour quoi faire ?

Disposer d’un bureau virtuel pour un entreprise devient vital quelque soit sa taille. Cela permet de se positionner stratégiquement pour:

  • Collecter, stocker, traiter et diffuser de l’information de l’entreprise;
  • Centraliser et sauvegarder des informations de l’entreprise.
  • Éviter des restitutions d’informations divergentes
  • Une meilleure coordination et un meilleur suivi du processus de l’entreprise
  • Normaliser les informations de l’entreprise

dititalizacoes

Le bureau virtuel doit être utilisé pour tous les acteurs de entreprises pour une meilleurs collaborations, avec des droits d’accès différents selon les utilisateurs, clients et collaborateurs.

Les informations de l’entreprise, tout en étant sécurisées,  restent accessibles à partir de n’importe quel support (ordinateur, smartphone, tablette). Le bureau virtuel  doit fournir des outils indispensables tels que :

  • le partage d’informations par messagerie
  • le partage de l’agenda des collaborateurs
  • partage de TOUS les documents à distance
  • stockage de données en un volume centralisé
  • Visioconférence, messagerie instantanée
  • Outils bureautique : en local ou à distance

Les échanges se font à distance de manière hétérogènes (Mobile, PC, Mac, tablette..), et doivent être sécurisés.

L’environnement technique du bureau virtuel doit être parfaitement maitrisées, ainsi que ses licences d’utilisation. Il doit être hautement disponible.

Il doit s’adapter en fonction du nombre d’utilisateurs et des évolutions possibles futures comme par exemple:

  • Augmentation de l’espace de stockage
  • annuaire informatique LDAP
  • Téléphonie IP
  • Serveur Web Extranet / Wiki (création, consultation page Web)

Le bureau virtuel se présente sous la forme d’un serveur centralisé. La localisation du serveur importe peu. Il peut être dans les locaux de l’entreprise ou chez un tiers à la location.  Mais le débit réseau doit être suffisant important pour supporter l’utilisation des services à distance et un système de sauvegarde externalisée et en continu, avec si possible une localisation différente, doit être pris en compte. La maintenance  des logiciels est peu contraignante quelque soit le nombre d’utilisateurs.

Le système doit cependant prendre en compte les contraintes suivantes, sur son exploitation mais aussi sur le temps de réponse :

  • Les plages horaires de fonctionnement sont: 24h/24 et 7j/7
  • La tolérance d’interruption doit être: pas ou peu d’interruption
  • Nombre d’utilisateurs simultanés à définir en fonction de la taille de l’entreprise
  • Temps maximal d’exécution: peu d’attente (moins de 30s)

La mise en place d’un tel système est très rapide et peu couteuse, et surtout elle s’adapte très facilement à la croissance de l’entreprise. La sélection d’un serveur  dédié à la location permet par exemple de maitriser les coûts par mois,  le support et la « scalabité » du matériel . L’installation du système et des logiciels doivent se faire en sélectionnant parmi les solution open source existantes. Le coût de licence des logiciels est alors réduits à zéro. Cela permet de  gérer la montée en puissance du nombre d’utilisateurs sans coût supplémentaire.

Un exemple de configuration de bureau virtuel peut être la suivante pour une entreprise de 5 à 10 collaborateurs:

  • Sélection du serveur dédié : il doit être suffisamment dimensionné pour les besoins de l’entreprise, pas trop et pas moins. Les caractéristiques du serveur peuvent être les suivantes:
    • CPU :  de type Xeon, nombre de cœur minimum : 2
    • RAM : minimum 6 Go ; idéalement 8Go
    • Stockage / IO : IOPS > 13,5 ; RPM>7200 ; taille > 2To
    • Bande passante : > 500ko/sec.
    • La virtualisation du serveur n’est pas nécessaire dans un premier temps.
  • Sélection de l’OS, parmi les distributions très fiable destinées aux serveurs et à faible coût, comme CentOS (Communion ENTreprise Operating System). C’est une distribution GNU/Linux compilés à partir des sources de la distribution RHEL (Red Hat Enterprise Linux) jugée très fiable mais payante.
    • Avantage : Basé sur une solution commerciale de qualité supérieure
    • Inconvénient : Mises à jour rares et moins fréquentes
    • Licence : variable Open Source; donc pas de cout de licence à prévoir.
  • Administration à distance: l’administration à distance du serveur peut se faire de façon sécurisé par SSH depuis un poste PC par les outils simple comme PuTTY , pour disposer d’une console à distance, et WinSCP, pour transférer les fichiers
  • Utilisation d’un VPN pour ouvrir un tuyau sécurisé entre l’utilisateur et le serveur: OpenVPN est un solution libre permettant de créer un réseau privé virtuel. C’est la solution la plus utilisé sous Linux (après les VPN Cisco)
  • Le partage de fichiers est l’une des fonctions pivot des postes serveurs, à destination de stations Windows, Max et Linux.
  • Utilisation d’un intégré bureautique,  avec un ensemble de modules pouvant interagir entre eux pour créer et modifier des documents bureautiques : comme Libre Office qui devrait également proposer d’une version OnLine trés bientôt
  • Le partage et le stockage et partage de documente est une fonction indispensable : la solution ownCloud peut être intégré au système de l’entreprise avec les accès  sécurisés de l’infrastructure
  • Le groupware ou logiciel de collaboration est aussi une fonction indispensable, comme la solution Zimbra Collaboration Open Source Edition avec une suite logicielle de messagerie d’entreprise, d’agendas et de travail collaboratif : contact, agenda et Webmail; l’ensemble des fonctionnalités est accessible depuis un navigateur, y compris en mode déconnecté sans installation de logiciels supplémentaires. La synchronisation en push vers les smartphones est également possible.
  • Messagerie instantanée, Téléphone, Visio: en utilisant une solution basée sur le protocole standard XMPP (Extensible Messaging and Presence Protocol), la solution Prosody  propose un système de collaboration en quasi-temps-réel et d’échange multimédia,  voix sur  IP (téléphonie sur Internet), visioconférence et échange de fichiers .
  • Les accès distants se font donc par client Web pour accès aux services ou par lecteur réseau pour accéder aux documents
  • Les accès à distance sont sécurisés par openVPN crypté par SSH, qui combine cryptage asymétrique et cryptage symétrique; chaque utilisateur disposent de ses propres clés publiques et privés; Seules les clés publiques sont copiées sur le serveu.

On le voit au travers cet exemple, la solution de bureau virtuel est un ensemble de briques techniques rassemblé sur un serveur dédié accessible à distance . L’utilisation de logiciel Open Source permet de réduire le coût de licence. Le support et la maintenance des logiciels devront être néanmoins effectués par une ressource humaine avec son coût associé.

On distingue aujourd’hui deux technologies: VDI et DaaS…

  • Le DaaS (Desktop As A Service) est un environnement de travail virtualisé fourni par un opérateur ou fournisseur tiers chargé d’héberger, gérer et intégrer les applications souhaitées par l’entreprise. Elles seront fournies sous la forme d’un abonnement à l’usage des environnements de travail. 
  • Le VDI (Virtual Desktop Infrastructure) est une technologie de virtualisation conçue pour permettre à l’entreprise de virtualiser elle-même ses environnements de travail comme nous l’avons fait dans l’exemple ci dessus.

Le DaaS et le VDI ne sont pas très différents, tous deux offrant quasiment les mêmes bénéfices : gestion simplifiée des postes de travail, moins de matériel à gérer, flexibilité et mobilité renforcées. Le VDI permet de garder la maitrise de son environnement technique. La DasS permet de s’affranchir des problèmes de maintenance logiciel.

Références:

Pourquoi l’Open Source?

open-source-logoLe logiciel open source, à la différence des logiciels propriétaires, est un logiciel qui maintient le code ouvert afin que les professionnels de l’informatique puissent modifier, améliorer et distribuer. Bien qu’il soit apparu relativement tôt dans l’histoire de l’informatique, ce n’est que ces dernières années que l’open source a vraiment pris son envol, dans ce que certains pourraient voir comme un exemple étonnant d’une collaboration réussie entre programmeurs.

L’open source a déjà investi tous les grands domaines du système d’information aussi bien des administrations et que des grandes entreprises : environnements serveurs, domaines applicatifs, outils d’ingénierie, solutions de réseaux et sécurité. Les solutions open source sont désormais au même rang que les solutions propriétaires. Les décideurs effectuent de plus en plus leur choix en comparant systématiquement solutions propriétaires et solution libres.

Histoire entre libre et ouvert

Les ordinateurs des années 1960 étaient livrés avec des logiciels accompagnés de leurs sources que les clients pouvaient modifier à leur convenance.

La désignation open source a été suggérée en 1998 afin de lever l’ambiguïté de l’expression anglaise free software. En effet, free possède deux signification : libre et gratuit. Cette nouvelle désignation permet de rappeler aux utilisateurs et aux entreprises qu’un logiciel a un coût. L’emploi des termes logiciel libre et open source de manière interchangeable est courant dans les médias, les licences d’utilisation étant souvent les mêmes et les développeurs ne se souciant pas toujours de la distinction.

Mais qu’est-ce qu’une licence ?

Une licence de logiciel est un contrat par lequel le programmeur définit les conditions d’utilisation de son logiciel, comment il peut être utilisé, diffusé ou modifié par son exploitant ou utilisateur.

Le monde du logiciel libre ou open source a inventé plus d’une centaine de licences différentes. Beaucoup sont proches les unes des autres, certaines sont compatibles entre-elles, d’autres présentent de véritables différences philosophiques.

Avant de choisir un logiciel open source il est important de vérifier sous quelle licence celui-ci a été publié par son auteur.

Copyleft or not, that’s the question

Comme le rappelle Odile Bénassy dans le JDN, il est important de faire la différence entre les licences libres et celles qui ne le sont pas, copyleft ou pas: cette clause où l’auteur autorise le développeur à utiliser, modifier, distribuer un logiciel à condition de conserver des termes analogues à la licence, et même en général de conserver la même licence. Une nuance qui fait toute la différence, notamment pour les éditeurs de logiciel.

C’est ce qu’on nomme l’effet contaminant d’une licence. Un éditeur qui intègre une librairie de programmation éditée en GPL version 2 doit obligatoirement publier son logiciel sous la même licence, et donc publier ses sources, ce qui est plutôt contraignant pour un éditeur de logiciel prioritaire ! Rédhibitoire pour beaucoup d’entreprises, ce qui pousse de plus en plus d’éditeur à fonctionner en double licence : le logiciel est à la fois édité en GPL pour la communauté et en licence commerciale pour les entreprises.

On voit aussi apparaître également une double licence entre licences libres : des projets dont certains composants sont développés sous licence GPL, d’autres parties sous licence MIT, plus permissive, selon la sensibilité de tel ou tel développeur. Ces différentes sensibilités voire approches philosophiques du développeur expliquent aussi l’explosion du nombre de licences. Chacun veut créer la licence qui correspond le mieux à ses objectifs métiers, ses règles morales, ses opinions politiques, ou de son organisation.

Voici un récapitulatif de quelques licences open source, avec la clause copyleft ou non:

  • GPL (GNU General Public License): Copyleft ; C’est la plus connue par les développeurs ; c’est aussi une licence contaminante : tout logiciel embarquant du code GPL devient GPL; GNU GPL existe en v2 et v3, ainsi qu’en plusieurs déclinaisons comme la LGLP moins contraignante.
  • LGPL (GNU Lesser General Public License): Non copyleft ; licence identique à GPL sans son caractère héréditaire;
  • MIT (Massachusetts Institute of Technology) :   Non copyleft ; Licence très permissive; aussi appelé licence X11, elle est compatible GNU GPL.
  • BSD (Berkeley Software Distribution) : Non copyleft  ;  Licence permissive, avec un minimum de restrictions; Ne pas utiliser la licence BSD originale qui contenait une clause de publicité aujourd’hui retirée ; Compatible GPL. De multiples licences BSD ont vu le jour et sont aujourd’hui plus populaires, comme la licence Apache
  • Artistic :  Non copyleft  ; C’est la licence de la communauté Perl ;  Compatible GNU GPL;  à n’utiliser que la version 2
  • Apache : Non copyleft; Elle a été écrite par l’Apache Software Foundation, qui l’applique à tous les logiciels qu’elle publie, elle est aujourd’hui très populaire. Elle est permissive ; Compatible avec la licence GNU GPLv3
  • CeCILL (CEA CNRS INRIA logiciel libre) : Copyleft ; Licence peu connue hors de France, c’est la transposition en français de la GNU GPL, elle a été complétée par la CeCILL-B, de la famille BSD et CeCILL-L (proche LGPL)

Une fois ce point primordial traité, regardons maintenant les raisons d’utiliser ou non les logiciels open-source.

Les fausses bonnes raisons d’utiliser l’open sources

Si vous utilisez abondamment des logiciels open-source, il est probable que cela soit à cause de l’une des raisons suivantes.

  • Il est gratuit ; à la différence des logiciels propriétaires le logiciel open source n’a pas de coût de licence d’utilisation, ce qui permet de faire de réelle économie notamment lorsque le logiciel est dupliqué sur plusieurs milliers d’équipements. Certes mais le coût de support du logiciel n’est pas inclut. Il faut donc disposer de ressources techniques humaines compétentes pour installer, s’approprier le logiciel et le mettre à jour. Le fait que certain logiciel open-source dispose que de très peu de document implique qu’ils devront être formés avant d’opérer la migration. La formation des utilisateurs doivent être également prise en compte dans ces coûts. Ce facteur coût humain ainsi que la maitrise du logiciel sont souvent négligés lors de l’utilisation de l’open source.
  • Il est personnalisable ; disposer du code source ouvert permet de personnaliser le logiciel en fonction de ses besoins. Mais attention à la licence: modifier un logiciel avec la clause copyleft (voir paragraphe sur le licence) implique obligatoirement que les sources du logiciel doivent être redistribués à la communauté. De plus la encore il faut disposer de ressources humaines capable de modifier ces sources.
  • Il est indépendant vis-à-vis d’un éditeur; Les évolutions d’un logiciel open-source dépendent d’une communauté de développeurs qui pousse vers de meilleurs fonctionnalités et non pas d’un éditeur unique qui aurait des intérêts plus commerciaux. Certes, mais l’inverse est vrai aussi: les intérêts de la communautés ne vont pas forcement dans le même sens que ceux de l’entreprise utilisatrice et pire, elle peut arrêter le projet. Il est donc indispensable de vérifier la pérennité et les mises à jour du logiciel. De nombreuse projets open-source se sont arrêtés pour diverses raisons, ce qui implique un changement forcé du logiciel open-source au sein de l’entreprise avec ces coûts associés. Le choix du logiciel open-source et sa pérennité est donc primordiale.

Les fausses bonnes raisons de ne pas utiliser l’open sources

A l’inverse si vous n’utilisez encore de logiciels open-source, il est probable que cela soit à cause de l’une des raisons suivantes.

  • Nous avons besoin de support pour nos logiciels: la plupart des logiciels propriétaires inclut le support technique et une documentation de l’éditeur, tandis que les entreprises facturent ces services pour l’open source, ou ne dispose que de très peu de documentation. Mais le fait que le code soit ouvert rend plus facile à apprendre à l’utiliser par les ressources techniques. Un des grands avantages de l’open source est que tant que vous avez quelqu’un avec le savoir-faire, vous pouvez personnaliser complètement le logiciel à vos besoins. Cependant vous aurez besoin de quelqu’un pour savoir comment utiliser le logiciel open source. Une autre raison est que ce type de logiciel a la réputation d’être relativement inaccessible pour l’utilisateur moyen. Contrairement à un logiciel propriétaire, qui est testé intensivement pour sa convivialité, le logiciel open source est souvent écrit par et pour les professionnels de l’informatique. Le choix d’un logiciel à bon escient, avec une documentation conséquente, permet d’éliminer ce problème potentiel.
  • Il porte atteinte à la propriété intellectuelle: La propriété intellectuelle d’un logiciel peut être négocier avec les entreprises propriétaires de logiciels, ce qui n’est pas possible avec des entreprises de l’open source. De plus, les règles qui régissent la propriété intellectuelle de l’open source sont complexes (voir le paragraphe sur la licence au dessus). Une lecture appropriée des termes de la licence permet d’atténuer le risque de commettre une violation de propriété intellectuelle.
  • Il n’est pas fiable: Souvent, sans direction forte, la communauté open source doit identifier et fournir des solutions pour les erreurs avec le logiciel. Cela conduit certains à craindre que les problèmes ne soient pas corrigés, par rapport aux logiciels traditionnels, qui a centralisé la gestion et une équipe de développeurs de résoudre tous les problèmes. En réalité, le contraire est vrai. À plusieurs reprises, des problèmes avec l’open source sont rapidement résolues grâce au travail des membres de la communauté, alors qu’avec un éditeur de logiciels propriétaires, les erreurs jugés non bloquantes ou mineur ne sont corrigés alors qu’elles peuvent être gênantes pour l’utilisateur.
  • Il n’est pas sécurisé; C’est la plus grande inquiétude que les utilisateurs expriment au sujet de l’open source: puisque le code est ouvert, tout opportuniste peut identifier et d’exploiter le programme par un piratage et des virus. Alors que les entreprises de logiciels propriétaires ont des membres de l’équipe dédiée à assurer la sécurité de leur logiciel. Or on a vu ces dernières années que ce cas n’est pas fondé, bien au contraire: le fait que le code soit ouvert permet à chacun d' »auditer » le contenu du logiciel pour identifier les causes potentielles de violations de la sécurité, évaluer le niveau de risque avant de l’utiliser,  et les traiter immédiatement. L’inverse n’est pas vrai: un  logiciel propriétaire reste obscure et peut faire apparaître des failles de sécurité sans que personne ne s’en rende compte.

Les vrais bonnes raisons d’utiliser l’open sources

  • Un investissement ciblé : L’entreprise investit dans l’intégration et le développement d’une solution spécifique à son cœur de métier. Les logiciels open source sont des briques techniques qui peuvent être utilisées et paramétrées pour un métier donné. Ils sont intégrés dans un système d’information qui est propre aux utilisateurs et au métier de l’entreprise. Il n’est pas nécessaire non plus pour une entreprise de réinventer la roue pour  une brique technique, il y a forcement un logiciel open source adapté pour cette brique. L’entreprise ne se concentre donc que sur son métier. Il est bien évident qu’elle doit néanmoins investir dans l’intégration de ces briques dans son système.
  • Utilisation de  standards ouverts : le respect des standards ouverts assure à l’entreprise la pérennité de ses applications et favorise l’inter-opérabilité des systèmes dans l’entreprise et avec ses partenaires.

Les préoccupations des entreprises face à l’open source ne sont pas totalement infondées, mais cela peut être atténué par une compréhension du logiciel en question. Dans de nombreux cas, l’utilisation de ce type de logiciel aide les entreprises à mieux comprendre ses besoins, et par ce bais d’économiser de l’argent tout en obtenant un produit qui est mieux adapté. Une fois que l’entreprise apprend à utiliser les logiciels open source – et comment atténuer certains des risques qui lui sont associés –  ils peuvent en tirer de grands avantages.

L’état français s’y intéresse de très prêt et publie régulièrement une liste des logiciels open source qui sont utilisés et recommandés dans son propre système d’information. Quand l’état donne l’exemple, profitons en !

Références:

Rupture et transition informatique

Le changement est la démarche qui accompagne la vie de toute entreprise face à l’instabilité et au développement de son environnement. La mise en place d’un projet informatique implique un changement dans l’entreprise.

New Life

Ils ont un impact sur l’organisation du travail : les utilisateurs sont au centre d’un dispositif, avec un outil informatique qui les amène vers de nouveaux usages et un nouveau fonctionnement. La transition est fréquemment plus complexe sur le plan humain que sur le plan technique.

Le changement est une rupture entre un existant souvent obsolète et un futur synonyme de progrès. Le changement n’existe que par la dynamique des individus qui le mettent en œuvre.

Conduire le changement c’est donc à la fois anticiper, définir et mettre en place cette démarche.

Comme le rappelle Comoé, l’accompagnement au changement doit donc être réfléchi dans une approche globale dès le démarrage des projets, il est important d’identifier ces impacts, d’anticiper les risques puis de définir et mettre en œuvre une démarche permettant le déploiement d’une solution dans des conditions optimales.

Dans ce cadre, des objectifs concrets doivent être définis à chaque étape du projet :

  • En amont, sur la base d’une analyse des processus existants, il faut localiser et d’évaluer les impacts du projet informatique. Cette analyse permet de formaliser les besoins de simplification des pratiques et d’identifier les modifications de poste.
  • Au cours de la mise en œuvre des outils informatiques, les utilisateurs participent à la définition et à la validation d’un système pour s’approprier des nouvelles pratiques.
  • Tout au long du projet, un plan de communication et de mobilisation est mis en place pour permettre aux acteurs de comprendre et donc d’accepter les changements à venir, ainsi que d’être informé sur l’avancement du projet
  • Le plan de formation est établi au plus tôt : il doit permettre aux utilisateurs d’une part d’acquérir les connaissances pratiques de l’outil et d’autre part de présenter les modifications de procédures métiers. Il permet aux utilisateurs de se situer dans un processus général. Le plan de formation intègre l’ensemble de la documentation nécessaire à la prise en main du nouveau système (manuels, procédures, fiches mémo)
  • Enfin, un dispositif d’accompagnement et de support est mis en œuvre suite au déploiement pour faciliter l’appropriation de la solution. Des bilans post-démarrage avec les équipes permettent de réajuster les points critiques.

sources:

ITIL est-il utile?

Fin des années 1980, l’Angleterre est gravement touchée par la crise industrielle. Le gouvernement anglais lance une étude pour connaitre les meilleures pratiques en matière de management des services informatiques. Cette étude produit une série de livres documentant une approche de la gestion des services des IT. Cette bibliothèque a reçu le titre de « IT Infrastructure Library » ou plus communément appelé ITIL. Une première publication sortira au milieu des années 1990 avec plus de 30 volumes. Une seconde version plus abordable avec 15 volumes sortira en 2001.

Comme le rappelle Serge Crinquand sur LinkedIn, cette version ITIL a maintenant plus de 15 ans: c’est presque une éternité dans l’informatique. Et durant tout ce temps, il a fait son chemin dans les entreprises : ITIL s’est imposé progressivement comme un standard dans l’univers informatique. Malgré tout, les projets de mise en œuvre continuent de tomber dans les mêmes écueils, années après années. Des erreurs fondamentales de compréhension, de conduite de changement, la sous-estimation de l’ampleur du projet sont souvent à l’origine de débuts difficiles.

L’objectif d’ITIL est de doter les directions des systèmes informatiques (DI, DSI, DOSI…) d’outils et de documents leur permettant d’améliorer la qualité de leurs prestations, c’est-à-dire améliorer la satisfaction de leurs clients (internes et externes), tout en étant en permanence en adéquation avec les objectifs stratégiques de l’organisation. Pour ce faire, l’approche consiste à considérer le Service informatique comme un ensemble de processus étroitement liés. Pragmatiquement, ITIL répond à la logique visant à faire en sorte que l’informatique soit au service du personnel et des clients et non l’inverse. Le direction information doit être fortement impliquée dans la direction de l’entreprise. L’informatique  doit être un centre de valeur et non de cout.

La démarche ITIL n’a pas comme seul bénéficiaire la direction informatique puisqu’elle consiste à sensibiliser cette dernière a être en parfaite adéquation avec le business de l’entreprise. ITIL préconise à ce que les projets liés aux services informatiques soient financés par le client (interne ou externe). La direction informatique est alors considérée comme une SSII interne.

Étant donné que la démarche ITIL propose un référentiel des meilleures pratiques, les bénéfices de sa mise en œuvre généralement constatées sont les suivants :

  • Satisfaction des utilisateurs (personnel et clients),
  • Clarification des rôles
  • Amélioration de la communication inter-services
  • Mise sous contrôle des processus avec des indicateurs pertinents et mesurables, permettant d’identifier les leviers pour réaliser des économies
  • Meilleure compétitivité
  • Sécurité accrue (disponibilité, fiabilité, intégrité)
  • Capitalisation des données de l’entreprise
  • Optimisation de l’utilisation des ressources
  • Outil de benchmarking et de positionnement vis-à-vis de la concurrence

Comme le rappelle squitel.com, ITIL traite de trois axes principaux :

  • l’orientation « client » (gestion des services),
  • la démarche d’amélioration de la qualité (par la mise en place de processus),
  • la réduction des coûts (qui en est une conséquence).

Ces trois axes intéressent les entreprises de toute taille, aussi bien les grandes entreprises que  les PME/PMI et même certaines TPE.

Pour tous, l’informatique est aujourd’hui omniprésente, au point même de devenir un outil essentiel et indispensable pour exercer son activité. Les marchés sont aussi de plus en plus concurrentiels et en constante mutation. L’entreprise doit donc pouvoir s’appuyer sur un système d’information en parfaite adéquation avec les besoins métiers de l’entreprise, toujours plus performant et le moins onéreux possible. Le but ultime étant de laisser faire les opérations courantes par l’informatique pour se concentrer sur la stratégie et amélioration continue. Ah! l’amélioration continue! Nerf de la guerre d’ITIL basé sur le plan-do-check-act (PDCA) souvent crédité de W. Edwards Deming (voir mon article à ce sujet). Ce processus continu et sans fin est un effort pour améliorer les produits et les services.L’effort doit être continu pour être performant ce qui justifie le fait de se concentrer pleinement sur ce processus. La stratégie inclut également les opportunités et la veille technologique et concurrentielle. La aussi il est important de s’y concentrer complétement pour ne pas louper le coche qui sera très vite pris par les concurrents.

itil

Une étape décisive doit être de bien définir la stratégie de l’entreprise. Cette étape décisive ne doit pas être négligée, ce qui est souvent le cas. Cela permet de bien définir les services à valeur ajoutée de l’entreprise. La valeur a ici un sens important, ce qui n’apporte pas de valeur mais que des contraintes doit être écarté. La relation avec les utilisateurs doit être continue. Cela permet d’être prêt pour les nouvelles demandes et d’adapter les services au business. L’alignement entre le business et IT doit être constamment vérifiée.

Comme l’écrit Claude Amenc sur son blog, ITIL est finalement un recueil de bonnes pratiques, faite de bon sens et de retour d’expérience, sa généralisation crée un langage commun entre les différents acteurs, et sa simplicité la rend facilement utilisable. D’après des études (The ITIL Experience – Hornbill) on a pu constater que cette démarche permet aux fournisseurs de services (internes ou externes) d’améliorer la qualité dans la fourniture de services et la satisfaction du client. Il permet aussi l’alignement métier avec l’identification et la mise en place de nouveaux services qui leur donnent de la valeur.

sources:

PRINCE2 vs PMP

PMP_PRINCE2_Certific

Avant de passer une certification de gestion de projet, les professionnels ont tendance à débattre sur la question du choix entre les certifications PMP et PRINCE2, deux certificats très réputés dans le management de projet. Cela rend la question sur quoi investir difficile de répondre. Voici quelques éléments de réponse:

Quelle différence fondamentale?

Les certifications PRINCE2 et PMP sont basés sur deux cadres de gestion de projets différents, mais toutes deux proposent un ensemble de connaissances et une approche éprouvée pour gérer efficacement les projets. Prendre l’une ou l’autre est une décision en fonction de différents éléments. Le choix idéal peut être basée sur l’industrie ou de l’entreprise que vous visez, et le type de projet qui vous souhaitez gérer. Les deux programmes de certification sont de valeur égale, dans différents aspects de la gestion du projet.

La certification Project Management Professional (PMP)

La certification professionnelle PMP ou Project Management Professional est une des certifications les plus réputées dans le monde entier, c’est un programme de qualification proposé par le Project Management Institute (PMI).

C’est une certification en gestion de projet indispensable pour les appels d’offre aux Etats-Unis et très reconnue en Europe. Elle est valable 3 ans. Chaque mois, on compte environ 4300 nouvelles obtentions de la certification dans le monde.  Cette certification est très prisée sur le marché du travail.

Le contenu

L’obtention de la certification passe par la maîtrise du corpus méthodologique présenté dans le PmBok (Project Management Body of Knowledge). Ce guide n’est pas une méthode proprement dite mais un recueil des bonnes pratiques et principes de gestion de projet. Les thèmes abordés ont trait à l’initiation du projet, sa planification, l’exécution du projet, le suivi, le contrôle et la clôture du projet. Le PMBOK se focalise sur le rôle du manager de projet.

La certification

La certification valide donc vos connaissances ces bonnes pratiques. L’examen pour obtenir la certification dure quatre heures et comporte 200 questions sur la gestion de projet. Pour s’y préparer, il faut lire et s’imprégner des ouvrages suivants :

  • PmBok (Project Management Body of Knowledge)
  • PMP Exam Prep: Rapid Learning to Pass PMI’s PMP Exam-On Your First Try! qui est un excellent complément au PmBox.

Avantages

  • meilleures perspectives de salaire: les certifiés  PMP obtiennent une augmentation salariale plus importante et plus fréquente que leurs pairs non-certifiés.
  • Possibilités de réseautage: Pour obtenir une certification PMP, il est recommandé de devenir membre du PMI. Une fois membre, vous avez accès à un vaste réseau de professionnels avec des qualifications similaires. Ces contacts peuvent se révéler crucial pour aider à décrocher un emploi de gestion de projet.
  • Meilleures perspectives d’emploi: Comme la certification de gestion de projet le plus populaire au monde, les informations d’identification de PMP est reconnu et la confiance des employeurs dans le monde entier.

La certification Projects IN Controlled Environments (PRINCE2)

La certification PRINCE2 ou « Projects IN Controlled Environments » est une méthode de gestion de projet basée sur les processus qui offre une méthode systématique pour fournir un projet fructueux avec des modèles, des processus et des étapes clairement définies. La certification est à la fois centré sur les processus et le projet. PRINCE2  émane de l’OGC (Office of Government Commerce) britannique qui en est propriétaire.

Le contenu

PRINCE2 est basé sur un guide « Réussir le management de projet avec PRINCE2 ». Les caractéristiques de ce guide sont les suivantes:

  • Il couvre les principes de gestion de projet avec un cadre général et large, ce qui signifie qu’il peut être utilisé et mis en œuvre pour à peu près tout type de projet.
  • Il a une approche bien aménagé et standardisé pour la gestion de projet.
  • Elle décrit clairement les rôles et les responsabilités de chaque partie prenante du projet.
  • Il divise les plans en plans projet, plans d’étape, et les plans d’équipe, ce qui élimine les ambiguïtés et le rend plus facile à exécuter le projet.
  • Il est axé sur les processus des méthodologies de gestion de projet et permet de définir les rôles de chacun au cours d’un projet .

La certification

Cette méthode donne lieu à deux types de certification Prince2 qu’on peut passer très vite l’une après l’autre.

  • Examen PRINCE2 Fondamental
  • Examen PRINCE2 Praticien

L’examen PRINCE2 Fondamental permet de valider que vous avez les connaissances nécessaires pour participer à un projet dont la gestion émane de la méthode PRINCE2  Pour être certifié Prince2, vous devez maîtriser les principes et la terminologie de la méthode Prince2. Vous devez obtenir d’abord l’examen Fondamental avant de pouvoir passer l’Examen Praticien.

Les avantages

  • Connaissance exhaustive du corpus: Le corpus de connaissances PRINCE2 dote le détenteur du titre d’outils pour analyser un projet sous tous les angles, assurant sa viabilité avant même qu’il ne soit lancé. Des éléments tels que les besoins des utilisateurs et les risques potentiels sont pris en compte dés le début du projet pour veiller à ce qu’un projet qui rencontrent des obstacles soit fiable pour chaque les étapes de la planification. S’il ne l’est pas, il est stoppé!
  • Une méthodologie bien agencée: Beaucoup de temps et de ressources ont été sauvegardée au cours de la réalisation d’un projet avec une méthodologie clairement définie.
  • Normalisation: les erreurs sont éliminées durant l’exécution du projet en suivant une approche standardisée avec des systèmes de classement, procédures et documents.
  • Poussé par le cas d’affaire: PRINCE2 oblige les utilisateurs à auto-évaluer et à fournir des mises à jour sur les cas d’affaires pour s’assurer que le projet apportera une valeur ajoutée à l’organisation et ses clients. Cela permet de justifier la continuité du projet à tout moment.
  • Amélioration du salaire et meilleures perspectives d’employabilité: Il y a de grande chance de décrocher un meilleur emploi qui paie bien, surtout dans les pays qui privilégient cette méthode comme le Royaume-Uni. Cela donne une justification suffisante de vos compétences pour une augmentation de salaire.

Conclusion

Les certifications PMP et PRINCE2 sont différentes : PMP permet de valider les connaissances des bonnes pratiques dans une organisation internationale, ce qui est une bonne aide pour travailler à international. Mais elle ne donne pas de méthode globale pour la gestion de projet. PRINCE2 fournit une méthode complète et claire qui permet de s’assurer de la fiabilité d’un projet à chaque étape.  Personnellement j’ai choisi PRINCE2 qui fournit une méthode globale pour garantir la réussite du management de projets.

Cependant il est indiscutable qu’elles sont très complémentaires, apportant chacune de la valeur sur des domaines différents. Par conséquent, il n’est pas inutile d’acquérir des connaissances sur les contenus des deux référentiels. C’est aussi le choix que j’ai fait mais sans passer la certification pour le PMP pour des raisons financières.

sources: