vendredi 23 décembre 2011

Compass Management Consulting Les 4 causes fondamentales de l’échec des projets IT

jeudi 22 décembre 2011
Politique de communication sur les projets,  des estimations involontairement ou volontairement fausses, la complexité législative et réglementaire et l’historique des Systèmes d’Information des entreprises, telles sont les quatre principales causes de l’échec  des projets informatiques. C’est l’explication que propose Compass Management Consulting , une filiale du groupe Information Services Group(ISG).

Une étude menée il y a quelques années aux Etats-Unis par Standish Group auquel il fait souvent référence, donne les résultats suivants :
- 31% des projets ne seront jamais terminés,
- Plus de 52% des projets auront un coût représentant 189% de l’estimation initiale,
- Uniquement 16% des projets se termineront dans les budgets et les délais initiaux ; ce chiffre tombe à 9% pour les grandes entreprises,
- Le délai moyen de dépassement des projets est de 230%,
- Sur 100 projets lancés, 94% devront être relancés.

« Certes, cette étude est américaine et pour des projets américains,  constatePhilippe Prunet. Consultant de Compass Management Consulting. Je ne crois pas qu’une telle étude ait déjà été menée en France, même s’il existe ici ou là dans divers rapports ou analyses plus ou moins confidentiels des ordres de grandeur approchant. On peut raisonnablement penser que ces constats soient les mêmes en France ».

Ce type d’analyse est par définition difficile à mettre en œuvre, notamment dans les grandes entreprises, car la plupart des projets « ratés » sont cachés, non révélés officiellement, politiquement incorrects et donc non mesurables.  Parmi les causes très souvent évoquées : le management, la gestion des projets, l’organisation, la sous-traitance, l’outsourcing, la technologie en complexité croissante, l’expression de besoin mal définie, les choix d’architecture ou de progiciels mal adaptés sont certainement fondées … Mais selon Compass Management Consulting,  il existe des raisons beaucoup plus puissantesen termes d’impact négatif sur le bon déroulement des projets et le bon fonctionnement des Systèmes d’Information. Elles ont la particularité d’être plutôt invisibles mais avec un effet de levier considérable sur les causes apparentes et visibles citées précédemment. ».

1.       La politique de communication sur les projets

La plupart du temps, pour les projets réussis, l’entreprise ou la DSI communique sur les résultats flatteurs mais elle les explicite rarement. Pas d’analyse fine des facteurs de réussite, des bonnes pratiques, etc. C’est pourtant un travail naturellement faisable et ce, à moindre coût, dès lors que les processus sont standardisés, les méthodes et les outils de mesure mis en place, les indicateurs de pilotage définis et calculés. Ces analyses devraient figurer dans les bilans de projet ou les bilans annuels applicatifs et être réutilisés pour boucler la boucle d’un cercle vertueux du cycle de vie projet ou applicative. Rien de tout cela ne voit le jour une fois le projet terminé, ou très rarement.

Quant aux projets abandonnés ou ceux qui ont abouti mais affichent des facteurs de dépassement hors de l’entendement, la communication n’existe plus. Les éventuelles analyses de risque initiales sont oubliées, et l’analyse indispensable et honnête des causes de l’échec ne voit jamais le jour.

C’est là une première cause majeure endogène et purement politique : la décision de ne pas analyser (cela coûte encore un peu plus que l’échec) et de ne pas communiquer. Il arrive parfois que les résultats soient en quelque sorte ‘bricolés’ pour que l’inacceptable devienne un tant soit peu acceptable. Dans ce cadre, aucune leçon n’est tirée pour améliorer l’organisation, l’urbanisation, les choix technologiques, les méthodes de suivi et de pilotage des projets.

2.       Des estimations involontairement ou volontairement fausses

 Les résultats statistiques de l’étude américaine sur les coûts, les charges et les délais, démontrent surtout des écarts entre un estimé et un constaté. En effet, la vraie question est celle de l’estimation.
« Nous avons souvent démontré dans nos études et nos benchmarks AD/AM que les coûts et délais réels des projets (aussi bien en mode projet qu’en maintenance applicative) ne sont pas aussi catastrophiques que ces résultats le laissent entendre »poursuit Philippe Prunet.

Il s’agit là d’une deuxième cause importante liée aux estimations et à leurs méthodes ou outils. Les méthodes utilisées sont, pour la plupart de nos clients, des méthodes d’estimation dépassées basées sur des notions d’unités d’œuvre (donc orientées solutions techniques), réadaptées (même ‘bricolées’) localement, avec une incapacité notoire à estimer le moment où la décision budgétaire est cruciale, c’est-à-dire après une expression de besoin digne de ce nom. A ce propos, les expressions de besoin sont souvent incomplètes ou imprécises, d’oùuneimpossibilitéde définir le périmètre fonctionnel de l’application à réaliser.

 « Lorsque nous sommes amenés à étudier ou auditer les processus d’estimation et le contenu des composants et résultats de ces estimations, le constat est que le dénombrement, d’écrans, d’états, de fichiers interfaces y figure dans le meilleur des cas, poursuit le consultant. Pour autant, une estimation n’est pas une valeur simple découlant de ce que l’on sait une fois que les phases de spécifications détaillées ou techniques sont déroulées et que les unités d’œuvre sont connues, mais bien une valeur composite intégrant notamment la couverture ou richesse fonctionnelle partant de l’expression de besoin, car c’est à ce moment que le ‘go, no go’ se décide»

Lorsque cette richesse fonctionnelle est évaluée initialement (au démarrage du projet) et réévaluée à 2 ou 3 instants clés du cycle de vie du projet, il est facile de démontrer une éventuelle dérive de périmètre fonctionnel et de justifier un décalage de coût par un argument précis (l’instabilité fonctionnelle) qui se distingue d’autres qui peuvent être tout aussi valables (comme les causes techniques, architecturales ou organisationnelles), mais qui ne sont pas toujours recevables de la part de la maîtrise d’ouvrage ou des utilisateurs. C’est une évidence : l’utilisateur ou la maîtrise d’ouvrage se reconnaît pleinement dans une évaluation basée sur une description fonctionnelle, et beaucoup moins lorsqu’on lui parle composants techniques.

Par ailleurs, les estimations initiales sont trop souvent sous-évaluées. L’estimation n’est plus involontairement fausse mais bien volontairement fausse. Et c’est plus grave. La raison majeure est que les entreprises raisonnent plus par budget à allouer que par nécessité métier ou valeur réellement ajoutée à l’entreprise. Mieux vaut un projet inutile à petit budget qu’un projet utile à gros budget.

La seconde raison implique le sous-traitant (quand il y a outsourcing ou offshoring). Celui-ci, pour emporter le marché face à la concurrence, proposera le budget le plus serré possible (dans le contrat initial) quitte à se rattraper sur des avenants, ce qui sera le cas systématiquement dès lors que le projet (en mode « design to cost ») ne correspond pas pleinement au besoin initial. On a fait a minima et on en aura pour le maxima.

3.       La complexité législative et réglementaire

Un autre aspect, rarement évoqué dans les points de vue que l’on peut voir sur internet ou dans la presse spécialisée, est relatif à la complexité réelle ou supposée des systèmes d’informations. Concernant les SI des grandes entreprises (celles du CAC 40 ou assimilées), cette complexité revêt plusieurs axes : l’architecture fonctionnelle et technique du SI, l’organisation des projets, la législation (les lois et règlements internes ou externes), la sécurité, l’externalisation et bien d’autres. Il existe ici un domaine dont on ne parle quasiment jamais, mais qui à lui seul peut faire monter la note de 2 à 3 fois sa valeur initiale possible : la législation au sens large.

C’est troisième cause majeure est liée à la complexité législative et réglementaire. En effet, l’impact est souvent fonctionnellement considérable (et c’est une spécificité française) sur les Systèmes d’Informations (SI) de l’entreprise comme le SI RH (gestion des ressources humaines de l’entreprise qui intègre la Paie), le SI Comptable ou d’autres comme la Facturation.

Le point commun de ces systèmes est qu’ils sont transverses à toutes entreprises, soumis à des lois et règlements, à des conventions collectives générales et particulières, bref à une panoplie (dont nous avons en France probablement le record du monde) de règles qu’il faut impérativement implémenter dans ces systèmes. Etrangement, On constate que les fameux projets de développement ou les maintenances applicatives qui coûtent deux à trois fois plus cher que prévu (en oubliant que l’estimation initiale peut être en cause) se situent majoritairement dans ces SI transversaux (RH, Finances, Paie, Comptabilité, …). On ne rencontre pas de tels ratios pour les SI « cœur de métier ».

Cela constitue assurément une richesse fonctionnelle (à comparer à des systèmes équivalents dans d’autres pays d’Europe ou du monde) mais cela induit aussi une architecture fonctionnelle et technique complexe.

Ces SI intègrent, pour la plupart, une grande quantité de progiciels (parfois 4 ou 5 pour un même SI). Les éditeurs ont misé beaucoup en terme de couverture fonctionnelle et de souplesse de paramétrage, mais jamais assez pour telle ou telle grande entreprise française. A priori, l’idée d’opter pour un progiciel peut sembler évidente dans ces cas : la législation est la même pour tout le monde.

Chaque SI devrait être quasiment identique et « progicialisé » au maximum et, d’une entreprise à l’autre, les différences devraient être mineures. Pourtant, ce n’est pas le cas. Chaque DSI produit sa solution. Sur ces SI, les progiciels sont souvent utilisés de manière peu standard, avec des coûts d’adaptation ou des développements spécifiques explosifs.

4.       L’historique des Systèmes d’Information des entreprises

L’informatique au sens n’a cessé de se développer de manière exponentielle en outils et en performance depuis 40 ans.  Pour répondre à un même besoin utilisateur, de nombreux scenarii sont possibles aujourd’hui, en termes d’architectures techniques, de choix d’outils ou de progiciels. Il existe moult façons d’apporter la solution informatique à une demande fonctionnelle de maîtrise d’ouvrage. Tous ces scenarios sont-ils bien envisagés du point de vue du risque, de l’efficience, de la performance, des coûts ? Pas si sûr.

Une chose est certaine : la nouvelle application dont on rêve et qui aurait tous ces indicateurs au vert doit s’insérer dans un SI entreprise existant et cohabiter avec de multiples applications plus ou moins anciennes (parfois très anciennes, plus de 20 ans), plus ou moins complexes, plus ou moins bien architecturées, avec des données plus ou moins bien urbanisées, etc. Et c’est ainsi que la complexité fonctionnelle et technique peut devenir elle aussi explosive avec les coûts de fabrication et de maintenance qui en découlent.

« N’oublions pas que les coûts de refonte des SI sont souvent très élevés, précisément dus au fait d’une intégration complexe, avec une valeur ajoutée quasi nulle lorsqu’il s’agit de refaire « en plus moderne » une application à iso-fonctionnalité. Heureusement, la nouvelle application « plus moderne » sera plus séduisante, plus attractive pour l’utilisateur. Sera-t-elle plus performante ? Rendra-t-elle un service supérieur pour l’utilisateur dans le cadre de ses tâches quotidiennes ? A méditer »,conclut Philippe Prunet.

jeudi 22 décembre 2011

E-mail marketing : l'heure des bilans et des stratégies 2012

21/11/2011
Budgets, tactiques et stratégies 2012 ; la fin de l’année approche et tous les professionnels du marketing se concentrent sur les bilans de fin d’années et les nouvelles orientations 2012. Sources d’inspiration pertinentes, les tendances actuelles et à venir décrites par les experts collent aux évolutions des divers canaux du marketing direct. Découverte des préconisations concernant l’e-mail marketing pour l’année 2012.
.
L'année 2011 touche à sa fin. C'est l'heure des bilans et des plans d'actions pour 2012. Découvrez quelles sont les tactiques et stratégies e-mailing à intégrer à votre check-list 2012.
.
Base de données, méthodes de collecte et gestion des contacts
En premier lieu, on pensera à examiner les nouveaux canaux visant l’acquisition de nouveaux contacts ainsi que les méthodes permettant d’affiner la qualification des abonnés et, par rebond, le ciblage des messages :
.
- Les réseaux sociaux comme Facebook, Twitter, Linkedin, etc. Ces nouveaux médias offrent de nouvelles opportunités pour promouvoir un programme d’e-mail marketing auprès d’un nouveau public et générer de nouveaux inscrits.
- Les QR codes, affichés en magasin ou intégrés aux brochures papier.
- Les formulaires dits « progressifs » qui permettent de recueillir petit à petit des données qualificatives via la mise en place d’une série de messages.
- La création d’un centre de préférences - ou son optimisation. Il s’agit d’un espace permettant à l’abonné de gérer ses paramètres d’abonnement. Le contact peut ainsi renseigner ses thématiques préférées, la fréquence à laquelle il souhaite recevoir les messages, suggérer des orientations de contenu, etc.
- Le SMS à proposer comme canal d’information pour certains types de communication : invitation, confirmation de présence à un événement, livraison produit, etc.
- La proposition d’alternatives au désabonnement : nouveau canal de contact (réseaux sociaux par exemple), réduction de la fréquence de réception des messages, sélection des certains types de messages ou de contenus, pause pendant une durée définie, etc.
- La création d’un segment de contacts montrant des signes d’inactivité avant qu’ils tombent en inactivité totale.
.
Délivrabilité des messages e-mails
La délivrabilité reste toujours et encore l’un des challenges des e-mails marketeurs. Les systèmes de filtrage des FAI ne cessant de se renforcer, cette problématique ne doit pas être écartée des objectifs de l’année à venir. On intègrera donc à check-list (si ce n’est pas déjà fait) :
.
- L’utilisation d’une solution professionnelle d’e-mail marketing pour suivre et mesurer les performances des campagnes : taux d’aboutis, nombre de bounces, suivi de la délivrabilité selon les FAI, la présence d’adresses pièges (ou spam traps), etc.
- L’analyse de l’origine des problèmes de délivrabilité et les sources de motivation des plaintes (source ou méthode d'acquisition d'adresses, gestion des données, ciblage, fréquence ou contenu).
.
Conception & contenu des campagnes e-mails
Les technologies online évoluent rapidement tout comme le comportement des internautes. Plus matures, ces derniers réagissent désormais différemment aux stimuli et ont des attentes plus spécifiques quant aux échanges avec les entreprises. Quelques points à prendre absolument en compte en 2012 :
.
- Une version mobile des messages e-mails et une page d’atterrissage adaptée au mobile afin de s’adapter aux nouveaux comportements de consultation des internautes.
- L’évolution des appels à l’action des messages avec une refonte / création de boutons attractifs et facilement cliquables. Les déclinaisons imaginées seront testés auprès d’échantillons de la base afin de valider leurs performances avant de les généraliser.
- L’évolution et test des pages d’atterrissage (y compris celles dédiées à la consultation mobile).
- Le renforcement des possibilités de partage des campagnes e-mails via la valorisation d’un contenu adapté au partage et l’intégration de boutons facilitant l’action pour les abonnés et ce, vers leurs réseaux favoris.
- L’intégration d’un contenu plus humain aux messages e-mails, de témoignages internes ou externes, de retours d’expérience, d’avis d’utilisateurs, etc.
- Le développement de campagnes e-mails moins axées sur la vente et dont les objectifs peuvent être informer, éduquer, divertir, engager ou faire rêver.
- Le développement de la pertinence des campagnes via l’ajout de personnalisation dynamique de contenus.
- Le test de différentes cadences d’envoi afin de trouver le rythme qui fonctionne le mieux selon les divers niveaux d'engagement des abonnés.
- L’instauration d’une campagne e-mail dédiée aux contacts inactifs ou montrant des premiers signe d’inactivité afin de les réanimer ou de les supprimer de la liste des abonnés.
.
Automatisation et segmentation
La performance des campagnes e-mails est intrinsèquement liée à l’envoi de messages pertinents et ciblés. Pour cela, il est nécessaire de segmenter sa base de contacts en accord avec le comportement des contacts ou clients. La segmentation alliée à l’automatisation des envois apparaissent aujourd’hui comme des solutions incontournables pour gagner en pertinence et en temps et pour se rapprocher davantage de ses contacts.
.
- Le couplage des solutions CRM, e-commerce ou Web Analytics avec sa solution d’e-mail marketing afin de pouvoir bénéficier de l’ensemble des données recueillies sur les contacts. Cela permet ainsi de cibler et personnaliser davantage les campagnes e-mails.
- La mise en place d’un programme e-mail pré-achat basé sur le comportement d’achats et de navigation des clients (abandon de panier, remarketing, etc.).
- Le développement d’un programme post-achat (enquête, recueil d’avis, anniversaire achat, remplacement de produits, etc.).
- Le lancement ou l’optimisation des e-mails transactionnels intégrant un bon design, un encart dédié à l’intégration de contenu dynamique pour la valorisation de produits complémentaires ou autres, un espace dédié aux avis d’utilisateurs et aux conditions générales.
- La mise en œuvre d’un programme d’accueil nouveaux abonnés ou nouveaux clients et d’un programme anniversaire.
.
Mesure & analyse
Le travail de mesure se limite souvent à l'heure actuelle à l'observation des taux d'ouverture, de clic ou de réactivité. Pourtant, cet aspect nécessite des efforts bien plus importants et s'avère surtout riche en enseignement. Considéré sérieusement et bien organisé, ce travail est un réel vecteur d'amélioration pour la stratégie globale.
.
- Au-delà des statistiques de performances basiques, chiffrer le ROI réel, l’impact sur la rétention de clients ou encore les recettes dégagées via les campagnes d’e-mails et leurs évolution dans le temps et selon le type de messages.
- L’analyse des résultats par segment de contacts, selon la démographie par exemple ou encore comparer les données obtenues entre acheteurs et non-acheteurs, selon les secteurs d’activité, etc. Cela permet d’évaluer l’efficacité des campagnes selon les profils et pouvoir affiner la stratégie globale et développer éventuellement certaines actions spécifiques à fort potentiel.
.
A chacun son organisation, son niveau et temps à consacrer à l’e-mail marketing. Quoiqu’il en soit, l’évolution des stratégies est nécessaire pour tous. Commencez par faire le point sur votre stratégie actuelle, retirer les failles et leviers intéressants avant de sélectionner les tactiques qui peuvent s’avérer pour vous les plus pertinentes et rentables.
  http://www.dolist.net/revue,6344,top_B4D4155D,E-mail,marketing,lheure,des,bilans,et,des,strategies,2012.html?utm_source=newsletter-dec-2011&utm_medium=email&utm_content=lien-texte&utm_campaign=newsletter-prospects

Repenser la SÉCURITÉ et le STOCKAGE

par Bertrand Garé - Dossier publié par le magazine L'Informaticien le 01/11/2011
Elle s’opère peut-être trop lentement, mais l’industrie informatique vit une véritable révolution dans l’usage des produits qu’elle propose, la manière de les administrer. Sécurité et stockage ont aussi besoin d’évoluer sous la pression de grandes tendances de long terme : mobilité, consumérisation, explosion des données et Cloud. On peut y ajouter une volonté de mieux utiliser les données présentes dans l’entreprise avec la généralisation des outils de Business Intelligence. Les schémas classiques de sécurité et de stockage montrent actuellement leurs limites. Il faut donc repenser les modèles et utiliser les apports de technologies et d’architectures nouvelles pour faire face à tous ces nouveaux défis. Tour d’horizon des solutions actuelles et des problématiques que rencontrent aujourd’hui les entreprises.
 
Dossier réalisé par Bertrand Garé. 

Page 1 de 13 Page suivante 
 
http://www.linformaticien.com/dossiers/id/22456/repenser-la-securite-et-le-stockage.aspx

Observatoire des projets 2011 : la méthode formelle garantit le succès


Edition du 15/12/2011 - par Bertrand Lemaire
Observatoire des projets 2011 : la méthode formelle garantit le succès


Le cabinet Daylight, l'ENSIIE et l'IAE Lille ont publié la deuxième édition de l'Observatoire des Projets informatiques. Le succès d'un projet est clairement associé à l'emploi de méthodes formelles.
Quelles sont les pratiques qui amènent la réussite ou l'échec d'un projet de transformation organisationnelle avec des composantes conséquentes en système d'information ? Un tel lien de causalité méthode/réussite existe-t-il ? Le cabinet Daylight s'est penché pour la deuxième année consécutive sur ces questions au travers de son Observatoire des Projets réalisé avec l'ENSIIE (Ecole Nationale Supérieure d'Informatique pour l'Industrie et l'Entreprise) et l'IAE Lille (Institut d'Administration des Entreprises) ainsi qu'un grand nombre de partenaires associatifs.

Si chacun a des avis empiriques ou des observations qualitatives sur les questions soulevées, l'objectif est bien ici d'avoir un état quantitatif sur le management de projet. Fadi El Gemayel, PDG de Daylight, tire la leçon principale de cet observatoire : « il y a une forte corrélation entre l'emploi de bonnes pratiques, de méthodes formelles, et la réussite des projets. Il y a également une forte corrélation entre l'absence d'emploi de ces méthodes et l'échec des projets. » Le lien de causalité est donc bien réaffirmé sur des bases statistiques, quantitatives, et non pas qualitatives ou empiriques.

La réussite d'un projet suppose qu'il soit déclaré achevé sans abandon en cours de route et qu'il n'y ait pas de dérive de plus de 15% sur ses coûts, délais et fonctionnalités. La maîtrise d'un projet implique également qu'un incident reçoive une réponse dans un délai court (moins d'une semaine) et, déjà, que les incidents aient été repérés.

Avec cette définition, moins de la moitié des entreprises réussissent au moins la moitié de leurs projets dits « stratégiques », c'est à dire impliquant une transformation organisationnelle avec une composante système d'information.

Les chefs de projet mal considérés

Les méthodes de gestion de projets sont, il est vrai, souvent déficiente. Et le métier même de chef de projet est déconsidéré. Près de la moitié des répondants estiment que cette fonction est temporaire, un quart lui refusant même le besoin de compétences particulières en dehors de la compétence métier sur le sujet abordé. Heureusement, lorsque le répondant est DSI, le chef de projet est mieux considéré, les taux de rejet de sa spécificité étant globalement divisés par deux. A l'inverse, l'existence d'une fiche de poste « chef de projet » existe dans les autres entreprises mais moins d'un cinquième des répondants non-DSI et un tiers des DSI prennent en compte les besoins en formation associés.

De la même façon, un tiers seulement des projets sont lancés avec un véritable contrat de projet entre maîtrise d'oeuvre et maîtrise d'ouvrage avec un référentiel d'exigences, une cible, un planning, etc. Dans un cas sur cinq, il n'existe même aucun document écrit pour lancer un projet. Le solde (quatre sur dix environ) est constitué de projets lancés avec une vague lettre de mission.

L'existence de structures pérennes pour aider à la gestion de projets (une sorte de bureau des méthodes) ne concerne qu'une minorité d'entreprises (environ un quart selon les attributions prises en compte). La notion même de porte-feuille de projet, avec les dépendances tant en termes d'impacts que de ressources, est rejeté par un quart des entreprises, la moitié ne se préoccupant que des dépendances en planification (le projet B a besoin du projet A achevé pour démarrer).

La réussite conditionnée à des méthodes claires
Page suivante (2/2) >



A propos de l'étude
L'Observatoire des Projets s'inscrit dans un programme de recherche baptisé Aurore. Il correspond au premier des trois axes de ce programme : impact des moyens structurels mis en place par les entreprises pour assurer la maîtrise et la réussite de leurs projets. Les deux autres sont : d'une part identifier les déterminants de la maîtrise et de la réussite à l'échelle d'un projet ou programme, d'autre part déterminer l'impact des facteurs humains dans la réussite et la maîtrise des projets.

L'observatoire est basé sur un questionnaire auto-administré en ligne sur sollicitation auprès de cadres dirigeants de 7335 entreprises de plus de 250 salariés (une seule réponse par entreprise) entre juin et octobre 2011. Un système de jetons aléatoires de connexion a permis de vérifier que seules les personnes désirées ont répondu.

Sur 300 réponses reçues, 123 ont été jugées complètes et cohérentes. L'intervalle de confiance avec un risque de 5% est donc de 9%. L'échantillon de réponse n'est pas représentatif en termes de secteurs : les services (y compris financiers) et l'enseignement sont largement sur-représentés par rapport à la population générale des entreprises, aux dépends de l'industrie manufacturière et de la construction notamment.

CIO et Le Monde Informatique sont partenaires médias de l'Observatoire des Projets. L'étude a été soutenue par la DGAC (Direction Générale de l'Aviation Civile) et l'éditeur One2Team.

Site web de l'Observatoire des Projets

http://www.cio-online.com/actualites/lire-observatoire-des-projets-2011%20-la-methode-formelle-garantit-le-succes-4020.html?utm_source=mail&utm_medium=email&utm_campaign=Newsletter

108: Redresser des projets qui ont des problèmes

Vous souvenez-vous d’avoir travaillé sur un projet qui a été planifié et exécuté parfaitement et où vous avez répondu aux attentes en termes de budget, de date limite et de qualité du produit ? D’un projet où vous vous êtes entendu de manière cordiale et professionnelle avec vos clients et où il n’y a eu aucun problème ?
Si vous aviez eu de la chance, vous pourriez penser à un projet de ce genre, peut-être même à deux. Il est facile d'oublier que beaucoup de projets sont menés à terme avec succès. Bien qu'aucun projet ne soit absolument parfait, beaucoup de projets sont réalisés avec un minimum de problèmes et de stress.
Beaucoup de projets sont menés à terme d’une manière satisfaisante. Cependant, la plupart des chefs de projet ont, au moins une fois, travaillé sur des projets moins réussis. Il arrive parfois que le projet soit, à 100%, un désastre pur. Habituellement, les résultats sont plus nuancés. Il est commun de réaliser un projet en dépassant la date limite ou le budget. D'autres fois, il arrive que le client n’obtienne pas tous les dispositifs et toutes les fonctionnalités qu’il avait prévus au départ. Sur certains projets, il y a tellement de frictions entre l’équipe de projet et le client, que le projet laisse une mauvaise impression à chacun, même lorsque les livrables sont finalement produits.
Premièrement : le projet a-t-il vraiment des problèmes?
Quand vous examinez un projet qui semble avoir des problèmes, il faut d’abord s’assurer que c’est bien le cas. Dans de nombreux cas, on voit des problèmes là où il n’y en a pas vraiment. Dans d'autres cas, un projet peut avoir des problèmes, mais le chef de projet aura déjà commencé un processus de contrôle et de correction des dommages. Parfois, le projet est en difficulté, mais les problèmes ne sont pas suffisamment significatifs pour qu’il soit considéré en danger. Par exemple, si un projet prévu pour une durée de neuf mois, se termine avec une semaine de retard, s’agit-il vraiment d’une difficulté ?
Aussi, faut-il d’abord confirmer que vous avez réellement un problème, en déterminant si le projet est en dessous des tolérances acceptables.
Il est important de s’en tenir aux tolérances fixées, lorsque le projet commence à tendre vers un dépassement du budget ou des délais. Toutefois, ce dépassement peut être contenu dans des marges acceptables, et le projet peut alors être considéré comme n’étant pas en difficulté.
Peut-on changer rapidement le cours du projet?
Si le projet est en difficulté, mais n’a pas encore atteint le stade du désastre, voyez si vous pouvez déterminer la cause du problème et mettre en place un plan de réponse rapide. Le chef de projet peut déjà avoir un plan de rétablissement en réserve, ou avoir besoin d’assistance. Si les dommages sont mineurs, le projet peut être remis sur la bonne voie, avec un peu plus d'attention et un plan proactif. On appelle parfois ces mesures un « redressement » doux. Dans de nombreux cas, ce redressement doux peut remettre le projet sur la bonne voie sans accroître le budget ni avoir un impact sur l'échéancier. Les activités qui y sont associées peuvent se limiter à la mise en application d’un meilleur processus de management de projet ou à la permutation de ressources ayant des qualifications semblables. Si ce type de changements relativement mineurs se multiplie, une intervention plus radicale sera requise.
Terminologie de management de projet
Décalage avec retard. Modification d’un lien logique entraînant un retard de l'activité successeur. Par exemple, dans une liaison fin-début avec un décalage avec retard de 10 jours, l'activité successeur ne peut commencer au plus tôt que 10 jours après l’achèvement de l’activité antécédente. Voir aussi Décalage avec avance, parfois appelé Décalage négatif.
Demande d'information. Type de document d'approvisionnement dans lequel l'acheteur demande à un fournisseur potentiel de lui fournir diverses informations relatives à un produit, un service, ou à certaines de ses capacités.
Abréviations courantes
EMV (anglais) : Expected Monetary Value
        (français) : Valeur monétaire attendue
Liens intéressants
Logiciel: MIKOGO
·   Société: BeamYourScreen, Manheim, Allemagne
·   URL: www.mikogo.com
·   Catégorie: Collaboration d'équipe
·   Fonctionnalités:
o    Permet de visualiser les écrans d'ordinateur de 1 à 10 personnes en direct sur Internet.
o    Permet aux utilisateurs de choisir, parmi les applications utilisées, lesquelles partager et celles à masquer.
o    Fournit des modèles de projet.
o    Permet aux utilisateurs d'illustrer et de mettre en évidence les zones sur leurs écrans pour les montrer aux autres.

Les équipes de TenStep Francophone
TenStep Francophone

mercredi 21 décembre 2011

Dossier Cloud - La révolution Cloud Computing

Un dossier de 16 articles, avec 8 interviews d'acteurs référents, pour comprendre les technologies et décrypter les évolutions, les faux-semblants et les vraies tendances.
Pourquoi une entreprise qui fabrique des fromages, des chaussures, des emballages… ou qui propose des services devrait-elle s’équiper de serveurs, y installer des systèmes d’exploitation et des applications, et se charger de leur maintenance ? Au départ, elle souhaite surtout s’équiper d’une messagerie, d’une solution de comptabilité, voire d’un progiciel lié à ses activités.
Son besoin attend un service informatique et non un prestataire, mais bien un flux applicatif. Devra-t-elle forer pour trouver une source si elle souhaite s’équiper en eau ? Recruter un mécanicien pour entretenir ses véhicules de société ?…
Adieu aux serveurs à la maison
En proposant l’accès à des applications et à des ressources en ligne, le cloud computing pourrait bien incarner la solution tant attendue par des entreprises lasses de “faire de l’informatique”. En outre, ce principe leur permet d’accéder à des compétences et à des technologies auxquelles elles ne pourraient accéder autrement.
Un simple navigateur Web et une connexion Internet suffisent pour accéder à tous ces services informatiques. Mieux encore, plutôt que d’investir du capital dans des équipements informatiques dont elles n’ont que faire, ces entreprises utilisent ces services en ligne sécurisés contre quelques dizaines d’euros par mois (en frais de fonctionnement) ! Et leurs données sécurisées et prises en charge par des professionnels sont systématiquement sauvegardées et préservées.
Cette révolution en marche s’amplifie et les sociétés informatiques doivent adapter leurs modèles et leurs pratiques. Des transformations qui bousculent également leur écosystème (revendeurs, partenaires, prestataires…).
Un panel très représentatif
Dans le cadre de ce dossier, huit entreprises informatiques ont été interrogées. Les pionniers du cloud sont représentés par salesforce.com, Google, qui partagent leur expérience de terrain et leur vision de l’évolution de ce marché. Ces deux acteurs proposent des solutions en ligne sur leur plate-forme dont elles conservent la maîtrise et l’exclusivité. Autre pionnier intéressant bien que moins connu, Joyent œuvre sur le cloud depuis cinq ans (et compte Intel parmi ses investisseurs), mais a choisi de vendre son infrastructure aux fournisseurs de cloud et aux entreprises, à travers un modèle inédit. De même, Parallels fournit les hébergeurs depuis des années et propose une approche emblématique, car différente du cloud, mais intéressante.
Présents sur tous les fronts du cloud et revendant de l’infrastructure pour les hébergeurs de cloud, les géants ont pris le train en marche et accélèrent fortement aujourd’hui. HP et IBM s’installent sur tous les segments : SaaS, IaaS, PaaS, infrastructures matérielles et logicielles pour entreprises et fournisseurs cloud… de cette industrie. Quant à Microsoft et CA Technologies, ils se cantonnent logiquement à la partie logicielle.

http://dsi.silicon.fr/dossiers/dossier-cloud-la-revolution-cloud-computing-938

L'évaluation vaut aussi pour les nuages informatiques

Publié le 19 décembre 2011 , A propos de... L'Atelier BNP Paribas - Paris
Pour aider les PME à bien choisir entre les différentes infrastructures existantes et qui leur sont proposées, (MC2)2 propose un système de comparaison de plusieurs paramètres : adéquation aux besoins internes et externes...
Le modèle informatique en nuage (cloud computing) promet des économies significatives aux organisations, entre autres bénéfices. Son adoption passe néanmoins par une rupture avec l’existant ou tout au moins une migration importante. D’où la nécessité de comparer de façon détaillée les infrastructures en compétition, sous plusieurs aspects. C'est ce qu'a fait un groupe de chercheurs allemands  composé d’informaticiens et de spécialistes réseaux de Karlsruhe, qui a développé une méthodologie d'évaluation du cloud. "Les méthodes actuelles d’évaluation limitent la prise de décision aux coûts relatifs du cloud computing, sans examiner les autres critère", expliquent-ils.
Un processus progressif
Que l’approche Cloud serve l’informatique de gestion ou des calculs intensifs, il lui manque un cadre d’évaluation générique. Les chercheurs Allemands ont baptisé leur méthode comparative (MC2)2 pour Multi-Criteria Comparison Method for Cloud Computing, un outil d’aide à la décision regroupant de nombreux critères. (MC2)2 propose un processus linéaire et définit, progressivement, une méthode d’évaluation concrète. Pour aboutir à une évaluation et à un classement, le processus prend en considération les ressources d’informations internes et externes aux organisations, ainsi que l’intégration et l’utilisation de plusieurs logiciels de soutien du processus. Par exemple, les bases de connaissances, les bases de données, les applications décisionnelles et les outils d’enquêtes et d’analyse. La méthode d’évaluation personnalisée est construite étape par étape.
Les risques examinés
Ce cadre de travail et sa méthodologie permettent aux entreprises d’Outre-Rhin de déterminer l’infrastructure qui convient le mieux à leurs besoins, en évaluant et en triant les choix possibles à partir de plusieurs critères. L’approche (MC2)2 distingue les infrastructures non seulement d’après leurs coûts, mais aussi en termes de bénéfices, d’opportunités et de risques. Elle s’adapte et facilite l’examen d’un éventail de scenario de prise de décisions dans le domaine des infrastructures informatiques, en fonction des critères retenus. (MC2)2 offre un cadre de travail générique pour la prise de décision et une méthode pour implémenter le cloud. Cette approche, complète et adaptable, ne se limite pas aux nuages informatiques ni même aux solutions d’infrastructure ; son aspect générique la rend également applicable à d’autres processus de prise de décision complexes.
* Auteurs: Michael Menzel, Marten Schönherr, Jens Nimis, Stefan Tai, Karlsruhe Institute of Technology et Forschungszentrum Informatik Karlsruhe

http://www.atelier.net/fr/articles/levaluation-vaut-nuages-informatiques

La consumérisation doit être encadrée pour ne pas fragiliser les compagnies

Publié le 19 décembre 2011 , A propos de... L'Atelier BNP Paribas - Paris
Les collaborateurs sont de plus en plus nombreux à se servir de leur smartphone pour travailler. Le problème : ces appareils ne sont pas sécurisés et peuvent être piratés via des méthodes comme les applications malicieuses.
Le passage d'un accès aux contenus de l'entreprise du traditionnel PC au mobile et dans les nuages a de fortes chances de voir une sophistication des méthodes de cybercriminalité. Le constat est proposé par Trend Micro Incorporated, qui publie un rapport sur le sujet, intitulé "Twelve threat predictions for 2012". Le rapport souligne ainsi que le fait d'apporter son propre appareil mobile au travail (Bring your own device - BYOD) fait que de plus en plus d'informations sont stockées dans l'appareil du collaborateur qui, en tant que combiné personnel, n'est pas forcément protégé et n'est pas contrôlé par les administrateurs. Résultat : la perte et le vol de données ont du coup plus de chances de survenir.
Des applications malicieuses comme légitimes
Notamment via des applications malicieuses, considérées comme l'une des plus importantes menaces. La plate-forme Android serait du coup devenue une cible de choix pour les cybercriminels à cause de son modèle d’application. Trend Micro constate que les pirates devraient aussi commencer à attaquer des applications légitimes, essayant de trouver des vulnérabilités qui pourraient provoquer une exposition de données. D'autres méthodes devraient être initiées, comme le passage par la publicité en ligne.
Accentuer la protection des données
Selon l'étude, l'un des principaux enseignements à tirer pour les administrateurs sera du coup d'accentuer la protection des données et pas seulement des systèmes. En marge de ces risques de vol, un autre défi pour les entreprises résidera dans le fait qu'il existe un décalage dans la compréhension de la notion de confidentialité entre les employeurs et les jeunes générations. Ces dernières ont une attitude différente envers la protection et le partage d'informations et seraient plus susceptibles de révéler des données à d'autres.

http://www.atelier.net/fr/articles/consumerisation-etre-encadree-ne-fragiliser-compagnies

mercredi 14 décembre 2011

les décideurs IT face aux nouvelles tendances

Edition du 05/12/2011 
Etude SaaS Forrester : les décideurs IT face aux nouvelles tendances
Liz Herbert, analyste chez Forrester, a répertorié 5 domaines clefs du SaaS dans lesquels elle a constaté des changements
Les analytiques, l'orchestration des commandes et la mobilité, telles sont les nouvelles tendances des services de logiciels à la demande (SaaS) selon Liz Herbert, analyste chez Forrester.
Selon Forrester Research, alors que le SaaS (Software as a Service) gagne en maturité et en popularité, les acheteurs informatiques des entreprises se retrouvent aujourd'hui aux prises avec de nouvelles considérations au moment du choix. Ainsi, Liz Herbert, analyste chez Forrester et auteur du rapport, a répertorié cinq domaines clefs du SaaS dans lesquels elle a constaté des changements : la spécialisation de l'industrie, l'analyse intégrée, l'orchestration des services, les réseaux sociaux et la mobilité.

« Pour l'industrie, certaines solutions intègrent plus que les bonnes pratiques et les modèles de code, soit sous forme de packs d'applications préconfigurées ou prêtes à l'emploi, soit sous forme de cloud orchestré ou de boutique de vente en ligne pour un secteur spécifique, » écrit l'analyste. « Mais le problème pour les acheteurs, c'est que cela se traduit par des coûts plus élevés, parfois très conséquents, » a-t-elle ajouté. « Par exemple, certaines solutions micro-verticales basées sur NetSuite coûtent quatre fois plus chères que NetSuite lui-même. »
Les outils spécialisés toujours indispensables

Les analytiques sont devenus un élément intégrant des offres SaaS et sont adaptés « au contexte dans lequel travaillent les utilisateurs, » écrit encore Liz Herbert. « De nombreuses entreprises souhaitent disposer en priorité de données d'évaluation spécifiques à leur activité afin de pouvoir comparer leurs performances avec leurs concurrents, un type d'analyses que certains fournisseurs de SaaS commencent à proposer. » Cependant, en général, les applications SaaS s'emploient plutôt à fournir des rapports que des comptes rendus spécifiques, « si bien que les clients doivent encore se tourner vers des outils spécialisés, » ajoute-t-elle.

« En même temps, les clients qui souhaitent faire tourner une série d'applications SaaS disposent de plus de choix sur la manière de les gérer, » avance Liz Herbert. « Face à la prolifération d'applications SaaS et de solutions plus légères, émanant souvent aussi de vendeurs moins fiables, certaines entreprises aimeraient pouvoir disposer d'une solution plus simple, émanant d'un fournisseur unique et responsable, pour leurs contrats, la facturation, le provisioning, le support, l'intégration, les mises à jour, et les tests, » écrit-elle. A l'heure actuelle, seuls des fournisseurs comme Hewlett-Packard offrent de tels services. Encore que ceux-ci sont, en général, des « arrangements ponctuels, qui répondent à une demande particulière. » Cependant, selon l'analyste, « les acheteurs peuvent s'attendre à ce que ce modèle se développe. »

Penser aux déploiements mobiles à venir

« La tendance à l'orchestration augmente avec le développement de boutiques d'applications en ligne, qui permettent aux clients d'acheter facilement des add-ons pour leurs applications SaaS, » écrit Liz Herbert. « Mais les deux filières d'approvisionnement comportent des risques, notamment un verrouillage de la part du vendeur, » explique-t-elle. « Les acheteurs de SaaS doivent également veiller à ce que leurs fournisseurs aient des capacités et une forte stratégie orientée vers les médias sociaux, » ajoute encore l'analyste. « Les entreprises de premier plan effectuent leurs recrutements via Facebook et Second Life et s'adressent à leurs clients via Twitter et Facebook, » écrit-elle. « Les responsables du sourcing doivent veiller à trouver des solutions qui permettent d'intégrer les informations sociales aux sources d'information traditionnelles, y compris des analyses permettant une vue d'ensemble des salariés, des clients et des produits. »

« Enfin, les acheteurs devraient prendre le temps de s'intéresser à la façon dont les fournisseurs de SaaS  réalisent déjà ou envisagent d'effectuer leurs déploiements mobiles, » selon Liz Herbert. « Cette nouvelle tendance concerne la plupart des solutions SaaS. Des fonctionnalités sympathiques et innovantes risquent de ne pas avoir beaucoup de valeur, si le personnel utilise des terminaux plus anciens, » écrit-elle. Mais au cours des 10 prochaines années, la baisse des prix, les progrès en matière d'autonomie des batteries et la couverture haut-débit, ainsi que d'autres facteurs « vont mettre la mobilité au premier plan. »

Article de Jean Elyan avec IDG NS

http://www.lemondeinformatique.fr/actualites/lire-etude-saas-forrester-les-decideurs-it-face-aux-nouvelles-tendances-46869.html

Quelles sont les raisons d’externaliser ou de ne pas externaliser vos logiciels ?

Cloud computing


Quelles sont les raisons d’externaliser ou de ne pas externaliser vos logiciels ?

Avantages

  • Le logiciel étant généralement proposé sur internet, il est accessible à partir de n’importe quel ordinateur. Très pratique si vous avez de nombreux collaborateurs qui sont souvent en déplacement ou travaillent à domicile.

  • Vous évitez de devoir payer des frais de licence importants dès le départ, et vous étalez le coût du logiciel sur la durée de l’utilisation. Ou, pour utiliser des termes comptables, vous transformez des dépenses d’investissement en frais opérationnels.

  • En principe, vous pouvez travailler assez rapidement avec le logiciel, alors que des implémentations in-house comparables peuvent prendre plusieurs semaines, voire plusieurs mois. De plus, vous ne devez pas vous occuper de la gestion ni de l’entretien du logiciel.

  • Le cloud computing permet de réagir plus rapidement à une augmentation ou une baisse subite du nombre d’utilisateurs ou de la capacité, sans devoir observer de temps d’attente prolongé ni conserver de licences inutilisées.

Inconvénients

  • Par principe, certaines organisations éprouvent des difficultés à faire tourner leurs applications à l’extérieur en particulier leurs données opérationnelles. D’ailleurs, dans de nombreuses entreprises, surtout dans le secteur public, il est interdit de placer ces données hors des frontières nationales.

  • Même si nous évoluons vers des réseaux haut débit de plus en plus rapides et puissants, le réseau ou l’infrastructure du fournisseur de services peut tomber en panne. Si c’est ennuyeux pour le particulier, c’est tout simplement inacceptable pour une entreprise.

  • Certes, les frais sont étalés sur plusieurs années, mais une solution cloud computing a généralement un prix plus élevé qu’un logiciel traditionnel, même si la comparaison est biaisée puisque vous payez un service. Concrètement : en plus de la gestion et de l’entretien, le prix comprend généralement des mises à jour gratuites qui vous permettent de travailler en permanence sur les versions les plus récentes.

  • De nombreux fournisseurs de cloud software ont tendance à éviter les procédures d’accès trop astreignantes, raison pour laquelle la sécurité de leur infrastructure n’est pas toujours top. Les entreprises ne sont pas toujours très attentives à leurs codes d’accès, mais leurs applications ne sont pas partagées avec des milliers d’autres entreprises.

107: Questions de contrôle qualité

Les activités de contrôle qualité sont celles qui se concentrent sur la qualité globale du livrable réalisé. Le contrôle qualité relève habituellement de la responsabilité du chef de projet et de la personne responsable d'un livrable.
La liste suivante présente le genre de questions de contrôle qualité qui peuvent être posées au sujet des livrables majeurs de votre projet et du management des livrables d’un projet de développement de logiciel. Plusieurs types de projets peuvent créer une liste similaire de questions de CQ, et ce, pour refléter les livrables spécifiques de ce projet.
Livrable
Questions de contrôle qualité d’un projet de développement de logiciel
(Échantillons de livrables. Une liste non exhaustive.)
La charte du projet
·         Un modèle standard a-t-il été utilisé pour la charte du projet?
·         Les objectifs du projet sont-ils spécifiques, réalistes et dans la sphère de contrôle de l’équipe de projet?
·         Les livrables du projet sont-ils clairement définis?
·         Le contenu énonce-t-il clairement ce qui est dans le contenu et ce qui est en dehors du contenu?
·         L'approche globale du projet est-elle logique?
·         Le coût, l'effort de travail et la durée globale sont-ils clairs?
·         L'organigramme du projet est-il clair?
·         Est-ce qu’un commanditaire de projet a été identifié?
·         Les hypothèses et les risques majeurs ont-ils tous été identifiés?
·         Des plans de gestion des risques sont-ils en place pour tous les risques de niveau moyen et élevé?
·         Les personnes appropriées pour approuver le projet ont-elles été identifiées?
·         La charte du projet a-t-elle été approuvée par les personnes appropriées?
L'échéancier  du projet
·         L'échéancier prend-il en compte l'approche globale de la charte du projet?
·         Les plans de management des risques, des communications, de contrôle et d'assurance qualité sont-ils inclus dans l'échéancier global?
·         Le chemin critique a-t-il été repéré et identifié?
Les exigences commerciales
·         Un modèle standard a-t-il été utilisé pour les exigences commerciales?
·         Les exigences commerciales ont-elles été établies à partir d’une perspective utilisateur?
·         Les modélisations appropriées au niveau du processus et au niveau commercial, ont-elles été réalisées?
·         Le livrable répond-il aux critères définis d’acceptation?
·         Les exigences commerciales ont-elles été approuvées par les personnes appropriées?
La conception du système
·         Un modèle standard a-t-il été utilisé pour la conception du système?
·         Les interfaces ont-elles été identifiées et définies?
·         Est-ce que des écrans et des formes ont été identifiés à un niveau global ?
·         Les processus globaux en ligne et les processus différés, fonctionnent-ils correctement du début à la fin?
·         Les bases de données ont-elles été identifiées et définies?
·         Le livrable répond-il aux critères d’acceptation définis ?
·         La conception du système a-t-elle été approuvée par les personnes pertinentes?
La conception technique du système
·         Un modèle standard a-t-il été utilisé pour la conception technique du système?
·         L’architecture technique est-elle conforme à toutes les normes courantes, ou a-t-elle bénéficié d’exceptions?
·         La conception suit-elle toutes les normes et directives de développement appropriées?
·         Les écrans, les rapports, les composants, les bases de données, etc., ont-ils été définis avec suffisamment de détails pour que le processus de construction puisse commencer?
·         Le produit livrable répond-il aux critères d’acceptation définis ?
·         La conception technique du système a-t-elle été approuvée par les personnes pertinentes?
La construction
·         Des révisions de code ont-elles été menées pour tous les nouveaux modules?
·         Le code a-t-il été bien documenté, pour être compréhensible à l’avenir?
·         Toutes les composantes du logiciel ont-ils passé avec succès des tests d’ensemble?
·         Les livrables répondent-ils aux critères d’acceptation définis ?
Le plan de tests
·         Un modèle standard a-t-il été utilisé pour le plan de tests?
·         Les tests ont-ils été effectués pour s’assurer que le logiciel remplit les fonctions pour lesquelles il a été conçu?
·         Les tests ont-ils été effectués avec une variété de données non valides et inattendues pour s’assurer que le logiciel réponde comme prévu?
·         La solution est-elle passée par les tests d'intégration, les tests système, et les tests d'acceptation par l’utilisateur
·         Les livrables répondent-ils aux critères d’acceptation définis ?
·         Les clients commerciaux ont-ils formellement approuvé les résultats du processus de tests, signifiant ainsi que la solution est prête pour passer à une situation de production?

Terminologie de management de projet
Description du contenu du produit. Description narrative et documentée du contenu du produit.
Déterminer le budget [processus]. Processus qui consiste à cumuler les coûts estimés de chaque activité ou ensemble de travaux, de façon à établir une référence de base de performance des coûts approuvée.
Abréviations courantes
CPM (anglais) : Critical Path Method
        (français) : Méthode du chemin critique
Liens intéressants
Logiciel: MindMatters Technologies Inc.
·   Société: MindMatters Technologies Inc., Canonsburg, Pennsylvania, États-Unis d'Amérique
·   Catégorie: Gestion de l'innovation
·   Fonctionnalités:
o    Permet aux utilisateurs de partager les acquis intellectuels et les idées au sein d'une entreprise.
o    Dispose d'un tableau de bord pour gérer les tâches du projet, les analyses et les commentaires.
o    Permet aux utilisateurs de comparer visuellement les projets à propos des contraintes techniques, de marketing et financières.

Les équipes de TenStep Francophone
TenStep Francophone